Vai al contenuto

E la chiamano trasparenza

Non solo Facebook o YouTube: anche TikTok, Reddit e ora perfino Twitch pubblicano i loro lunghissimi report annuali sulla moderazione di contenuti. “Dimenticandosi”, tuttavia, di fornire esempi concreti e rendendo impossibile l’accesso ai dati completi a ricercatori, giornalisti e semplici utenti.

Dispongono delle più avanzate tecnologie al mondo ma dipendono in larga misura dal lavoro volontario e “manuale” di utenti e moderatori non remunerati per poter censurare i contenuti che violano le loro stesse policy. Sciorinano numeri a sei cifre per quanto riguarda i contenuti rimossi per odio, violenza, vendita di beni contraffatti, violazioni di copyright, abusi su minori e pubblicità a scopo politico, ma non forniscono un solo esempio concreto di ciò che hanno rimosso o non hanno rimosso dopo una segnalazione ricevuta degli utenti o dall’intelligenza artificiale. Ricevono milioni di appelli ogni anno e questi portano alla scoperta di milioni di contenuti rimossi per errore, umano o automatico che sia non è dato saperlo. Infine, sono molto brave a comunicare se stesse, ma quando si tratta di comunicare la moderazione di contenuti non possono fare altro che pubblicare testi di 30 mila battute con decine e decine di dati, privi di qualsiasi possibilità di verifica ulteriore, ignorando ogni altra forma di comunicazione più sintetica ed efficace per farsi ascoltare dal maggior numero possibile di persone.

Dopo gli anni dell’omertà, è iniziata la moda dei “transparency report” delle piattaforme digitali: Twitch è l’ultimo arrivato

Queste sono, in sintesi, le conclusioni a cui sono giunto dopo aver letto riga per riga, numero per numero, tabella per tabella gli ultimi “transparency report” di TikTok, Twitch e Reddit pubblicati nel 2021 e riferiti all’anno appena trascorso, realizzati sulla falsariga dei “transparency report” di Facebook e delle piattaforme digitali maggiori e che hanno iniziato ad apparire con sempre maggiore frequenza nel corso degli ultimi anni: documenti che di “trasparente” hanno ben poco, e che descriverei piuttosto come una “autocertificazione volontaria” del lavoro svolto da moderatori volontari, professionisti e tecnologie di moderazione automatica delle stesse piattaforme che pubblicano i suddetti report. Una celebrazione autoreferenziale, quindi, della capacità delle aziende tecnologiche private di sorvegliare e censurare un numero crescente di contenuti, gratuiti o a pagamento, che tuttavia non prevede alcuna possibilità di accesso ai dati originari da parte di ricercatori, giornalisti e utenti stessi.

A mancare, infatti, è la presenza dell’oggetto principale d’indagine: non viene mostrato un solo esempio dei contenuti rimossi, non rimossi o rimossi per errore e ripubblicati in seguito a un appello, per farsi un’idea un po’ meno grossolana di che cosa questi numeri vogliano effettivamente dire, a quale concetto di “disinformazione”, “violenza”, “violazione” corrispondano effettivamente. Non è possibile vedere un solo esempio di video rimossi per errore da TikTok e poi ripubblicati in seguito a un appello degli utenti (2,9 milioni nel secondo semestre 2020, secondo il Global Transparency Report di TikTok), non è possibile vedere un solo esempio di commento censurato dai moderatori volontari o professionisti di Twitch (129 milioni nel secondo semestre 2020, secondo il Twitch Transparency Report), non è possibile neppure vedere un solo post o commento di “molestie” rimosso da Reddit (51 mila nel 2020, secondo il Reddit Transparency Report). Numeri che nessun ente terzo può verificare e di cui nessun giornalista può servirsi per ricondurli a un esempio concreto di censura, effettiva o mancata che sia.

Il tweet con cui Twitch ha annunciato il suo primo Transparency Report

Tre milioni di video rimossi per errore su TikTok negli ultimi sei mesi del 2020, 15 mila errori di moderazione di contenuti al giorno

Eppure anche i numeri, a volerli leggere con attenzione, svelano qualcosa di interessante: ad esempio, nel caso di TikTok possiamo infatti renderci conto che gli errori di moderazione compiuti da uomini e macchine (un’altra costante di questi report è l’impossibilità di distinguere tra interventi di censura umana e automatica) sono nell’ordine di almeno 2,9 milioni a semestre, il che vale a dire qualcosa come almeno 15 mila errori di moderazione di contenuti e utenti al giorno. Un dato che si ricava, come anticipato prima, dallo stesso “transparency report”, dove l’azienda ammette di aver ripubblicato 2,9 milioni di video dopo aver ricevuto un appello degli utenti che sono stati penalizzati e censurati dai suoi interventi di moderazione. Non sappiamo invece quanti siano il numero di appelli totali inviati dagli utenti, non sappiamo chi siano gli utenti che hanno fatto appello, non sappiamo entro quanto tempo questi appelli sono valutati, né se esiste alcuna forma di “risarcimento” per i danni subiti da una censura in aperta contraddizione con le sue stesse regole.

Manca ancora qualcosa? Sì, i ringraziamenti: nessuna parola viene spesa per gli utenti che più di altri hanno contribuito a raggiungere questi “risultati”, nessun ringraziamento viene riconosciuto a quelle milioni di persone che in tutto il mondo hanno segnalato contenuti che violavano le regole di pubblicazione delle piattaforme stesse, dando così un contributo fondamentale all’obiettivo di renderle (sic) “più sicure”. La costante dei report è quella di sottolineare come tutte le piattaforme dipendano dal lavoro volontario e gratuito di sorveglianza, moderazione e segnalazione degli utenti (che raggiunge il suo massimo nel caso dei moderatori “volontari” e non retribuiti dei canali di Twitch) salvo poi non includere alcun dato ulteriore relativo alle caratteristiche degli utenti che segnalano i contenuti, agli utenti “spia” più attivi e a quelli che invece non segnalano o segnalano i contenuti che non violano alcuna regola della piattaforma: come i moderatori professionisti, anche i moderatori volontari sono solo un numero dei report che non ha alcuna consistenza “corporea” al di fuori delle piattaforme digitali.

L’esaltazione di una capacità di censura che può ritorcersi contro le stesse piattaforme che la stanno promuovendo

Da notare, infine, come questa sistematica propaganda della propria crescente capacità di censura potrebbe nel breve periodo ritorcersi contro le stesse aziende che ora ne fanno universalmente vanto: se TikTok è così brava a riconoscere i contenuti che fanno disinformazione sul Covid-19 prima che questi vengano visti da qualcun altro (86% del totale, secondo lo stesso “transparency report”), se Twitch è così performante nel capire il significato dei contenuti e rimuovere i messaggi nelle chat prima dell’intervento dei moderatori volontari (98 milioni di messaggi rimossi in automatico rispetto ai 31 milioni in manuale, sempre secondo il report dell’azienda) è probabile che autorità e governi di tutto il mondo siano sempre più interessati a servirsi di questo infaticabile apparato di sorveglianza e censura globale per chiedere alle piattaforme interventi ancora più capillari e pervasivi nel rimuovere contenuti non graditi, non autorizzati, da non consigliare attraverso i propri algoritmi. La propaganda acritica e autoassolutoria della censura saprà rispondere alle aspettative che essa stessa ha creato? La risposta, che la si guardi dal punto di vista dei governati o dei governanti, potrebbe non essere quella desiderata.

9 Comments »

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...