Gli obsoleti: sei mesi dopo

Le prime presentazioni, le interviste e le recensioni sulla stampa, gli articoli di divulgazione e il glossario, e che cosa è cambiato nel frattempo sul fronte della moderazione di contenuti online: il punto dopo sei mesi dalla pubblicazione del mio libro “Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti”.

Se me lo avessero detto solo sei mesi fa non ci avrei creduto: non avrei creduto che Rai News, L’Espresso, Vita, il Corriere, SenzaFiltro, Linkiesta, Wired, Il Manifesto, Rai Radio 1, Radio Popolare, Radio Cernusco, Radio “Rogna”, “D” di Repubblica, Libertà, L’Arena e altri avrebbero dedicato un approfondimento sul lavoro dei moderatori di contenuti a partire dal mio libro “Gli obsoleti”, uscito a inizio febbraio per Agenzia X Edizioni. Non avrei pensato che sarei riuscito, in piena seconda (e terza, e quarta…) ondata pandemica, a mettere in fila una ventina di presentazioni del libro in compagnia di Anita Bertola, Arturo di Corinto, Diletta Huyskes, Eugenio Giannetta, Andrea Daniele Signorelli, Irene Doda, Alberto Molteni, Nunziante Mastrolia, Andrea Di Donato, Lorenzo Bernardi, Silvia Semenzin, Federico Gennari Sartori, Laura Fois, Simone Gambirasio, Andrea Di Donato, Fabio Antichi, Antonio Mattiacci, Simona Barranca, oltre all’intervento in occasione del Festival dei Diritti Umani in compagnia di Alessandra Vittulo, il seminario per gli studenti dell’Università Bicocca in compagnia del professor Marco Gui e a quello per il Nexa Center for Internet & Society. La maggior parte delle persone erano e sono tuttora impegnate a sopravvivere a una pandemia globale e non era affatto scontato riuscire ad attirare l’attenzione su quello che ancora oggi è per lo più un problema sottovalutato, per pochi specialisti.

La prima presentazione de “Gli obsoleti” nel cortile di Cascina Torchiera a Milano a febbraio di quest’anno, in compagnia di Anita Bertola e Marco Philopat di Agenzia X.

Gli articoli di divulgazione e la pubblicazione del primo glossario online sulla moderazione di contenuti

Per questo motivo ho deciso di non smettere di scrivere su questo tema dopo che “Gli obsoleti” è arrivato in libreria: oltre a realizzare alcuni articoli di approfondimento per testate come “Agenda Digitale”, “Singola”, “CheFare”, ho dedicato alcune settimane consecutive di lavoro a realizzare quello che tuttora è il primo e unico glossario sui termini più frequenti utilizzati nell’ambito della moderazione di contenuti. Che cosa succede dopo che una segnalazione è stata inviata ai moderatori? Che cos’è la “coda di revisione” e la “catena di smontaggio” dei contenuti online? Esiste un archivio dei contenuti rimossi e quali sono i diritti degli utenti quando questi ultimi decidono di appellarsi contro la decisione di un moderatore? Quanto guadagnano i moderatori di contenuti e come vengono selezionati? Alcune delle informazioni di base che servono alla lettura dei passaggi più delicati de “Gli obsoleti” sono state riportate nel “Glossario essenziale” della moderazione di contenuti disponibile su questo blog, che continuerò ad aggiornare man mano che nuovi termini cominceranno a entrare nell’uso comune.

I moderatori di contenuti hanno iniziato a far sentire la propria voce e a chiedere maggiori diritti

Sono stati sei mesi intensi di presentazioni, interviste e attività di divulgazione svolta prevalentemente da casa in ragione delle ultime zone rosse, arancioni e gialle e dell’impossibilità di vedersi di persona in libreria. Sono stati, inoltre, sei mesi importanti dal punto di vista delle notizie che in parte sono andate a confermare quelle che fino a poco tempo fa erano solo voci isolate, e in parte hanno dimostrato che i moderatori non sono destinati a rimanere per sempre invisibili e ignorati dalle istituzioni come è avvenuto nel corso degli ultimi anni. In questo senso, va ricordata perlomeno la dichiarazione di Joe Biden che ha accusato Facebook di essere “giudice, giuria e boia” nell’ambito della moderazione di contenuti relativa alla disinformazione sanitaria, prendendo atto di una concentrazione di potere sempre più pericolosa e deleteria per le nostre società democratiche e della sostanziale fallacia di un sistema di moderazione di contenuti interamente delegato alle grandi aziende tecnologiche.

Pur avendo ricevuto molta meno eco mediatica, altrettanto importante è stata la richiesta avanzata pubblicamente da un gruppo di moderatori in una lettera aperta a Mark Zuckerberg a distanza di poche settimane dalla dichiarazione del presidente americano: lettera nella quale per la prima volta viene proposta la cancellazione degli accordi di riservatezza che impediscono ai moderatori di raccontare i retroscena più oscuri e inquietanti del loro lavoro (a meno di non ricorrere all’anonimato). Sottoposte alla pressione dei governi e dei moderatori stessi, è probabile che le aziende tecnologiche nei prossimi anni si troveranno nella condizione di dover rivedere del tutto o in parte le loro strategie riguardanti la moderazione di contenuti, tanto più se a questa doppia pressione di istituzioni e moderatori dovesse aggiungersi un terzo fronte critico: quello degli utenti e delle inserzionisti censurati sempre più spesso dall’attività “invisibile” dei moderatori.

Una delle ultime interviste anonime a un moderatore di contenuti, pubblicata da Vice.

Si parlerà sempre più spesso di moderatori quanto più saranno le vittime di questi ultimi

In questo senso, voglio azzardare una previsione: si parlerà sempre più dei moderatori, e si chiederanno sempre più leggi e interventi volti a regolamentare e portare alla luce questo mondo sommerso, quanto più saranno le vittime della censura operata dai moderatori stessi. Quanto più saranno gli utenti comuni, gli amministratori di pagine di gruppi nati “dal basso” gli inserzionisti piccoli e medi che saranno censurati, bloccati, limitati, penalizzati del tutto o solo temporaneamente (nella cosiddetta “prigione di Facebook”) dall’intervento di un invisibile e inavvicinabile moderatore, allora tanto più aumenterà la consapevolezza delle storture e contraddizioni che contraddistinguono i modelli attuali di sorveglianza e censura globale: dall’anonimato con cui sono inviate le segnalazioni alla mancanza di adeguate comunicazioni riguardanti gli aggiornamenti delle “policy” delle piattaforme digitali, dall’assenza di trasparenza per quanto riguarda il processo di revisione dei contenuti fino ad arrivare a riflettere sulla totale mancanza di restrizioni ai potenziali conflitti di interesse tra chi controlla e chi è controllato.

In questo senso, sarebbe utile che certi media smettessero di raccontare questo lavoro solamente dal punto di vista scandalistico, come nel caso dell’intervista a un moderatore coperto da un’inquietante maschera pubblicata recentemente da “Vice”, per provare a contestualizzare l’attività moderatori all’interno di uno scenario più complesso: quello dell’affermazione di un modello di business digitale che ha fondato il suo successo economico sulla promessa della completa automazione di processi editoriali e commerciali grazie all’utilizzo di algoritmi e intelligenze artificiali, e che si trova sempre più spesso a ricorrere a una forza lavoro manuale sottopagata, sottoqualificata, sottodimensionata e costretta ad agire nell’invisibilità. Non è più possibile oggi parlare di moderatori senza metterli in diretta correlazione con gli algoritmi i cui errori di selezione sono chiamati a nascondere, così come non è più possibile parlare di algoritmi senza approfondire il ruolo che moderatori e altri “operai del clic” hanno nel contribuire alla diffusione di questi ultimi: la narrazione scandalistica della moderazione di contenuti rende tuttora impossibile rendersi conto del ruolo che i moderatori – presi nel loro insieme, e non più come individui isolati – hanno nel contribuire ad accrescere la diffusione e il potere delle nuove piattaforme digitali.

La moderazione di contenuti non riguarda più soltanto Facebook, né solamente i social media “storici”

È un errore, infatti, circoscrivere l’ambito della moderazione di contenuti al solo Facebook o ai soli social media: nella realtà i settori di intervento di un moderatore professionista diventano ogni giorno sempre più numerosi, sempre più illimitati i suoi poteri di intervento, sempre più importante il suo ruolo nell’affermazione di qualunque piattaforma digitale globale o locale, di natura pubblicitaria o commerciale. Un esempio in tal senso viene dalle notizie riguardanti la piattaforma di eCommerce Etsy che, secondo un articolo di Gizmodo pubblicato a marzo di quest’anno, ha intenzione di investire oltre 40 milioni di dollari nella moderazione di contenuti dopo aver ricevuto nel 2020 più di quattro milioni di segnalazioni di prodotti a rischio tra cui armi, cure miracolose, materiali radioattivi. A quanto ammonta, oggi, il costo della moderazione di contenuti per le grandi piattaforme digitali? Nessuno lo sa, ma è un costo con ogni probabilità destinato a crescere, dopo che per anni giornalisti, istituzioni, investitori sono stati cullati dalla promessa – smentita innumerevoli volte – della moderazione automatizzata.

I moderatori di contenuti sono coloro che, con il loro lavoro di “operai del clic” più o meno specializzati, perpetuano l’illusione di piattaforme digitali più sicure, neutrali ed efficienti dei tradizionali servizi “offline” (o dei servizi online che non possono permettersi il costo di questa forza lavoro invisibile e disciplinata). In questo senso, non ci sono poi tante differenze tra i moderatori dei social e il team di revisori che decide quali app possono rimanere sull’App Store, e che opera nelle stesse modalità di segretezza, anonimato e impunità dei moderatori delle piattaforme più conosciute, così come non vi sono troppe differenze tra i moderatori di Facebook o Twitter e il team di “sicurezza” interno ad Airbnb, oggetto di una lunga inchiesta di Bloomberg uscita a maggio di quest’anno, il cui obiettivo non è tanto quello di prevenire lo svolgersi di incidenti negli appartamenti affittati sulla piattaforma quanto di assicurarsi il silenzio delle vittime e impedire che le notizie di cronaca nera riguardanti AirBnb diventino “virali”.

Lo scenario che emerge dalle notizie e dalle inchieste di questi ultimi mesi è che ogni piattaforma digitale di successo ha il suo piccolo o grande esercito di moderatori di contenuti: “Gli obsoleti” sono molti più di quelli che calcolano le stime più conservative, il loro lavoro continua a svolgersi nella più totale assenza di norme di sicurezza e supervisione che non siano quelle dettate dalle aziende tecnologiche che li hanno assunti o ingaggiati tramite agenzie esterne, e la moderazione di contenuti è destinata a diventare un problema all’ordine del giorno per tutti coloro che sono impiegati a vario titolo nell’economia e nella cultura digitale di massa. Nel mio piccolo, provo a offrire una chiave di interpretazione che non si limita all’aspetto più scandalistico del problema né riguarda i soli social media, ma prova a ricostruire l’impatto dei moderatori all’interno del più ampio contesto di un modello di business digitale fondato su una promessa della completa automazione dei processi e delle decisioni editoriali: chissà che i prossimi sei mesi non porteranno altri a interessarsene, pandemia permettendo.

Il mio intervento sui moderatori e la moderazione di contenuti in occasione dell’89° seminario del Nexa Center for Internet & Society.
jacopo franchi

Autore

Jacopo Franchi

Mi chiamo Jacopo Franchi, sono nato nel 1987, vivo a Milano, lavoro come social media manager, sono autore del sito che state visitando in questo momento e di tre libri sui social media, la moderazione di contenuti online e gli oggetti digitali.

Continua a leggere…

Lascia un commento