Gli obsoleti jacopo franchi

Moderatori di contenuti: glossario essenziale

Che differenza c’è tra moderatori di contenuti volontari e professionisti? Come trovano lavoro i moderatori? Quanto guadagnano? Quanto tempo hanno i moderatori per valutare una segnalazione? Queste e altre domande, tratte dal libro “Gli obsoleti”, trovano risposta in questo primo glossario della moderazione di contenuti.

Indice navigabile del Glossario

Addestramento

Ogni attività dei moderatori di contenuti viene tracciata, catalogata e utilizzata per l’addestramento di intelligenze artificiali che potrebbero prendere il posto degli operatori umani. “I moderatoriscrive David Gilbertstanno, a tutti gli effetti, allenando un software che un giorno potrebbe rimpiazzarli”. Da notare, tuttavia, come il primo tentativo di sostituzione generale dei moderatori di contenuti con sistemi automatici abbia portato Facebook a rimuovere migliaia di contenuti che non violavano alcuna “policy” della piattaforma, prima di fare dietrofront e tornare alla moderazione di contenuti “umana”. La sostituzione dei moderatori di contenuti con le intelligenze artificiali potrebbe essere, oggi, niente più che una promessa irrealizzabile volta a contenere i dubbi degli investitori delle piattaforme sui costi crescenti della moderazione di contenuti manuale. Un’ipotesi, quest’ultima, confermata dai documenti interni di Facebook, pubblicati dal Washington Post, secondo cui l’intelligenza artificiale della piattaforma non riuscirebbe a identificare e rimuovere più dell’1% dei contenuti d’odio pubblicati sul social.

Algoritmi

La crescita del numero dei moderatori di contenuti è andata di pari passo con l’adozione di massa degli algoritmi di selezione editoriale, per limitare la capacità di questi ultimi di rendere virali contenuti non in linea con le policy di pubblicazione delle piattaforme digitali. “La moderazione di contenuti scrive Brandom Russel su The Vergesegue la logica del “boost first, moderate later”: ogni contenuto viene reso più o meno visibile a seconda delle decisioni prese dall’algoritmo, e i contenuti sgradevoli vengono rimossi solo a posteriori“. Senza gli algoritmi probabilmente ci sarebbero molti meno posti di lavoro come moderatori, ma senza i moderatori probabilmente gli algoritmi non conoscerebbero oggi lo stesso successo e la stessa diffusione globale.

Animali

Forse uno dei contenuti più difficili da gestire per un moderatore di contenuti dal punto di vista psicologico: video e fotografie di violenza sugli animali sono un evento molto meno raro di quanto si creda sulle piattaforme digitali, così come avviene nel cosiddetto mondo “offline”, tanto più se si pensa che questi contenuti possono essere pubblicati in diretta dagli autori delle sevizie stesse come riportato in un’importante inchiesta di Wired. Purtroppo, le regole delle piattaforme riguardanti la violenza sugli animali sono tuttora prive di qualsiasi coerenza interna, ammettendo in alcuni casi la possibilità di mostrare scene di uccisione e di violenza sugli animali per motivi alimentari o di caccia, quando non vere e proprie scene di macellazione di massa a scopi religiosi, come testimoniato da un moderatore di Facebook in una lunga testimonianza pubblicata sulla Süddeutsche Zeitung.

Annunci di lavoro

Quello del moderatore di contenuti è un lavoro che difficilmente le persone cercano di proposito: la maggior parte degli annunci di lavoro sono mimetizzati sotto il nome di ricerche per “social media analyst”, “community specialist”, “community manager” o “assistenza clienti”, e raggiungono i potenziali candidati grazie ai suggerimenti automatici di piattaforme di ricerca lavoro come LinkedIn, Indeed o Infojobs. La maggior parte dei moderatori diventa tale un po’ per caso, un po’ per necessità economiche o familiari, senza avere ben chiare le criticità del lavoro a cui va incontro e senza aver attivamente cercato questo lavoro che oggi potrebbe impiegare in forma stabile tra le 100 e le 150 mila persone in tutto il mondo secondo le stime più conservative.

Appello

Quasi tutte le piattaforme digitali consentono agli utenti di “fare appello” contro le decisioni prese da un moderatore: non sono tuttavia definiti né i tempi esatti per ricevere una risposta, né vi è alcuna certezza che il proprio appello venga effettivamente valutato da un secondo moderatore rispetto al primo. Solo alcune piattaforme comunicano il numero totale di appelli ricevuti, accettati o respinti. Come riportato da Kate Klonick sul New Yorker solo su Facebook sarebbero oltre 200 mila gli appelli quotidiani degli utenti, un numero che curiosamente si avvicina di molto al totale di 300 mila errori di moderazione commessi ogni giorno dai moderatori del social secondo i calcoli della NYU Stern.

Archivio

Non è mai stato ufficialmente dichiarata la presenza di archivi digitali contenenti tutti i contenuti e gli utenti rimossi dalle piattaforme nel corso della loro ultradecennale attività. Gli stessi Mark Zuckerberg e Jack Dorsey, interrogati sulla presenza di “registri” di moderazione di contenuti in occasione di un’audizione pubblica, non hanno saputo dare maggiori informazioni in merito. Il lavoro di moderazione è oggi un lavoro opaco, invisibile, volutamente nascosto e reso inaccessibile agli sguardi esterni di autorità, giornalisti e ricercatori indipendenti.

Autolesionismo

Tentativi o incitamenti al suicidio, autolesionismo volontario o incentivato, disturbi alimentari, etc.: le policy delle piattaforme digitali hanno in comune tra loro la totale mancanza di sistematicità nel modo in cui vengono catalogati e moderati questi contenuti a rischio. Questo è quello che emerge da una ricerca dello Stanford Internet Observatory, la prima analisi comparata delle policy relative al “self-harm” di ben 39 piattaforme digitali: se da un lato esistono ancora oggi piattaforme che non hanno diffuso pubblicamente alcuna policy riguardante temi come il suicidio o l’incitamento al suicidio (come nel caso di Google e altri motori di ricerca) dall’altro quelle che lo hanno fatto hanno reso le stesse policy estremamente difficili da individuare, anche quando queste riguardano le piattaforme della stessa azienda (come nel caso di Facebook e Instagram), oppure applicando regole diverse a seconda che gli utenti siano riconosciuti come “creatori” o “fruitori” di contenuti (come nel caso di YouTube e TikTok). Traduzioni incomplete, contraddizioni manifeste tra il desiderio di rimuovere e il bisogno di mantenere online i contenuti per favorire il salvataggio di chi commette violenza contro se stesso, mancanza di tempi certi di risposta e incompleta disponibilità di risorse di supporto rendono oggi l’autolesionismo uno degli aspetti più critici dell’attività di moderazione di contenuti sulle piattaforme digitali.

Avviso

Alcune immagini e video non vengono rimossi dalle piattaforme, malgrado il loro contenuto potenzialmente disturbante, bensì vengono parzialmente “occultati” da un messaggio di avviso che ogni utente può decidere di ignorare o meno. Nel tempo, i messaggi di avvisi si sono fatti sempre più diversificati: da quelli per i contenuti disturbanti a quelli per i contenuti che sono stati revisionati da fact checker esterni alle piattaforme digitali. Restano, tuttavia, dubbi sulla reale efficacia di questi avvisi: da un lato quello sui contenuti sensibili non offre alle persone alcuna alternativa tra ignorare l’immagine nascosta dall’avviso o vedere quest’ultima a proprio rischio e pericolo, mentre gli annunci sui contenuti revisionati dai fact-checker porterebbero gli utenti, secondo uno studio indipendente, a credere che ogni notizia priva di annunci di fact checking sia stata correttamente revisionata, quando in realtà solo una minima parte delle notizie vengono effettivamente verificate.

Catena di smontaggio

Come fanno i moderatori a revisionare migliaia di contenuti al giorno, in media uno ogni 30 secondi? Grazie a una serie di espedienti tecnici che possono essere descritti come parte di una vera e propria “catena di smontaggio” dei contenuti digitali: come ricostruito, tra gli altri, da Sarah T. Roberts in “Behind the Screen”, “ogni video segnalato dagli utenti viene scomposto in automatico in trenta miniature, quindi [i moderatori] non sono obbligati a vedere tutto il contenuto ma solo una serie di immagini statiche. In questo modo possono revisionare anche 2.000 video al giorno”. Altri espedienti conosciuti per accelerare il ritmo di lavoro e aumentare la resistenza dei moderatori sono l’uso di immagini in bianco e nero, lo sfocamento automatico dei volti nelle foto, l’assenza di sonoro nei video e la trascrizione dell’audio di questi ultimi. Espedienti che, tuttavia, possono portare il moderatore a commettere errori per la troppa velocità e la mancanza di sufficienti informazioni di contesto.

Chat

Sebbene quasi tutte le piattaforme digitali abbiano da sempre negato di controllare i contenuti nelle chat private, nondimeno alcuni moderatori intervistati in forma anonima (anche italiani) sembrano smentire questa versione ufficiale, insieme all’evidenza empirica: oggi quasi tutte le piattaforme consentono infatti di segnalare i contenuti di una chat, anche se questi non violano effettivamente alcuna policy di pubblicazione, ed è molto probabile che la conseguenza immediata della segnalazione sia quella di esporre il contenuto di conversazioni private alla revisione di un moderatore umano, eventualmente assistito da una prima selezione artificiale. Ogni utente, in quest’ottica, può consentire ai moderatori l’accesso a conversazioni private mediante una segnalazione anonima e di cui il suo interlocutore non può venire a conoscenza, a meno che la chat segnalata non venga poi rimossa in seguito. La possibilità per i moderatori di una piattaforma digitale di accedere al contenuto di una chat privata in seguito alla segnalazione di un solo membro della conversazione è stata confermata, di recente, da un’inchiesta di ProPublica che ha raccolto le testimonianze di alcune decine di moderatori di contenuti di WhatsApp.

Coda di revisione

A seconda delle piattaforme, dei fornitori di servizi di moderazione e delle testimonianze dei singoli moderatori, il lavoro di revisione viene organizzato in code di revisione prioritarie suddivise per tematiche (dalla “coda” delle segnalazioni di suicidio alla “coda” dei contenuti d’odio, etc.) oppure in un’unica “coda” universale che raccoglie tutti i contenuti in ordine di priorità ma senza alcun collegamento logico tra loro. L’unico elemento in comune tra i due modelli di organizzazione del lavoro, entrambi sottoposti a un algoritmo progettato appositamente allo scopo, è l’impossibilità di giungere al termine della coda stessa da parte di un singolo moderatore o di un team di moderatori che operano su turni di 24 ore: “i video arrivavano sui nostri schermi, organizzati in una coda senza fine” ha raccontato a The Verge Julie Mora-Blanco, tra i primi moderatori di contenuti di YouTube nel 2006, descrivendo in maniera esaustiva come quello dei moderatori sia un lavoro perennemente sottodimensionato e insufficiente rispetto alle esigenze degli utenti e delle stesse piattaforme digitali.

Digital Services Act

Il Digital Services Act, o DSA, è il regolamento europeo che dovrebbe tra le altre cose uniformare le pratiche di moderazione e rimozione di contenuti delle piattaforme digitali entro il territorio dell’Unione Europea. Nella versione licenziata dal Parlamento Europeo, al momento, sembra che il regolamento debba limitarsi tuttavia a definire tempistiche e modalità più stringenti nell’attività di moderazione da parte delle piattaforme digitali, senza tuttavia limitare le possibilità di intervento e violazioni della privacy degli utenti da parte di questi ultimi, né tantomeno salvaguardare la salute e le condizioni di lavoro dei moderatori. Degni di nota sono gli articoli sull’obbligo, per le piattaforme digitali, di gestire gli appelli degli utenti attraverso strumenti non “esclusivamente” automatizzati e quelli che istituiscono la figura del Coordinatore dei servizi digitali e dei cosidetti “segnalatori attendibili”, alle cui segnalazioni le piattaforme dovranno rispondere in via “prioritaria”.

Echo chamber

Se per anni si è insistito sulla presunta capacità degli algoritmi dei social di “rinchiudere” qualunque utente all’interno di un circolo vizioso fatto di informazioni sempre uguali tra loro, capacità recentemente messa in discussione da più di un esperto, non è mai stato messo altrettanto in risalto il ruolo dei moderatori di contenuti nella creazione di “bolle” di informazione individuali e collettive: è infatti il lavoro manuale dei moderatori che porta oggi gli utenti delle piattaforme digitali a vedere contenuti diversi rispetto ai propri “follower” e “amici”, a seconda delle limitazioni geografiche, linguistiche o anagrafiche a cui i contenuti sono stati sottoposti dai moderatori stessi, e a non vedere ciò che è stato rimosso solo pochi minuti prima del proprio accesso alle piattaforme e che altri utenti hanno nel frattempo visto o condiviso prima di essere bloccati, per loro fortuna o loro malgrado.

Ecommerce

Un aspetto spesso sottovalutato quando si parla della moderazione online sono i contenuti relativi alla vendita e recensione di prodotti. Eppure, una parte sempre più consistente della forza lavoro di moderazione delle piattaforme digitali si dedica alla verifica delle segnalazioni riguardanti oggetti e servizi in vendita nei propri marketplace, e delle loro recensioni. Un esempio in tal senso proviene da Etsy, la piattaforma di vendita di oggetti artigianali, al centro delle polemiche per la vendita di oggetti non autorizzati tra cui resti di animali morti, armi, cure miracolose contro i virus e materiali radioattivi, secondo quanto riportato tra gli altri da GizModo: un problema causato, apparentemente, dall’insufficiente capacità della piattaforma di rendere effettive le proprie stesse policy di vendita, e a cui l’azienda stessa ha deciso di porre rimedio annunciando un investimento massiccio in moderatori e moderazione di contenuti, dopo aver ricevuto oltre quattro milioni di segnalazioni di prodotti e recensioni potenzialmente a rischio nel corso del 2020, in crescita del 400% anno su anno. Un altro caso degno di nota è quello di Wish, condannato alla censura da motori di ricerca e app store dalle autorità francesi in base all’accusa di non aver fatto abbastanza per vietare la vendita di prodotti pericolosi tramite la propria piattaforma di eCommerce.

Esperimenti

Come qualunque utente connesso a una piattaforma digitale, anche i moderatori di contenuti possono essere soggetti a esperimenti volti ad aumentare la loro velocità e la loro capacità di resilienza psicologica di fronte ai contenuti che devono moderare: un esperimento condotto da Google su 76 moderatori di contenuti ha portato alla “scoperta” che l’uso di immagini in bianco e nero anziché a colori potrebbe avere effetti benefici sull’umore dei moderatori stessi (almeno, per quanto riguarda la settimana in cui sono stati attivamente monitorati), come riportato da un articolo di Casey Newton per The Verge. Lo stesso Newton ricorda come le aziende digitali non abbiano mai, tuttavia, verificato in che misura il “benessere” psicologico dei moderatori potrebbe essere maggiormente tutelato limitando il numero di contenuti violenti o disturbanti a cui essi possono essere esposti nell’arco di una giornata lavorativa.

Errori

Anche i moderatori di contenuti sbagliano, quotidianamente, e senza ricevere alcun richiamo o ammonimento fino a un limite massimo di errori concessi ogni giorno. Secondo l’ultimo report di una piattaforma come TikTok sono stati 2,9 milioni i video ripubblicati nel corso dell’ultimo semestre 2020 in seguito a un appello degli utenti per un “errore” di moderazione, non è dato sapere se umano o automatico. Secondo quanto emerge dalle testimonianze, un moderatore di una piattaforma come Facebook non può superare il limite del 5-10% di “errori” di moderazione commessi ogni giorno: errori che vengono individuati sia da sistemi automatici sia da un apposito team di supervisori, che valuterebbero in maniera quotidiana un campione casuale di post revisionati dai singoli moderatori. Secondo queste percentuali, il numero di errori commessi e non sanzionati dai moderatori di contenuti di Facebook supererebbe la cifra iperbolica di 300 mila al giorno, quasi 9 milioni di errori al mese.

Fact-Checking

Solo in alcuni casi, per lo più sulle piattaforme che dispongono di minori risorse finanziarie, i moderatori sono incaricati anche di verificare le notizie condivise da pagine e utenti: piattaforme come TikTok o Facebook hanno invece da tempo avviato delle collaborazioni retribuite con agenzie di stampa, quotidiani e associazioni no-profit per servizi di fact-checking sulle proprie piattaforme. I “fact checker”, tuttavia, non possono rimuovere una notizia ritenuta falsa ma solo aggiungere un avviso rivolto agli utenti: in ogni caso, il loro numero sembra essere tuttora insufficiente a rispondere alle richieste di verifica degli utenti stessi e lo stesso “modello di business” porta oggi le organizzazioni di “fact checking” a privilegiare la quantità anziché la rilevanza delle notizie revisionate, concentrando i propri sforzi su “fake news” di minore importanza e che richiedono meno tempo per la verifica. Secondo un report, il 99% dei contenuti segnalati dagli utenti ai fact-checker potrebbe non essere neppure valutati, per l’insufficienza di risorse umane e incentivi finanziari adeguati.

Gig working

I moderatori di contenuti assunti con contratti di lavoro stabili presso le grandi piattaforme digitali o presso le aziende che lavorano in subappalto sono solo una parte, forse neppure la più consistente, del totale dei moderatori di contenuti retribuiti. Come ricostruito da Tarleton Gillespie in “Custodians of the Internet”, un numero cospicuo e mai calcolato di moderatori svolge oggi il proprio lavoro da casa tramite piattaforme di “gig working” come Amazon Mechanical Turk o TaskUs, senza avere i poteri di rimozione di un moderatore professionista, ma limitandosi a verificare la correttezza delle segnalazioni degli utenti e catalogare i contenuti da revisionare per favorire l’organizzazione delle apposite code di revisione. In questo senso, la difficoltà di conoscere il numero esatto di moderatori di contenuti professionisti si somma all’impossibilità di conoscere il numero esatto di moderatori “gig” attivi a intermittenza su piattaforme esterne a quelle da moderare, rendendo ancora più complicato ricostruire i processi che portano un determinato contenuto a essere revisionato o meno, e secondo quale priorità.

Intelligenza artificiale

Per l’intelligenza artificiale le cose si fanno sempre più difficili man mano che il contenuto da revisionare riguarda dinamiche politiche, economiche e sociali” scrive James Vincent su The Verge, riassumendo quello che sembra essere oggi l’ostacolo invalicabile sulla strada della sostituzione dei moderatori di contenuti umani con sistemi di revisione automatici (v. anche la voce addestramento). Se è probabile che l’intelligenza artificiale possa oggi essere già in grado di individuare e rimuovere contenuti simili o identici a quelli che sono stati rimossi in passato, senza comunque essere immune da errori anche grossolani, nel medio-lungo periodo il ruolo dell’intelligenza artificiale nella moderazione online sembra essere per lo più destinato a quello di individuare contenuti potenzialmente a rischio da sottoporre alla valutazione dei moderatori umani, nel caso in cui lo stesso contenuto non venga segnalato volontariamente dagli utenti online, o anticipando di alcuni minuti “decisivi” la segnalazione di questi ultimi. Questo, senza che sia prevista tuttavia alcuna tutela per la privacy delle persone i cui contenuti e messaggi privati potrebbero essere “controllati” dai moderatori senza aver commesso alcuna violazione delle policy.

Invisibilità

I moderatori di contenuti sono invisibili “by design”, secondo una felice definizione di Tarleton Gillespie: separati fisicamente dagli altri lavoratori delle piattaforme digitali, costretti al silenzio da accordi di riservatezza, i moderatori di contenuti sono nascosti dietro lo schermo dall’utilizzo strategico di una comunicazione volutamente ambigua da parte delle piattaforme stesse, che non distinguono mai tra un intervento umano e un intervento artificiale né nei loro report, né nei messaggi di feedback agli utenti. Svelare la presenza, la numerosità e la non neutralità dei moderatori di contenuti, in questo senso, sarebbe in aperta contraddizione con una narrativa mitologica della tecnologia digitale quale strumento in grado di sostituirsi interamente al lavoro dell’uomo: una narrativa che ha guadagnato troppo successo nelle società odierne e presso inserzionisti e investitori delle piattaforme da non poter essere contraddetta senza imprevedibili effetti collaterali. I moderatori di contenuti sono e resteranno a lungo invisibili finché l’industria tecnologica, e i suoi sostenitori politici e finanziari, rincorrerà l’illusione della completa automazione editoriale.

Limitazioni

Non sono previste, ad oggi, regole stringenti che vincolano le piattaforme a operare con moderatori di professionisti locali e madrelingua: ogni moderatore di contenuti può oggi moderare qualsiasi contenuto proveniente da qualsiasi parte del mondo, servendosi di tecnologie di traduzione automatica, al fine di garantire un servizio di moderazione 24/7 in ogni area del globo, anche in quelle dove la disponibilità di moderatori professionisti e nativi è ridotta. Ogni utente, inoltre, può essere sorvegliato e valutato da un moderatore di contenuti posto a cinquemila o cinque chilometri di distanza dal luogo in cui è solito pubblicare i propri contenuti, senza alcuna norma che possa limitare i possibili conflitti di interesse del moderatore chiamato a revisionare contenuti provenienti da culture e opinioni diverse dalla propria. Non esiste alcuna norma, di cui siamo attualmente a conoscenza, che limiti i moderatori di contenuti dal revisionare post, immagini, chat e video pubblicati dai propri conoscenti.

Lingue

Così come non vi sono certezze riguardanti il fatto che un contenuto debba essere revisionato solo da un moderatore madrelingua o con un livello di competenze linguistiche sufficienti a capirne il significato senza fare uso di strumenti di traduzione automatica, non è prevista l’assunzione di un numero di moderatori di contenuti proporzionale alla quantità di utenti che fanno uso di una determinata lingua utilizzata sulla piattaforma. Una ricerca di Equis Labs ripresa dal Guardian ha dimostrato infatti che la moderazione su una piattaforma globale come Facebook è fortemente sbilanciata sul versante delle notizie in lingua inglese, essendo queste ultime “revisionate” dai fact-checker e moderatori nel 70% dei casi di disinformazione documentati, a fronte di un 30% dei casi di notizie di disinformazione in lingua spagnola. L’esempio più tristemente noto e rivelatore della mancanza di moderatori di contenuti madrelingua resta, tuttavia, quello birmano, quando il ridottissimo numero di moderatori di contenuti di lingua locale a disposizione di Facebook non fu sufficiente a limitare la diffusione massiccia di notizie false e incitamenti all’odio e alla violenza nei confronti della popolazione dei Rohingya attraverso il social media.

Moderatori remunerati e volontari

I moderatori di contenuti che vengono pagati in maniera continuativa o a cottimo come gig worker per svolgere attività di moderazione sono solo una parte dei moderatori di contenuti attivi sulle piattaforme: i moderatori volontari dispongono tuttavia di minori poteri di intervento, e possono ricevere segnalazioni e rimuovere solo nell’ambito delle bacheche, dei canali, dei gruppi a cui sono stati assegnati. A seconda delle piattaforme, il ruolo dei moderatori volontari può essere più o meno rilevante rispetto a quello dei moderatori professionisti: su Twitch, ad esempio, i moderatori “volontari” dei singoli canali sembrano avere un ruolo fondamentale nella strategia di controllo dei contenuti potenzialmente a rischio di essere trasmessi “in diretta”, senza tuttavia che venga loro riconosciuto alcun compenso economico ufficiale e senza che questo approccio sia in grado di limitare efficacemente la diffusione di contenuti violenti, come nel caso di ben noti attentati trasmessi in diretta streaming.

Moderazione di contenuti offsite

Sempre più spesso le piattaforme digitali decidono di escludere alcuni utenti o gruppi di utenti in base al comportamento di questi ultimi al di fuori delle piattaforme stesse (offsite). Un esempio in tal senso è quello di Twitch, la piattaforma di video streaming di proprietà di Amazon che ha recentemente dichiarato di aver ingaggiato uno studio legale per studiare il comportamento dei suoi utenti al di fuori della piattaforma stessa, nel mondo digitale e in quello cosiddetto “offline”. “Questa non è moderazione di contenuti – ha dichiarato a Reuters la direttrice di Electronic Frontier Foundation – questa è moderazione del comportamento“. Al momento non è chiaro quali siano esattamente le regole che determinano l’esclusione di utenti o gruppi di utenti che non violano alcuna regola di policy delle singole piattaforme, in seguito a fatti o notizie esterni alle piattaforme stesse.

NDA

I “non-disclosure agreement” sono ormai divenuti uno standard nei contratti dei moderatori, al fine di inibire questi ultimi dal rivelare a giornalisti o semplici utenti informazioni riguardanti il processo di moderazione di contenuti, con ammende pecuniarie che secondo alcune fonti potrebbero arrivare fino a 10.000 dollari. Per impedire la divulgazione non autorizzata di informazioni all’esterno, inoltre, alcuni moderatori sono costretti a consegnare il proprio cellulare al momento di entrare in ufficio, mentre alcune aziende di moderazione di contenuti in outsourcing sono solite ricorrere perfino a servizi di sorveglianza privata per proteggersi dagli sguardi indiscreti di giornalisti e sindacalisti. Per questi motivi i moderatori di contenuti che decidono di condividere la propria testimonianza si servono solitamente di pseudonimi, e rifiutano di mostrare il proprio volto durante servizi fotografici o interviste video “non autorizzate”.

NetzDG

Conosciuta anche come “Network Enforcement Act“, è una legge tedesca che obbliga le piattaforme digitali operanti in Germania a rimuovere contenuti d’odio e di incitamento al razzismo entro e non oltre 24 ore dalla ricezione di una segnalazione da parte degli utenti. Una legge che, tuttavia, come sottolineato anche da David Kaye nel suo libro “Speech police” non prevede alcuna forma di incentivo per mantenere online contenuti di interesse pubblico, giornalistico o storico, costringendo invece i moderatori ad accelerare ulteriormente il ritmo di lavoro e rimuovere preventivamente contenuti potenzialmente a rischio ma senza avere il tempo di compiere indagini ulteriori. Non a caso, secondo il report “The Digital Berlin Wall” del think tank “Justitia” la legge NetzDg sarebbe stata presa a modello da regimi autoritari per costringere le piattaforme digitali a censurare attivamente e preventivamente “fake news”, blasfemie, critiche ai governi dittatoriali in carica.

Oversight Board

È il “tribunale supremo” creato da Facebook per revisionare le scelte compiute dai suoi stessi moderatori di contenuti: indipendente e con giurisdizione globale sulla carta, nella realtà risulta essere enormemente limitato nei suoi poteri di intervento. Come ricostruito da Kate Klonick in un lungo articolo pubblicato sul New Yorker Magazine, l’Oversight Board non può decidere in autonomia quali casi trattare, può intervenire solo sui contenuti rimossi e non su quelli che sono rimasti online, non ha alcun potere sugli algoritmi e le sue decisioni non si traducono automaticamente in nuove policy della piattaforma. Infine, sebbene i suoi membri siano conosciuti formalmente, non è dato sapere quali siano i giudici di volta in volta assegnati a valutare ogni singolo caso, con il risultato che non è possibile verificare eventuali conflitti di interesse all’interno dello stesso tribunale “supremo”.

PhotoDNA

Forse il più avanzato e diffuso sistema di moderazione di contenuti automatico al mondo: sviluppato da Microsoft Research e Dartmouth College, viene oggi utilizzato dalle piattaforme di social media per identificare video e immagini pedopornografiche sulla base della corrispondenza con quelle presenti in archivi messi a disposizioni dalle forze dell’ordine, inclusa la Polizia di Stato italiana. Il suo utilizzo è teoricamente disponibile anche per moderare in automatico altre tipologie di contenuti, ma come sottolineato dall’autore di “Custodians of the Internet” esso dipende da un difficile “compromesso e coordinamento tra leggi, istituzioni e tecnologie per funzionare correttamente“. L’utilizzo di una tecnologia apparentemente simile a quella di PhotoDna è stato più volte documentato nei casi di moderazione di contenuti terroristici, come nel caso dell’attentato di Christchurch in Nuova Zelanda.

Podcast

Se la moderazione di contenuti testuali e visivi pone non pochi problemi al giorno d’oggi, la moderazione di contenuti audio sembra essere il vero punto debole di tutto il sistema, destinato a diventare un elemento di criticità sempre più grave con il passare degli anni. A fronte di migliaia e migliaia di nuovi episodi caricati ogni giorno sulle principali piattaforme quali Spotify, Apple Podcast, Google Podcast e simili, le strategie di moderazione di contenuti audio sembrano ad oggi basarsi su una insufficiente collaborazione tra software incaricati di individuare parole “sensibili” all’interno di ore e ore di trasmissione quotidiana e operatori “umani” incaricati di prendere una decisione finale dopo aver ascoltato o letto la trascrizione del contenuto stesso segnalato dal software. Scarsa o nulla la possibilità per gli utenti di segnalare autonomamente i contenuti. In questo senso, le risorse impiegate dalle piattaforme di podcast sembrano insufficienti rispetto all’obiettivo di moderare i contenuti più violenti e in contraddizione con le loro stesse policy di pubblicazione, tanto che lo stesso New York Times ha denunciato la “tolleranza” delle piattaforme più note nei confronti delle teorie cospirazioniste e razziste, in controtendenza con quanto fatto su altri canali posseduti dalle aziende stesse (come YouTube, nel caso di Google Podcast).

Policy

Sono le regole di pubblicazione delle piattaforme digitali: il loro contenuto varia continuamente, sia per estensione, sia per la diversità di argomenti trattati, modificate da appositi team interni che agiscono in seguito pressioni interne ed esterne alle piattaforme digitali provenienti da autorità statali o organizzazioni della società civile. Come ricorda Shoshana Zuboff nel “Capitalismo della Sorveglianza”, le policy sono un contratto “privo di peso che può essere espanso, riprodotto, distribuito e archiviato senza costi: originariamente, le policy interne di YouTube erano un documento di sole sei pagine di lunghezza, che ancora oggi non può dirsi affatto concluso o definitivo. La difficoltà di stare dietro ai continui cambiamenti delle policy, spesso in aperta contraddizione rispetto alle regole precedenti, è una delle maggiori difficoltà a cui vanno incontro i moderatori, costretti a un aggiornamento continuo e non negoziabile.

Project Guardian

In maniera simile a quanto ricostruito per il programma “Xcheck” di Facebook, Project Guardian è un programma di Twitter destinato agli utenti più in vista della piattaforma che possono contare su un livello aggiuntivo di protezione da parte dei moderatori di contenuti del social media, come riportato da Bloomberg. Il programma, rigorosamente secretato fino alla pubblicazione delle inchieste giornalistiche, prevede che i contenuti segnalati dagli utenti e riferiti ai membri inclusi nella lista di Project Guardian ricevano la priorità nelle liste di revisione dei moderatori di contenuti della piattaforma, ottenendo così un trattamento privilegiato da parte di Twitter rispetto agli utenti non inseriti nella lista. Secondo quanto dichiarato a Bloomberg da Yoel Roth, “head of site intergrity” di Twitter, la lista dei membri di Project Guardian sarebbe in continuo aggiornamento e questi ultimi potrebbero non essere neppure consapevoli di farne parte.

PTSD

Negli ultimi anni è diventato sempre più evidente l’insorgere di disturbi psicologici come quello “post traumatico da stress” tra i moderatori di contenuti, costretti a vedere un numero illimitato di immagini e video di violenza senza alcun limite predefinito e potendo contare solo su poche ore di supporto psicologico al mese (quando previsto dal loro contratto). In questo senso, sono sempre più i moderatori che decidono di denunciare i loro ex-datori di lavoro per vedersi riconosciuto almeno un risarcimento economico per i danni subiti, e non è un caso che all’inizio del 2020 si stata resa pubblica la notizia che alcune aziende che forniscono servizi di moderazione di contenuti abbiano iniziato a chiedere ai moderatori neoassunti di firmare un contratto in cui dichiarano di conoscere in anticipo le possibili ricadute psicologiche del proprio lavoro, per prevenire eventuali processi futuri.

Report sulla trasparenza

Sono raccolte annuale di dati elaborati e pubblicati in proprio dalle piattaforme digitali relativamente al numero e alla tipologia di contenuti rimossi dai loro sistemi automatici e manuali di moderazione. La maggior parte di questi report, tuttavia, non fa alcuna distinzione tra interventi di moderazione dei moderatori e interventi delle intelligenze artificiali, e si limita a riportare una serie di numeri a tre, sei o nove cifre di contenuti rimossi all’interno di categorie volutamente generiche (“spam”, “fake”, “disinformazione”) senza mai fornire un solo esempio concreto di contenuti rimossi, non rimossi o riabilitati in seguito a un appello degli utenti. Il valore giornalistico e accademico di questi report è pressoché nullo, nella misura in cui essi non seguono alcuno standard di mercato, non possono essere verificati da alcuna autorità indipendente esterna e non consentono alcun accesso ai dati originali dei contenuti moderati.

Segnalazioni

Il sistema di moderazione di contenuti online non può funzionare senza il contributo volontario, non remunerato e costante degli utenti delle piattaforme digitali: sono questi ultimi a segnalare i contenuti che potrebbero potenzialmente violare le regole di policy delle piattaforme, e a questi ultimi è concesso di inviare segnalazioni in maniera illimitata e in forma del tutto anonima. Chi è oggetto di una segnalazione non può conoscere né l’autore di quest’ultima, né di essere stato segnalato: solo quando i contenuti o gli utenti segnalati vengono effettivamente rimossi o penalizzati allora essi possono sospettare di essere stati segnalati, ma senza avere la certezza di essere stati revisionati da un sistema automatico o da una persona in carne e ossa. La censura online oggi dipende in larga misura dalla disponibilità degli utenti a farne parte, come vittime e come delatori.

Shadow banning

È forse una delle pratiche più controverse della moderazione di contenuti: l’atto di nascondere un video, un’immagine, un post, un articolo pubblicato sulle piattaforme digitali a tutti gli utenti eccetto che all’autore di questi ultimi, e a sua totale insaputa. In questo modo egli non può mai essere certo che a determinare lo scarso o nullo numero di visualizzazioni, “like” o commenti sia l’oscuramento dei suoi contenuti o piuttosto lo scarso interesse delle persone nei suoi confronti. La pratica sembra essere attestata su tutte le piattaforme digitali e introdotta in primis da quelle occidentali, anche se le maggiori critiche sono state recentemente rivolte a piattaforme come TikTok soprattutto per quanto riguarda i contenuti genericamente contrassegnati come “politici”, per lo più scoraggiati quando non apertamente banditi dalla piattaforma.

Stipendio

Quanto guadagna un moderatore di contenuti? La cifra esatta non è mai stata rivelata dalle piattaforme, mentre nelle inchieste e testimonianze disponibili si scoprono cifre di poco superiori alla media dei salari “minimi” dei Paesi di riferimento: secondo Casey Newton un moderatore negli Stati Uniti non arriva a 30 mila dollari all’anno, secondo Olivia Solon lo stipendio annuale di un moderatore oscillerebbe tra i 23 mila dollari in Irlanda e i 40 mila in California, secondo Adrien Chen un moderatore di Google guadagnerebbe 20 dollari all’ora se assunto come “Contractor” di un anno per YouTube (dati del 2014). Infine, secondo una lettera redatta e pubblicata da oltre 200 moderatori di Facebook la retribuzione oraria di questi ultimi non supererebbe oggi i 18 dollari all’ora, una frazione del compenso dei dipendenti assunti dalla società, ma con ogni probabilità un multiplo dello stipendio riconosciuto ai moderatori che svolgono lo stesso lavoro per la stessa piattaforma, ma residenti nei Paesi meno ricchi del globo.

Store

I revisori di App Store e Google Play Store sono una categoria a sé stante e apparentemente privilegiata di moderatori di contenuti. Fino a poco tempo fa quasi del tutto ignorati dalle cronache e dalle comunicazioni ufficiali delle aziende hi-tech, sono stati per la prima volta rivelati al grande pubblico in occasione del processo intentato da Epic Games nei confronti di Apple dopo la rimozione di Fortnite da App Store. Secondo la stessa azienda di Cupertino sarebbero poco più di cinquecento i revisori responsabili di autorizzare o censurare nuove applicazioni e aggiornamenti di app sullo store, con il supporto di non meglio definiti strumenti automatici. Come si legge in un’inchiesta di CNBC sono numerose le somiglianze tra i revisori e i moderatori di contenuti dei social, tra cui i ritmi di lavoro massacranti, il team sottodimensionato rispetto alle richieste, l’esposizione a contenuti violenti e traumatizzanti, la condizione di totale o parziale invisibilità rispetto agli sviluppatori, la valutazione di performance e di qualità affidata a un team interno di supervisori e l’obbligo di seguire linee guida in costante aggiornamento.

Strike

Le piattaforme digitali non sempre ricorrono alla rimozione immediata quando si tratta di moderare un contenuto che viola una o più regole di policy: sovente, i moderatori ricorrono a forme di intimidazione o penalizzazione temporanee – ad esempio, “congelando” gli account per 12 ore o più – per spingere gli utenti a non commettere nuovamente lo stesso errore che li ha portati a finire sotto l’occhio della censura. La pratica, conosciuta a grandi linee e documentata fin dagli albori delle piattaforme digitali, sembra godere oggi di un utilizzo sempre più diffuso e manifesto, come testimonia il caso di Twitter che ha recentemente dichiarato di servirsene per limitare la diffusione di informazioni false o non verificate relative alla pandemia. A un livello più ampio, si può ritenere l’uso del sistema di “strike” consecutivi come un tentativo di scaricare goffamente la “colpa” della diffusione di contenuti vietati o incorretti sui soli utenti, rei di averli pubblicati o anche solo condivisi, senza mai chiamare in causa il ruolo degli algoritmi nella propagazione di quegli stessi contenuti a rischio di censura.

Supervisori

Chi è il “capo” dei moderatori? La macchina stessa per cui operano: secondo quanto ricostruito dalle testimonianze, i supervisori presenti negli uffici di moderazione di contenuti avrebbero solo limitati poteri di sorveglianza e intervento. È la macchina, ovvero un complesso sistema di software e algoritmi integrati tra loro, a sorvegliare i moderatori inviando loro notifiche continue per controllare la loro presenza e reattività davanti allo schermo, ed è sempre la macchina a organizzare il lavoro quotidiano dei moderatori in base alle priorità dei contenuti immessi nelle diverse code di revisione, consentendo ai lavoratori di accelerare o ridurre il ritmo di revisione grazie alla catena di smontaggio dei contenuti. È sempre la macchina, infine, a individuare i moderatori che sbagliano di più tenendo conto del numero di appelli ricevuti da ogni singolo moderatore da parte degli utenti non in accordo con le sue scelte di revisione. I supervisori, in questo contesto, sembrano essere quasi una figura superflua o di contorno: dediti ad analizzare a campione i contenuti rimossi dai moderatori per valutare la loro percentuale di errori quotidiani, a formare i nuovi moderatori appena assunti, oppure semplicemente delegati ad accoglierli e allontanarli con la forza dal luogo di lavoro in seguito a performance statisticamente insufficienti.

Turnover

I moderatori di contenuti delle piattaforme digitali non durano, solitamente, più di qualche mese consecutivo prima di lasciare il posto a un altro collega o diventare supervisori o formatori dei moderatori successivi. Da un lato per via dei contenuti estremamente violenti a cui sono sottoposti ogni giorno, e che possono portare alcuni moderatori a sviluppare forme di disturbo post-traumatico da stress (PTSD) o altre forme di disturbi psichici di minor entità. Dall’altro, un aspetto meno indagato ma altrettanto importante è l’estrema imprevedibilità del lavoro a cui sono sottoposti: le policy che devono seguire per rimuovere o mantenere online un determinato contenuti cambiano di continuo, così come cambiano di continuo i pericoli reputazionali a cui sono sottoposte le piattaforme (dal terrorismo alle fake news, dalla pornografia agli account di spam). I moderatori sono chiamati a un aggiornamento costante per memorizzare vecchie e nuove regole spesso in aperta contraddizione tra loro (come quelle sulla violenza nei confronti degli animali): l’elevato tasso di turnover tra i moderatori può essere così spiegato non solo alla luce del contenuto stesso del lavoro, ma anche alla richiesta di conformarsi a regole di censura che possono in molti casi andare contro i propri valori personali e le proprie convinzioni più profonde.

Xcheck

Ipotizzato da diversi anni, in base a semplici prove empiriche di segnalazione di determinati contenuti di personaggi pubblici, XCheck è il programma “segreto” di Facebook che comprende una “whitelist” di circa sei milioni di persone del tutto o in parte esentate dalle policy di moderazione di contenuti della piattaforma digitale. Si tratta per lo più di personaggi noti al pubblico, VIP, creatori di contenuti e influencer del tutto immuni alle segnalazioni degli utenti, i cui contenuti vengono valutati da team interni della piattaforma dotati del potere di decidere caso per caso in base all’opportunità del momento e alle conseguenze reputazionali per l’azienda.

Presentazione del libro “Gli obsoleti” insieme ad Andrea Daniele Signorelli alla Milano Digital Week 2021.

Commenti

9 risposte a “Moderatori di contenuti: glossario essenziale”

  1. Avatar Si alza il sipario sui cinquecento revisori dell’App Store – Umanesimo Digitale

    […] mette in evidenza numerose somiglianze tra il lavoro dei revisori dell’App Store e quello dei moderatori di contenuti delle piattaforme digitali: come questi ultimi, anche i revisori delle app sono chiamati a ritmi di lavoro massacranti che […]

  2. Avatar Raccontare Sophie Scholl su Instagram – Umanesimo Digitale

    […] di Sophie fin dal suo primo post o “storia” contraria alla guerra. Mancano le migliaia di segnalazioni che avrebbe ricevuto per aver condiviso presunte “fake news” sul destino dei soldati tedeschi e […]

  3. Avatar Gli obsoleti: sei mesi dopo – Umanesimo Digitale

    […] che servono alla lettura dei passaggi più delicati de “Gli obsoleti” sono state riportate nel “Glossario essenziale” della moderazione di contenuti disponibile su questo blog, che continuerò ad aggiornare man mano che nuovi termini cominceranno a […]

  4. Avatar Il più grande (e grave) fallimento dell’intelligenza artificiale – Umanesimo Digitale

    […] contenuti ai contenuti d’odio, affidando all’intelligenza artificiale la “scelta” su quali segnalazioni provenienti dagli utenti analizzare e quali no. In questo modo è stato possibile ottenere risultati statisticamente […]

  5. Avatar Persone, non numeri: “Noi Denunceremo” e quel dolore che non passa – Umanesimo Digitale

    […] di “farmaci, cure, integratori, rimedi casalinghi o omeopatici”. Un lavoro non semplice, come chiunque abbia svolto il lavoro di moderatore volontario potrebbe confermare, e che oggi supplisce l’inerzia dei media e delle istituzioni nel dare voce e trovare risposte al […]

  6. Avatar Account e pagine social cancellati: le prime sentenze dei Tribunali italiani – Umanesimo Digitale

    […] e grazie alle testimonianze rese da alcuni ex moderatori è stato possibile, in parte, ricostruire gli aspetti fondamentali di questo processo di sorveglianza e censura globale, e scoprire come esso sia in massima parte esternalizzato verso società esterne e gestito da […]

  7. Avatar DSA e moderazione di contenuti: un Regolamento che nasce già vecchio – Umanesimo Digitale

    […] si trovano ad avere a che fare con le prolisse e mutevoli “Condizioni generali” – o policy, che dir si voglia – di utilizzo delle piattaforme digitali. L’articolo 12 prevede infatti che contenuti, […]

  8. Avatar La moderazione di commenti sui giornali: riflessioni sul caso “Le Monde” – Umanesimo Digitale

    […] stesse di pubblicare commenti in risposta ad articoli e inchieste dei propri giornalisti attraverso processi fin troppo simili a quelli seguiti dai social media, e che proprio per questo motivo meritano un’attenzione […]

  9. Avatar Moderazione di contenuti ed enti di controllo: dopo i social, è l’ora dei podcast – Umanesimo Digitale

    […] di aiutare i dipendenti diretti e i responsabili di Spotify nella definizione e revisione delle regole di pubblicazione dei contenuti sulla piattaforma, senza tuttavia avere alcun potere di intervento nelle scelte di […]

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un’icona per effettuare l’accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s…

Blog su WordPress.com.