Vai al contenuto

Moderatori di contenuti: glossario essenziale

Che differenza c’è tra moderatori di contenuti volontari e professionisti? Come funziona la “catena di smontaggio”? Come si diventa moderatori? Alcune risposte, tratte dal libro “Gli obsoleti”, in questo glossario in continuo aggiornamento.

Addestramento

Ogni attività dei moderatori di contenuti viene tracciata, catalogata e utilizzata per l’addestramento di intelligenze artificiali che potrebbero prendere il posto degli operatori umani. “I moderatoriscrive David Gilbertstanno, a tutti gli effetti, allenando un software che un giorno potrebbe rimpiazzarli”. Da notare, tuttavia, come il primo tentativo di sostituzione generale dei moderatori di contenuti con sistemi automatici abbia portato Facebook a rimuovere migliaia di contenuti che non violavano alcuna “policy” della piattaforma, prima di fare dietrofront e tornare alla moderazione di contenuti “umana”. La sostituzione dei moderatori di contenuti con le intelligenze artificiali potrebbe essere, oggi, niente più che una promessa irrealizzabile volta a contenere i dubbi degli investitori delle piattaforme sui costi crescenti della moderazione di contenuti manuale.

Algoritmi

La crescita del numero dei moderatori di contenuti è andata di pari passo con l’adozione di massa degli algoritmi di selezione editoriale, per limitare la capacità di questi ultimi di rendere virali contenuti non in linea con le policy di pubblicazione delle piattaforme digitali. “La moderazione di contenuti scrive Brandom Russel su The Vergesegue la logica del “boost first, moderate later”: ogni contenuto viene reso più o meno visibile a seconda delle decisioni prese dall’algoritmo, e i contenuti sgradevoli vengono rimossi solo a posteriori“. Senza gli algoritmi probabilmente ci sarebbero molti meno posti di lavoro come moderatori, ma senza i moderatori probabilmente gli algoritmi non conoscerebbero oggi lo stesso successo e la stessa diffusione globale.

Animali

Forse uno dei contenuti più difficili da gestire per un moderatore di contenuti dal punto di vista psicologico: video e fotografie di violenza sugli animali sono un evento molto meno raro di quanto si creda sulle piattaforme digitali, così come avviene nel cosiddetto mondo “offline”, tanto più se si pensa che questi contenuti possono essere pubblicati in diretta dagli autori delle sevizie stesse come riportato in un’importante inchiesta di Wired. Purtroppo, le regole delle piattaforme riguardanti la violenza sugli animali sono tuttora prive di qualsiasi coerenza interna, ammettendo in alcuni casi la possibilità di mostrare scene di uccisione e di violenza sugli animali per motivi alimentari o di caccia, quando non vere e proprie scene di macellazione di massa a scopi religiosi, come testimoniato da un moderatore di Facebook in una lunga testimonianza pubblicata sulla Süddeutsche Zeitung.

Annunci di lavoro

Quello del moderatore di contenuti è un lavoro che difficilmente le persone cercano di proposito: la maggior parte degli annunci di lavoro sono mimetizzati sotto il nome di ricerche per “social media analyst”, “community specialist”, “community manager” o “assistenza clienti”, e raggiungono i potenziali candidati grazie ai suggerimenti automatici di piattaforme di ricerca lavoro come LinkedIn, Indeed o Infojobs. La maggior parte dei moderatori diventa tale un po’ per caso, un po’ per necessità economiche o familiari, senza avere ben chiare le criticità del lavoro a cui va incontro e senza aver attivamente cercato questo lavoro che oggi potrebbe impiegare in forma stabile tra le 100 e le 150 mila persone in tutto il mondo secondo le stime più conservative.

Appello

Quasi tutte le piattaforme digitali consentono agli utenti di “fare appello” contro le decisioni prese da un moderatore: non sono tuttavia definiti né i tempi esatti per ricevere una risposta, né vi è alcuna certezza che il proprio appello venga effettivamente valutato da un secondo moderatore rispetto al primo. Solo alcune piattaforme comunicano il numero totale di appelli ricevuti, accettati o respinti. Come riportato da Kate Klonick sul New Yorker solo su Facebook sarebbero oltre 200 mila gli appelli quotidiani degli utenti, un numero che curiosamente si avvicina di molto al totale di 300 mila errori di moderazione commessi ogni giorno dai moderatori del social secondo i calcoli della NYU Stern.

Archivio

Non è mai stato ufficialmente dichiarata la presenza di archivi digitali contenenti tutti i contenuti e gli utenti rimossi dalle piattaforme nel corso della loro ultradecennale attività. Gli stessi Mark Zuckerberg e Jack Dorsey, interrogati sulla presenza di “registri” di moderazione di contenuti in occasione di un’audizione pubblica, non hanno saputo dare maggiori informazioni in merito. Il lavoro di moderazione è oggi un lavoro opaco, invisibile, volutamente nascosto e reso inaccessibile agli sguardi esterni di giornalisti e ricercatori.

Autolesionismo

Tentativi o incitamenti al suicidio, autolesionismo volontario o incentivato, disturbi alimentari, etc.: le policy delle piattaforme digitali hanno in comune la totale mancanza di sistematicità nel modo in cui vengono catalogati e moderati questi contenuti a rischio. Questo è quello che emerge da una ricerca dello Stanford Internet Observatory, la prima analisi comparata delle policy relative al “self-harm” di ben 39 piattaforme digitali: se da un lato esistono ancora oggi piattaforme che non hanno diffuso pubblicamente alcuna policy riguardante temi come il suicidio o l’incitamento al suicidio (come nel caso di Google e altri motori di ricerca) dall’altro quelle che lo hanno fatto hanno reso le stesse policy estremamente difficili da individuare, anche quando queste riguardano le piattaforme della stessa azienda (come nel caso di Facebook e Insagram), oppure applicando regole diverse a seconda che gli utenti siano riconosciuti come “creatori” o “fruitori” di contenuti (come nel caso di YouTube e TikTok). Traduzioni incomplete, contraddizioni manifeste tra il desiderio di rimuovere e il bisogno di mantenere online i contenuti per favorire il salvataggio di chi commette violenza contro se stesso, mancanza di tempi certi di risposta e incompleta disponibilità di risorse di supporto rendono oggi l’autolesionismo uno degli aspetti più critici dell’attività di moderazione di contenuti sulle piattaforme digitali.

Avviso

Alcune immagini e video non vengono rimossi dalle piattaforme, malgrado il loro contenuto potenzialmente disturbante, bensì vengono parzialmente “occultati” da un messaggio di avviso che ogni utente può decidere di ignorare o meno. Nel tempo, i messaggi di avvisi si sono fatti sempre più diversificati: da quelli per i contenuti disturbanti a quelli per i contenuti che sono stati revisionati da fact checker esterni alle piattaforme digitali. Restano, tuttavia, dubbi sulla reale efficacia di questi avvisi: da un lato quello sui contenuti sensibili non offre alle persone alcuna alternativa tra ignorare l’immagine nascosta dall’avviso o vedere quest’ultima a proprio rischio e pericolo, mentre gli annunci sui contenuti revisionati dai fact-checker porterebbero gli utenti, secondo uno studio indipendente, a credere che ogni notizia priva di annunci di fact checking sia stata correttamente revisionata, quando in realtà solo una minima parte delle notizie vengono effettivamente verificate.

Catena di smontaggio

Come fanno i moderatori a revisionare migliaia di contenuti al giorno, in media uno ogni 30 secondi? Grazie a una serie di espedienti tecnici che possono essere descritti come parte di una vera e propria “catena di smontaggio” dei contenuti digitali: come ricostruito, tra gli altri, da Sarah T. Roberts in “Behind the Screen”, “ogni video segnalato dagli utenti viene scomposto in automatico in trenta miniature, quindi [i moderatori] non sono obbligati a vedere tutto il contenuto ma solo una serie di immagini statiche. In questo modo possono revisionare anche 2.000 video al giorno”. Altri espedienti conosciuti per accelerare il ritmo di lavoro e aumentare la resistenza dei moderatori sono l’uso di immagini in bianco e nero, lo sfocamento automatico dei volti nelle foto, l’assenza di sonoro nei video e la trascrizione dell’audio di questi ultimi. Espedienti che, tuttavia, possono portare il moderatore a commettere errori per la troppa velocità e la mancanza di sufficienti informazioni di contesto.

Chat

Sebbene quasi tutte le piattaforme digitali abbiano da sempre negato di controllare i contenuti nelle chat private, nondimeno alcuni moderatori intervistati in forma anonima (anche italiani) sembrano smentire questa versione ufficiale, insieme all’evidenza empirica: oggi quasi tutte le piattaforme consentono infatti di segnalare i contenuti di una chat, anche se questi non violano effettivamente alcuna policy di pubblicazione, ed è molto probabile che la conseguenza immediata della segnalazione sia quella di esporre il contenuto di conversazioni private alla revisione di un moderatore umano, eventualmente assistito da una prima selezione artificiale. Ogni utente, in quest’ottica, può consentire ai moderatori l’accesso a conversazioni private mediante una segnalazione anonima e di cui il suo interlocutore non può venire a conoscenza, a meno che la chat segnalata non venga poi rimossa in seguito.

Coda di revisione

A seconda delle piattaforme, dei fornitori di servizi di moderazione e delle testimonianze dei singoli moderatori, il lavoro di revisione viene organizzato in code di revisione prioritarie suddivise per tematiche (dalla “coda” delle segnalazioni di suicidio alla “coda” dei contenuti d’odio, etc.) oppure in un’unica “coda” universale che raccoglie tutti i contenuti in ordine di priorità ma senza alcun collegamento logico tra loro. L’unico elemento in comune tra i due modelli di organizzazione del lavoro, entrambi sottoposti a un algoritmo progettato appositamente allo scopo, è l’impossibilità di giungere al termine della coda stessa da parte di un singolo moderatore o di un team di moderatori che operano su turni di 24 ore: “i video arrivavano sui nostri schermi, organizzati in una coda senza fine” ha raccontato a The Verge Julie Mora-Blanco, tra i primi moderatori di contenuti di YouTube nel 2006, descrivendo in maniera esaustiva come quello dei moderatori sia un lavoro perennemente sottodimensionato e insufficiente rispetto alle esigenze degli utenti e delle stesse piattaforme digitali.

Echo chamber

Se per anni si è insistito sulla presunta capacità degli algoritmi dei social di “rinchiudere” qualunque utente all’interno di un circolo vizioso fatto di informazioni sempre uguali tra loro, capacità recentemente messa in discussione da più di un esperto, non è mai stato messo altrettanto in risalto il ruolo dei moderatori di contenuti nella creazione di “bolle” di informazione individuali e collettive: è infatti il lavoro manuale dei moderatori che porta oggi gli utenti delle piattaforme digitali a vedere contenuti diversi rispetto ai propri “follower” e “amici”, a seconda delle limitazioni geografiche, linguistiche o anagrafiche a cui i contenuti sono stati sottoposti dai moderatori stessi, e a non vedere ciò che è stato rimosso solo pochi minuti prima del proprio accesso alle piattaforme e che altri utenti hanno nel frattempo visto o condiviso prima di essere bloccati, per loro fortuna o loro malgrado.

Ecommerce

Un aspetto spesso sottovalutato quando si parla della moderazione online sono i contenuti relativi alla vendita e recensione di prodotti. Eppure, una parte sempre più consistente della forza lavoro di moderazione delle piattaforme digitali si dedica alla verifica delle segnalazioni riguardanti oggetti e servizi in vendita nei propri marketplace, e delle loro recensioni. Un esempio in tal senso proviene da Etsy, la piattaforma di vendita di oggetti artigianali, al centro delle polemiche nel corso degli ultimi mesi per la vendita di oggetti non autorizzati tra cui resti di animali morti, armi, cure miracolose contro i virus e materiali radioattivi, secondo quanto riportato tra gli altri da GizModo: un problema causato, apparentemente, dall’insufficiente capacità della piattaforma di rendere effettive le proprie stesse policy di vendita, e a cui l’azienda stessa ha deciso di porre rimedio annunciando un investimento massiccio in moderatori e moderazione di contenuti, dopo aver ricevuto oltre quattro milioni di segnalazioni di prodotti e recensioni potenzialmente a rischio nel corso del 2020, in crescita del 400% anno su anno.

Esperimenti

Come qualunque utente connesso a una piattaforma digitale, anche i moderatori di contenuti possono essere soggetti a esperimenti volti ad aumentare la loro velocità e la loro capacità di resilienza psicologica di fronte ai contenuti che devono moderare: un esperimento condotto da Google su 76 moderatori di contenuti ha portato alla “scoperta” che l’uso di immagini in bianco e nero anziché a colori potrebbe avere effetti benefici sull’umore dei moderatori stessi (almeno, per quanto riguarda la settimana in cui sono stati attivamente monitorati), come riportato da un articolo di Casey Newton per The Verge. Lo stesso Newton ricorda come le aziende digitali non abbiano mai, tuttavia, verificato in che misura il “benessere” psicologico dei moderatori potrebbe essere maggiormente tutelato limitando il numero di contenuti violenti o disturbanti a cui essi possono essere esposti nell’arco di una giornata lavorativa.

Errori

Anche i moderatori di contenuti sbagliano, quotidianamente, e senza ricevere alcun richiamo o ammonimento fino a un limite massimo di errori concessi ogni giorno. Secondo l’ultimo report di una piattaforma come TikTok sono stati 2,9 milioni i video ripubblicati nel corso dell’ultimo semestre 2020 in seguito a un appello degli utenti per un “errore” di moderazione, non è dato sapere se umano o automatico. Secondo quanto emerge dalle testimonianze, un moderatore di una piattaforma come Facebook non può superare il limite del 5-10% di “errori” di moderazione commessi ogni giorno: errori che vengono individuati sia da sistemi automatici sia da un apposito team di supervisori, che valuterebbero in maniera quotidiana un campione casuale di post revisionati dai singoli moderatori. Secondo queste percentuali, il numero di errori commessi e non sanzionati dai moderatori di contenuti di Facebook supererebbe la cifra iperbolica di 300 mila al giorno, quasi 9 milioni di errori al mese.

Fact-Checking

Solo in alcuni casi, per lo più sulle piattaforme che dispongono di minori risorse finanziarie, i moderatori sono incaricati anche di verificare le notizie condivise da pagine e utenti: piattaforme come TikTok o Facebook hanno invece da tempo avviato delle collaborazioni retribuite con agenzie di stampa, quotidiani e associazioni no-profit per servizi di fact-checking sulle proprie piattaforme. I “fact checker”, tuttavia, non possono rimuovere una notizia ritenuta falsa ma solo aggiungere un avviso rivolto agli utenti: in ogni caso, il loro numero sembra essere tuttora insufficiente a rispondere alle richieste di verifica degli utenti stessi e lo stesso “modello di business” porta oggi le organizzazioni di “fact checking” a privilegiare la quantità anziché la rilevanza delle notizie revisionate, concentrando i propri sforzi su “fake news” di minore importanza e che richiedono meno tempo per la verifica. Secondo un report, il 99% dei contenuti segnalati dagli utenti ai fact-checker potrebbe non essere neppure valutati, per l’insufficienza di risorse umane e incentivi finanziari adeguati.

Gig working

I moderatori di contenuti assunti con contratti di lavoro stabili presso le grandi piattaforme digitali o presso le aziende che lavorano in subappalto sono solo una parte, forse neppure la più consistente, del totale dei moderatori di contenuti retribuiti. Come ricostruito da Tarleton Gillespie in “Custodians of the Internet”, un numero cospicuo e mai calcolato di moderatori svolge oggi il proprio lavoro da casa e tramite piattaforme di “gig working” come Amazon Mechanical Turk o TaskUs, senza avere i poteri di rimozione di un moderatore professionista, ma limitandosi a verificare la correttezza delle segnalazioni degli utenti e catalogare i contenuti da revisionare per favorire l’organizzazione delle apposite code di revisione. In questo senso, la difficoltà di conoscere il numero esatto di moderatori di contenuti professionisti si somma all’impossibilità di conoscere il numero esatto di moderatori “gig” attivi a intermittenza su piattaforme esterne a quelle da moderare, rendendo ancora più complicato ricostruire i processi che portano un determinato contenuto a essere revisionato o meno, e secondo quale priorità.

Intelligenza artificiale

Per l’intelligenza artificiale le cose si fanno sempre più difficili man mano che il contenuto da revisionare riguarda dinamiche politiche, economiche e sociali” scrive James Vincent su The Verge, riassumendo quello che sembra essere oggi l’ostacolo invalicabile sulla strada della sostituzione dei moderatori di contenuti umani con sistemi di revisione automatici (v. anche la voce addestramento). Se è probabile che l’intelligenza artificiale possa oggi essere già in grado di individuare e rimuovere contenuti simili o identici a quelli che sono stati rimossi in passato, senza comunque essere immune da errori anche grossolani, nel medio-lungo periodo il ruolo dell’intelligenza artificiale nella moderazione online sembra essere per lo più destinato a quello di individuare contenuti potenzialmente a rischio da sottoporre alla valutazione dei moderatori umani, nel caso in cui lo stesso contenuto non venga segnalato volontariamente dagli utenti online, o anticipando di alcuni minuti “decisivi” la segnalazione di questi ultimi. Questo, senza che sia prevista tuttavia alcuna tutela per la privacy delle persone i cui contenuti e messaggi privati potrebbero essere “controllati” dai moderatori senza aver commesso alcuna violazione delle policy.

Invisibilità

I moderatori di contenuti sono invisibili “by design”, secondo una felice definizione di Tarleton Gillespie: separati fisicamente dagli altri lavoratori delle piattaforme digitali, costretti al silenzio da accordi di riservatezza, i moderatori di contenuti sono nascosti dietro lo schermo dall’utilizzo strategico di una comunicazione volutamente ambigua da parte delle piattaforme stesse, che non distinguono mai tra un intervento umano e un intervento artificiale né nei loro report, né nei messaggi di feedback agli utenti. Svelare la presenza, la numerosità e la non neutralità dei moderatori di contenuti, in questo senso, sarebbe in aperta contraddizione con una narrativa mitologica della tecnologia digitale quale strumento in grado di sostituirsi interamente al lavoro dell’uomo: una narrativa che ha guadagnato troppo successo nelle società odierne e presso inserzionisti e investitori delle piattaforme da non poter essere contraddetta senza imprevedibili effetti collaterali. I moderatori di contenuti sono e resteranno a lungo invisibili finché il mondo rincorrerà l’illusione della completa automazione editoriale.

Limitazioni

Non sono previste, ad oggi, regole stringenti che vincolano le piattaforme a operare con moderatori di professionisti locali e madrelingua: ogni moderatore di contenuti può oggi moderare qualsiasi contenuto proveniente da qualsiasi parte del mondo, servendosi di tecnologie di traduzione automatica, al fine di garantire un servizio di moderazione 24/7 in ogni area del globo, anche in quelle dove la disponibilità di moderatori professionisti e nativi è ridotta. Ogni utente, inoltre, può essere sorvegliato e valutato da un moderatore di contenuti posto a cinquemila o cinque chilometri di distanza dal luogo in cui è solito pubblicare i propri contenuti, senza alcuna norma che possa limitare i possibili conflitti di interesse del moderatore chiamato a revisionare contenuti provenienti da culture e opinioni diverse dalla propria. Non esiste alcuna norma, di cui siamo attualmente a conoscenza, che limiti i moderatori di contenuti dal revisionare post, immagini, chat e video pubblicati dai propri conoscenti.

Lingue

Così come non vi sono certezze riguardanti il fatto che un contenuto debba essere revisionato solo da un moderatore madrelingua o con un livello di competenze linguistiche sufficienti a capirne il significato senza fare uso di strumenti di traduzione automatica, non è prevista l’assunzione di un numero di moderatori di contenuti proporzionale alla quantità di utenti che fanno uso di una determinata lingua utilizzata sulla piattaforma. Una ricerca di Equis Labs ripresa dal Guardian ha dimostrato infatti che la moderazione su una piattaforma globale come Facebook è fortemente sbilanciata sul versante delle notizie in lingua inglese, essendo queste ultime “revisionate” dai fact-checker e moderatori nel 70% dei casi di disinformazione documentati, a fronte di un 30% dei casi di notizie di disinformazione in lingua spagnola. L’esempio più tristemente noto e rivelatore della mancanza di moderatori di contenuti madrelingua resta, tuttavia, quello birmano, quando il ridottissimo numero di moderatori di contenuti di lingua locale a disposizione di Facebook non fu sufficiente a limitare la diffusione massiccia di notizie false e incitamenti all’odio e alla violenza nei confronti della popolazione dei Rohingya attraverso il social media.

Moderatori remunerati e volontari

I moderatori di contenuti che vengono pagati in maniera continuativa o a cottimo come gig worker per svolgere attività di moderazione sono solo una parte dei moderatori di contenuti attivi sulle piattaforme: i moderatori volontari dispongono tuttavia di minori poteri di intervento, e possono ricevere segnalazioni e rimuovere solo nell’ambito delle bacheche, dei canali, dei gruppi a cui sono stati assegnati. A seconda delle piattaforme, il ruolo dei moderatori volontari può essere più o meno rilevante rispetto a quello dei moderatori professionisti: su Twitch, ad esempio, i moderatori “volontari” dei singoli canali sembrano avere un ruolo fondamentale nella strategia di controllo dei contenuti potenzialmente a rischio di essere trasmessi “in diretta”, senza tuttavia che venga loro riconosciuto alcun compenso economico e senza che questo approccio sia in grado di limitare efficacemente la diffusione di contenuti violenti, come nel caso di ben noti attentati trasmessi in diretta streaming.

Moderazione di contenuti offsite

Sempre più spesso le piattaforme digitali decidono di escludere alcuni utenti o gruppi di utenti in base al comportamento di questi ultimi al di fuori delle piattaforme stesse (offsite). Un esempio in tal senso è quello di Twitch, la piattaforma di video streaming di proprietà di Amazon che ha recentemente dichiarato di aver ingaggiato uno studio legale per studiare il comportamento dei suoi utenti al di fuori della piattaforma stessa, nel mondo digitale e in quello cosiddetto “offline”. “Questa non è moderazione di contenuti – ha dichiarato a Reuters la direttrice di Electronic Frontier Foundation – questa è moderazione del comportamento“. Al momento non è chiaro quali siano esattamente le regole che determinano l’esclusione di utenti o gruppi di utenti che non violano alcuna regola di policy delle singole piattaforme, in seguito a fatti o notizie esterni alle piattaforme stesse.

NDA

I “non-disclosure agreement” sono ormai divenuti uno standard nei contratti dei moderatori, al fine di inibire questi ultimi dal rivelare a giornalisti o semplici utenti informazioni riguardanti il processo di moderazione di contenuti, con ammende pecuniarie che secondo alcune fonti potrebbero arrivare fino a 10.000 dollari. Per impedire la divulgazione non autorizzata di informazioni all’esterno, inoltre, alcuni moderatori sono costretti a consegnare il proprio cellulare al momento di entrare in ufficio, mentre alcune aziende di moderazione di contenuti in outsourcing sono solite ricorrere perfino a servizi di sorveglianza privata per proteggersi dagli sguardi indiscreti di giornalisti e sindacalisti. Per questi motivi i moderatori di contenuti che decidono di condividere la propria testimonianza si servono solitamente di pseudonimi, e rifiutano di mostrare il proprio volto durante servizi fotografici o interviste video “non autorizzate”.

NetzDG

Conosciuta anche come “Network Enforcement Act“, è una legge tedesca che obbliga le piattaforme digitali operanti in Germania a rimuovere contenuti d’odio e di incitamento al razzismo entro e non oltre 24 ore dalla ricezione di una segnalazione da parte degli utenti. Una legge che, tuttavia, come sottolineato anche da David Kaye nel suo libro “Speech police” non prevede alcuna forma di incentivo per mantenere online contenuti di interesse pubblico, giornalistico o storico, costringendo invece i moderatori ad accelerare ulteriormente il ritmo di lavoro e rimuovere preventivamente contenuti potenzialmente a rischio ma senza avere il tempo di compiere indagini ulteriori. Non a caso, secondo il report “The Digital Berlin Wall” del think tank “Justitia” la legge NetzDg sarebbe stata presa a modello da regimi autoritari per costringere le piattaforme digitali a censurare attivamente e preventivamente “fake news”, blasfemie, critiche ai governi dittatoriali in carica.

Oversight Board

È il “tribunale supremo” creato da Facebook per revisionare le scelte compiute dai suoi stessi moderatori di contenuti: indipendente e con giurisdizione globale sulla carta, nella realtà risulta essere enormemente limitato nei suoi poteri di intervento. Come ricostruito da Kate Klonick in un lungo articolo pubblicato sul New Yorker Magazine, l’Oversight Board non può decidere in autonomia quali casi trattare, può intervenire solo sui contenuti rimossi e non su quelli che sono rimasti online, non ha alcun potere sugli algoritmi e le sue decisioni non si traducono automaticamente in nuove policy della piattaforma. Infine, sebbene i suoi membri siano conosciuti formalmente, non è dato sapere quali siano i giudici di volta in volta assegnati a valutare ogni singolo caso, con il risultato che non è possibile verificare eventuali conflitti di interesse all’interno dello stesso tribunale “supremo”.

PhotoDNA

Forse il più avanzato e diffuso sistema di moderazione di contenuti automatico al mondo: sviluppato da Microsoft Research e Dartmouth College, viene oggi utilizzato gratuitamente dalle piattaforme di social media e contenuti online per identificare video e immagini pedopornografiche sulla base della corrispondenza con quelle presenti in archivi messi a disposizioni dalle forze dell’ordine, inclusa la Polizia di Stato italiana. Il suo utilizzo è teoricamente disponibile anche per moderare in automatico altre tipologie di contenuti, ma come sottolineato dall’autore di “Custodians of the Internet” esso dipende da un difficile “compromesso e coordinamento tra leggi, istituzioni e tecnologie per funzionare correttamente“. L’utilizzo di una tecnologia apparentemente simile a quella di PhotoDna è stato più volte documentato nei casi di moderazione di contenuti terroristici, come nel caso dell’attentato di Christchurch in Nuova Zelanda.

Podcast

Se la moderazione di contenuti testuali e visivi pone non pochi problemi al giorno d’oggi, la moderazione di contenuti audio sembra essere il vero punto debole di tutto il sistema attuale, destinato a diventare un problema sempre più grave con il passare degli anni. A fronte di migliaia e migliaia di nuovi episodi caricati ogni giorno sulle principali piattaforme quali Spotify, Apple Podcast, Google Podcast e simili, le strategie di moderazione di contenuti audio sembrano ad oggi basarsi su una insufficiente collaborazione tra software incaricati di individuare parole “sensibili” all’interno di ore e ore di trasmissione quotidiana e operatori “umani” incaricati di prendere una decisione finale dopo aver ascoltato o letto la trascrizione del contenuto stesso segnalato dal software. Scarsa o nulla la possibilità per gli utenti di segnalare autonomamente i contenuti. In questo senso, le risorse impiegate dalle piattaforme di podcast sembrano insufficienti rispetto all’obiettivo di moderare i contenuti più violenti e in contraddizione con le loro stesse policy di pubblicazione, tanto che lo stesso New York Times ha denunciato la “tolleranza” delle piattaforme più note nei confronti delle teorie cospirazioniste e razziste, in controtendenza con quanto fatto su altri canali posseduti dalle aziende stesse (come YouTube, nel caso di Google Podcast).

Policy

Sono le regole di pubblicazione delle piattaforme digitali: il loro contenuto varia continuamente, sia per estensione, sia per la diversità di argomenti trattati, modificate da appositi team interni che agiscono in seguito pressioni interne ed esterne alle piattaforme digitali provenienti da autorità statali o organizzazioni della società civile. Come ricorda Shoshana Zuboff nel “Capitalismo della Sorveglianza”, le policy sono un contratto “privo di peso che può essere espanso, riprodotto, distribuito e archiviato senza costi: originariamente, le policy interne di YouTube erano un documento di sole sei pagine di lunghezza, che ancora oggi non può dirsi affatto concluso o definitivo. La difficoltà di stare dietro ai continui cambiamenti delle policy, spesso in aperta contraddizione rispetto alle regole precedenti, è una delle maggiori difficoltà a cui vanno incontro i moderatori, costretti a un aggiornamento continuo e non negoziabile.

PTSD

Negli ultimi anni è diventato sempre più evidente l’insorgere di disturbi psicologici come quello “post traumatico da stress” tra i moderatori di contenuti, costretti a vedere un numero illimitato di immagini e video di violenza senza alcun limite predefinito e potendo contare solo su poche ore di supporto psicologico al mese (quando previsto dal loro contratto). In questo senso, sono sempre più i moderatori che decidono di denunciare i loro ex-datori di lavoro per vedersi riconosciuto almeno un risarcimento economico per i danni subiti, e non è un caso che all’inizio del 2020 si stata resa pubblica la notizia che alcune aziende che forniscono servizi di moderazione di contenuti abbiano iniziato a chiedere ai moderatori neoassunti di firmare un contratto in cui dichiarano di conoscere in anticipo le possibili ricadute psicologiche del proprio lavoro, per prevenire eventuali processi futuri.

Report sulla trasparenza

Sono raccolte annuale di dati elaborati e pubblicati in proprio dalle piattaforme digitali relativamente al numero e alla tipologia di contenuti rimossi dai loro sistemi automatici e manuali di moderazione. La maggior parte di questi report, tuttavia, non fa alcuna distinzione tra interventi di moderazione dei moderatori e interventi delle intelligenze artificiali, e si limita a riportare una serie di numeri a tre, sei o nove cifre di contenuti rimossi all’interno di categorie volutamente generiche (“spam”, “fake”, “disinformazione”) senza mai fornire un solo esempio concreto di contenuti rimossi, non rimossi o riabilitati in seguito a un appello degli utenti. Il valore giornalistico e accademico di questi report è pressoché nullo, nella misura in cui essi non seguono alcuno standard di mercato, non possono essere verificati da alcuna autorità indipendente esterna e non consentono alcun accesso ai dati originali dei contenuti moderati.

Segnalazioni

Il sistema di moderazione di contenuti online non può funzionare senza il contributo volontario, non remunerato e costante degli utenti delle piattaforme digitali: sono questi ultimi a segnalare i contenuti che potrebbero potenzialmente violare le regole di policy delle piattaforme, e a questi ultimi è concesso di inviare segnalazioni in maniera illimitata e in forma del tutto anonima. Chi è oggetto di una segnalazione non può conoscere né l’autore di quest’ultima, né di essere stato segnalato: solo quando i contenuti o gli utenti segnalati vengono effettivamente rimossi o penalizzati allora essi possono sospettare di essere stati segnalati, ma senza avere la certezza di essere stati revisionati da un sistema automatico o da una persona in carne e ossa. La censura online oggi dipende in larga misura dalla disponibilità degli utenti a farne parte, come vittime e come delatori.

Shadow banning

È forse una delle pratiche più controverse della moderazione di contenuti: l’atto di nascondere un video, un’immagine, un post, un articolo pubblicato sulle piattaforme digitali a tutti gli utenti eccetto che all’autore di questi ultimi, e a sua totale insaputa. In questo modo egli non può mai essere certo che a determinare lo scarso o nullo numero di visualizzazioni, “like” o commenti sia l’oscuramento dei suoi contenuti o piuttosto lo scarso interesse delle persone nei suoi confronti. La pratica sembra essere attestata su tutte le piattaforme digitali e introdotta in primis da quelle occidentali, anche se le maggiori critiche sono state recentemente rivolte a piattaforme come TikTok soprattutto per quanto riguarda i contenuti genericamente contrassegnati come “politici”, per lo più scoraggiati quando non apertamente banditi dalla piattaforma.

Stipendio

Quanto guadagna un moderatore di contenuti? La cifra esatta non è mai stata rivelata dalle piattaforme, mentre nelle inchieste e testimonianze disponibili si scoprono cifre di poco superiori alla media dei salari “minimi” dei Paesi di riferimento: secondo Casey Newton un moderatore negli Stati Uniti non arriva a 30 mila dollari all’anno, secondo Olivia Solon lo stipendio annuale di un moderatore oscillerebbe tra i 23 mila dollari in Irlanda e i 40 mila in California, secondo Adrien Chen un moderatore di Google guadagnerebbe 20 dollari all’ora se assunto come “Contractor” di un anno per YouTube (dati del 2014). Infine, secondo una lettera redatta e pubblicata da oltre 200 moderatori di Facebook la retribuzione oraria di questi ultimi non supererebbe oggi i 18 dollari all’ora, una frazione del compenso dei dipendenti assunti dalla società, ma con ogni probabilità un multiplo dello stipendio riconosciuto ai moderatori che svolgono lo stesso lavoro per la stessa piattaforma, ma residenti nei Paesi meno ricchi del globo.

Store

I revisori di App Store e Google Play Store sono una categoria a sé stante e apparentemente privilegiata di moderatori di contenuti. Fino a poco tempo fa quasi del tutto ignorati dalle cronache e dalle comunicazioni ufficiali delle aziende hi-tech, sono stati per la prima volta rivelati al grande pubblico in occasione del processo intentato da Epic Games nei confronti di Apple dopo la rimozione di Fortnite da App Store. Secondo la stessa azienda di Cupertino sarebbero poco più di cinquecento i revisori responsabili di autorizzare o censurare nuove applicazioni e aggiornamenti di app sullo store, con il supporto di non meglio definiti strumenti automatici. Come si legge in un’inchiesta di CNBC sono numerose le somiglianze tra i revisori e i moderatori di contenuti dei social, tra cui i ritmi di lavoro massacranti, il team sottodimensionato rispetto alle richieste, l’esposizione a contenuti violenti e traumatizzanti, la condizione di totale o parziale invisibilità rispetto agli sviluppatori, la valutazione di performance e di qualità affidata a un team interno di supervisori e l’obbligo di seguire linee guida in costante aggiornamento.

Strike

Le piattaforme digitali non sempre ricorrono alla rimozione immediata quando si tratta di moderare un contenuto che viola una o più regole di policy: sovente, i moderatori ricorrono a forme di intimidazione o penalizzazione temporanee – ad esempio, “congelando” gli account per 12 ore o più – per spingere gli utenti a non commettere nuovamente lo stesso errore che li ha portati a finire sotto l’occhio della censura. La pratica, conosciuta a grandi linee e documentata fin dagli albori delle piattaforme digitali, sembra godere oggi di un utilizzo sempre più diffuso e manifesto, come testimonia il caso di Twitter che ha recentemente dichiarato di servirsene per limitare la diffusione di informazioni false o non verificate relative alla pandemia. A un livello più ampio, si può ritenere l’uso del sistema di “strike” consecutivi come un tentativo di scaricare goffamente la “colpa” della diffusione di contenuti vietati o incorretti sui soli utenti, rei di averli pubblicati o anche solo condivisi, senza mai chiamare in causa il ruolo degli algoritmi nella propagazione di quegli stessi contenuti a rischio di censura.

Supervisori

Chi è il “capo” dei moderatori? La macchina stessa per cui operano: secondo quanto ricostruito dalle testimonianze, i supervisori presenti negli uffici di moderazione di contenuti avrebbero solo limitati poteri di sorveglianza e intervento. È la macchina, ovvero un complesso sistema di software e algoritmi integrati tra loro, a sorvegliare i moderatori inviando loro notifiche continue per controllare la loro presenza e reattività davanti allo schermo, ed è sempre la macchina a organizzare il lavoro quotidiano dei moderatori in base alle priorità dei contenuti immessi nelle diverse code di revisione, consentendo ai lavoratori di accelerare o ridurre il ritmo di revisione grazie alla catena di smontaggio dei contenuti. È sempre la macchina, infine, a individuare i moderatori che sbagliano di più tenendo conto del numero di appelli ricevuti da ogni singolo moderatore da parte degli utenti non in accordo con le sue scelte di revisione. I supervisori, in questo contesto, sembrano essere quasi una figura superflua o di contorno: dediti ad analizzare a campione i contenuti rimossi dai moderatori per valutare la loro percentuale di errori quotidiani, a formare i nuovi moderatori appena assunti, oppure semplicemente delegati ad accoglierli e allontanarli con la forza dal luogo di lavoro in seguito a performance statisticamente insufficienti.

Turnover

I moderatori di contenuti delle piattaforme digitali non durano, solitamente, più di qualche mese consecutivo prima di lasciare il posto a un altro collega o diventare supervisori o formatori dei moderatori successivi. Da un lato per via dei contenuti estremamente violenti a cui sono sottoposti ogni giorno, e che possono portare alcuni moderatori a sviluppare forme di disturbo post-traumatico da stress (PTSD) o altre forme di disturbi psichici di minor entità. Dall’altro, un aspetto meno indagato ma altrettanto importante è l’estrema imprevedibilità del lavoro a cui sono sottoposti: le policy che devono seguire per rimuovere o mantenere online un determinato contenuti cambiano di continuo, così come cambiano di continuo i pericoli reputazionali a cui sono sottoposte le piattaforme (dal terrorismo alle fake news, dalla pornografia agli account di spam). I moderatori sono chiamati a un aggiornamento costante per memorizzare vecchie e nuove regole spesso in aperta contraddizione tra loro (come quelle sulla violenza nei confronti degli animali): l’elevato tasso di turnover tra i moderatori può essere così spiegato non solo alla luce del contenuto stesso del lavoro, ma anche alla richiesta di conformarsi a regole di censura che possono in molti casi andare contro i propri valori personali e le proprie convinzioni più profonde.

Presentazione del libro “Gli obsoleti” insieme ad Andrea Daniele Signorelli alla Milano Digital Week 2021.

3 Comments »

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...