Nascondere il Male, senza poter fare nulla per cancellarlo. Questo è il destino di un esercito invisibile di persone che ogni giorno, dalla Silicon Valley al più sperduto villaggio filippino, prendono posto davanti al loro computer, come impiegati qualunque di un’azienda qualunque.

Il loro lavoro è quello di rimuovere dai forum, dai social network, e da piattaforme video come Youtube ogni genere di contenuto violento o disturbante. In pochi resistono più di qualche mese. La maggior parte di loro abbandona in seguito a burnout o sintomi da disturbo post-traumatico da stress*. È grazie a loro che potremmo trascorrere l’intera vita in Rete senza imbatterci mai in un video o in una fotografia che non avremmo mai voluto vedere.

Secondo Wired, dovrebbero essere almeno centomila le persone che nel mondo lavorano come moderatori di contenuti online. Per loro non sono previsti riconoscimenti o avanzamenti di carriera: come i contenuti che cancellano, anche la loro testimonianza è qualcosa di cui tutti preferirebbero fare a meno.

Il loro intervento determina la nascita o meno di una notizia. Chi stabilisce se il video di un assassinio debba essere rimosso o meno? I social media hanno raggiunto l’apice del loro successo nel momento in cui sono stati percepiti  come strumenti essenziali per la libertà d’espressione: quanto i social media hanno fatto per la Primavera Araba, e quanto la Primavera Araba ha fatto per i social media? Eppure, solo una minima parte dei video di rivolte di piazza, scontri violenti, uccisioni di massa rimangono online più di ventiquattr’ore.

Caso per caso, il moderatore è chiamato a compiere una scelta, sollecitato dagli utenti della piattaforma che hanno segnalato il contenuto come improprio: lasciar correre, cancellare, o – per i casi più dubbi, o rilevanti – segnalare il contenuto ai propri superiori, che a loro volta saranno chiamati a prendere una decisione che nessun’intelligenza artificiale riuscirà mai a spiegarsi.

Le regole con cui vengono rimossi i contenuti online sono per la maggior parte segrete, e tali devono rimanere. Per quanto assunti con contratti spesso temporanei, o attraverso fornitori in outsourcing, la maggior parte dei moderatori è costretta a firmare un NDA che li obbliga a non parlare del proprio lavoro con i giornalisti, nemmeno una volta usciti dall’azienda (ne sono una prova le poche, asciutte testimonianze raccolte da una lunga inchiesta di un giornale solitamente ricco di fonti come The Verge).

Una segretezza che molto probabilmente nasconde la totale incertezza in cui operano: chi avrebbe potuto prevedere la diretta video dell’uccisione, ad opera della polizia, di Philando Castile? Probabilmente, solo Zuckerberg disponeva allora della necessaria autorità per scegliere di rimetterlo online, malgrado violasse la “netiquette” del social network.

La maggior parte dei moderatori di primo livello – quelli che svolgono la quasi totalità del lavoro, salvo i casi in cui vi sia bisogno di una conoscenza più approfondita del contesto – è localizzata in Paesi africani o del Sud-Est asiatico. Come ha fatto intelligentemente notare Sarah Roberts, una delle poche ricercatrici universitarie al mondo specializzata sui moderatori di piattaforme commerciali, il processo di outsourcing di questi ultimi riproduce nelle sue dinamiche lo stesso percorso di smaltimento dei rifiuti occidentali verso i Paesi del Terzo Mondo e in via di sviluppo.

Se la Rete ha avuto così tanto successo è dovuto in parte anche alla sua promessa, finora mai radicalmente smentita, di poter essere un luogo migliore e più meritocratico del mondo in cui siamo nati. Un mondo dove il Male, finalmente, può essere rimosso nelle sue conseguenze senza che sia necessario ricostruirne le cause: chi erano quelle persone? E dov’è ora, quel bambino? Non fa nulla, non sono mai esistiti né mai li rivedremo. Come per i nostri rifiuti, così abbiamo delegato ad altri il compito di assimilare e seppellire sottoterra contenuti e sostanze di cui ignoriamo la quantità e la tossicità. A provocare il burn-out dei moderatori forse non è tanto la violenza cui sono sottoposti ogni giorno – ogni epoca ha i suoi martiri ed eroi – ma la consapevolezza di non poter fare nulla per rimuoverla anche dal mondo reale.

 

Note

*A Gennaio 2017, per la prima volta una multinazionale di Internet è stata citata in giudizio per disturbo post-traumatico da stress da due ex-dipendenti che ricoprivano il ruolo di moderatori. La multinazionale è Microsoft.