Tutti i dubbi sull’Oversight Board di Facebook
Un lungo articolo di Kate Klonick pubblicato sul New Yorker Magazine ricostruisce la nascita dell’Oversight Board, “tribunale supremo” di Facebook, e le contraddizioni che tuttora lo governano.
È un tribunale globale ma le sue decisioni non diventano legge. Tutti possono chiedere un suo intervento ma solo Facebook può decidere quali casi possono essere trattati. I suoi giudici possono intervenire sui contenuti che sono stati rimossi dai moderatori di contenuti di Facebook, ma non sui contenuti che sono rimasti online. Non ha alcun potere sugli algoritmi, ma solo sugli utenti. I nomi dei suoi membri sono stati resi pubblici in tutto il mondo, ma nessuno conosce i nomi dei giudici che effettivamente sono chiamati a valutare i singoli casi. Questi, in sintesi, sono le caratteristiche e le contraddizioni dell’Oversight Board di Facebook che emergono da una lunga e dettagliata ricostruzione pubblicata da Kate Klonick pochi giorni fa sul New Yorker.

tradotto con un poco rassicurante “Comitato per il controllo”
200.000 appelli tra cui i giudici possono scegliere, a caso, ogni giorno
Kate Klonick, che è stata benevolmente autorizzata da Facebook a seguire i 18 mesi di dibattiti, incontri, workshop e formazione dei 40 membri selezionati per l’Oversight Board, ci ha lasciato una memorabile ricostruzione dei dubbi e delle difficoltà che accompagneranno i giudici chiamati a decidere tra le scelte di censura operate dall’azienda, attraverso i suoi moderatori di contenuti, e gli appelli degli utenti affinché quegli stessi contenuti siano ripubblicati sulla piattaforma. Secondo le fonti citate da Klonick, tuttavia, pur disponendo di una dotazione iniziale di 130 milioni di dollari conferiti da Facebook a un “trust” indipendente, l’Oversight Board comincia le sue attività ampiamente sottodimensionato: meno di cinquanta giudici abili e arruolati a fronte di oltre 200.000 richieste di appello quotidiane.
Non è chiaro, dall’articolo di Klonick, quante di queste centinaia di migliaia di appelli provenienti dagli utenti di Facebook ogni giorno saranno effettivamente sottoposti ai giudici: come spesso accade quando si tratta del social media di Mark Zuckerberg, le quantità sono sempre troppo elevate perché possano essere trattate con un minimo di trasparenza e sistematicità. A quanto è dato sapere, è Facebook a operare una prima selezione degli appelli degli utenti da sottoporre all’Oversight Board: in un momento imprecisato di questo processo interviene una forza ignota, un algoritmo o la pura casualità, che riduce le centinaia di migliaia di richieste di appello a poche decine di casi tra cui i giudici operano un’ultima, arbitraria selezione. Dove finisca la casualità e dove cominci la rilevanza dei casi esaminati non è dato, al momento, sapere.
Le decisioni dell’Oversight Board non hanno alcun effetto sulla policy di Facebook
L’Oversight Board, come ho anticipato all’inizio, può decidere solo nei casi in cui un determinato contenuto sia stato rimosso dai moderatori di Facebook o Instagram: non può valutare, invece, i casi in cui un contenuto simile sia stato segnalato dagli utenti ma non rimosso dai moderatori del social media. Questa distinzione, fondamentale, limita enormemente la possibilità dei giudici di impedire che contenuti di disinformazione, di violenza, di odio o palesemente “fake” possano continuare a diffondersi sulla piattaforma social: i giudici di Facebook possono prendere in esame il “caso Trump”, come sta effettivamente avvenendo in queste settimane, ma solo dopo che Trump o i suoi contenuti sono stati rimossi dal social media e solo dopo che Facebook ha autorizzato la trasmissione dell’appello di Trump o dei suoi supporter al Board. In quest’ottica, l’Oversight board appare essere più un tribunale interno di Facebook chiamato a vigilare sull’operato dei moderatori di contenuti, che non un tribunale chiamato a tutelare i suoi quasi tre miliardi di utenti.
Se tutto questo non fosse sufficiente, va sottolineato il fatto che le decisioni dei giudici di Facebook non hanno alcun effetto sulle regole di pubblicazione dei contenuti (le “policy”) del social e delle sue app di messaggistica istantanea, né tantomeno sugli algoritmi e il design della piattaforma stessa. Contenuti simili a quelli riabilitati dalle decisioni dell’Oversight Board possono quindi essere nuovamente eliminati dai moderatori di Facebook, mentre lo stesso algoritmo che ha determinato la diffusione virale di un contenuto rimosso dai moderatori non può essere in ogni caso censurato o costretto a un aggiornamento da parte dei giudici stessi. Se su un piano teorico le decisioni del Board sono considerate inappellabili e potrebbero avere effetto anche sulla presenza social di Zuckerberg stesso sulla sua piattaforma, nondimeno le limitazioni a cui è soggetta l’operatività del tribunale sono tante e tali da rendere ad oggi ininfluente il suo operato: un’operazione di facciata, quindi, più che un’effettiva separazione del potere di selezione e censura editoriale concentrato tuttora nelle mani di Facebook e del suo fondatore.
Giudici anonimi come i moderatori di contenuti (ma con uno stipendio decisamente migliore)
A onor del vero, l’articolo di Kate Knlonick menziona le promesse di Facebook di rimediare ad alcune delle contraddizioni generate dalle sue stesse scelte: in un momento imprecisato, “a metà del 2021“, l’azienda dovrebbe consentire all’Ovsersight Board di estendere il suo raggio d’azione anche ai casi di appello riguardanti le decisioni dei moderatori di non rimuovere un determinato contenuto dal social media. Eppure, malgrado tutte le dichiarazioni pubbliche e la buona volontà, resta forte il sospetto che l’Oversight Board sia stato a tal punto depotenziato nei suoi primi – cruciali – mesi di operatività, da correre il serio rischio di trasformarsi nell’ennesima profezia che si autoavvera: in questo caso, dell’impossibilità di separare il potere di diffusione dei contenuti (tramite gli algoritmi) dal potere di moderazione di questi ultimi (tramite un ente terzo e indipendente), oggi entrambi riuniti sotto l’autorità di una medesima azienda privata. Disinnescando il tribunale in principio, attraverso la limitazione dei suoi poteri di scelta dei contenuti da valutare e su cui intervenire, Facebook ha ridotto al minimo le possibilità che l’Oversight Board possa acquisire nel tempo una legittimazione “di fatto” oltreché di principio.
A disinnescare ulteriormente l’autorevolezza del Board, infine, si sono messi gli stessi giudici che hanno accettato senza troppe resistenze né proteste di prendere le loro decisioni nel più totale anonimato: per quanto i loro nomi siano stati resi pubblici, non è possibile sapere quali saranno di volta in volta i cinque membri chiamati a valutare i singoli casi sottoposti all’Oversight Board da Facebook. Una mancanza di trasparenza che viene motivata da legittime ragioni di sicurezza e di tutela del singolo giudice, di fronte a pressioni esterne che potrebbero violare la sua sicurezza fisica o la desiderata imparzialità del suo giudizio, ma che al tempo stesso ricorda la totale invisibilità e mancanza di trasparenza in cui operano i moderatori di contenuti, pagati infinitamente meno dei rimborsi “a sei cifre” (sempre secondo Klonick) corrisposti dal “trust” ai membri del tribunale supremo. Che autorevolezza e che “impatto” potrebbero avere le decisioni prese da persone senza volto, selezionate e finanziate dalla stessa azienda che dovrebbero giudicare, è solo l’ultimo dei tanti dubbi di cui potremo conoscere la risposta nei prossimi mesi.
2 Comments »