Vai al contenuto

DSA e moderazione di contenuti: un Regolamento che nasce già “vecchio”

Luci e ombre del Digital Services Act per quanto riguarda la moderazione dei contenuti online: un Regolamento che, in oltre 120 pagine liberamente consultabili, non fa quasi mai riferimento esplicito ai moderatori di contenuti professionisti, pur imponendo degli obblighi alle piattaforme che si servono del loro lavoro.

Una delle poche certezze riguardanti la moderazione di contenuti è l’assenza di certezze di qualsiasi tipo: ancora oggi, nel 2022, la scarsità di informazioni è tale per cui non si sa quanti siano con esattezza i moderatori attivi su piattaforme come Facebook, Twitter, TikTok o YouTube, quanti e quali contenuti vengano effettivamente valutati da questi ultimi, né si hanno informazioni dettagliate e aggiornate riguardanti le loro competenze professionali, gli strumenti impiegati nel loro lavoro, la lingua parlata e la localizzazione geografica. Questo, tuttavia, non ha impedito al Parlamento Europeo di votare a larga maggioranza la proposta di Regolamento sui servizi digitali (Digital Service Act) che dovrebbe, tra le altre cose, uniformare le pratiche di moderazione e rimozione dei contenuti da parte delle piattaforme digitali operanti entro il territorio dell’Unione Europea.

In oltre 120 pagine di testo il termine “moderatori di contenuti” appare poche volte, e per lo più per quanto riguarda i moderatori non professionisti

Il documento originale della Commissione, lungo 120 pagine e liberamente consultabile in formato pdf , doc e html anche in lingua italiana, integrato con i successivi emendamenti del Parlamento, richiede alcune ore di lettura e l’assenza di link interni nei rimandi da un articolo all’altro non aiuta di certo la visione d’insieme. Nella mia analisi degli oltre 70 articoli di cui è composto il “DSA” mi sono volutamente soffermato sulle nuove norme riguardanti la moderazione di contenuti, oggetto del mio saggio “Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti”, tra i primi in Italia a raccogliere e mettere a confronto le rare e frammentarie testimonianze esistenti su questa professione poco conosciuta dai più. Purtroppo, su 120 pagine di regolamento ho trovato un solo riferimento ai “moderatori”, per di più relativo ai soli moderatori volontari dei gruppi social, e poco più nella versione contenente gli emendamenti e integrazioni approvata dal Parlamento europeo.

Il Digital Services Act vuole regolamentare la moderazione di contenuti online, senza regolamentare le modalità di lavoro dei moderatori

Il Digital Services Act, in questo senso, può essere visto a ragion veduta come uno dei più ambiziosi tentativi di regolamentare il “far west” della moderazione di contenuti online (l’espressione non è casuale, come vedremo alla fine di questo articolo), senza tuttavia fornire alcuna indicazione precisa sulle modalità di selezione, condizioni di lavoro e supervisione di coloro che devono operativamente occuparsi della moderazione per conto delle piattaforme digitali. Un approccio che definire “limitato” è dir poco, se si pensa al fatto che i tribunali di numerosi Paesi europei hanno cominciato da tempo a individuare nelle modalità opache di lavoro dei moderatori di contenuti una delle cause del persistere e aggravarsi di fenomeni quali l’odio e il razzismo online, come dimostra l’esempio di una Corte d’appello francese che ha ordinato a Twitter di fornire numero esatto, lingue parlate, località di provenienza e nazionalità dei moderatori impegnati contro questa forma di abuso.

Secondo l’art. 17 del Digital Services Act i reclami e appelli degli utenti dovranno essere d’ora in poi valutati da un moderatore “umano”

Eppure, a voler leggere nel dettaglio le decine e decine di articoli di cui è composto il Digital Services Act, i moderatori qua e là appaiono anche senza essere nominati. È il caso dell’articolo 7, dove si esclude che le piattaforme possano essere obbligate ad effettuare una sorveglianza attiva sui propri utenti per accertare la presenza di attività illegali, ma non viene neppure esclusa la possibilità per queste ultime di sorvegliare i propri utenti per mezzo di sistemi automatici o di moderatori umani; è il caso altresì dell’articolo 17 sulla gestione dei reclami, dove viene imposto alle piattaforme di rispondere ai reclami degli utenti attraverso processi decisionali che non devono avvenire “avvalendosi esclusivamente di strumenti automatizzati“, obbligando quindi le piattaforme come i social media a usare i moderatori umani solo in caso di reclamo da parte degli utenti, mentre il primo livello del processo decisionale di moderazione potrà continuare a essere effettuato in maniera automatica o manuale a seconda della convenienza del momento.

Il Regolamento che disciplina la moderazione di contenuti non prevede tutele per gli utenti dai moderatori, né viceversa

Dal punto di vista dei moderatori, il Digital Services Act non fa mai riferimento alle possibili ricadute psicologiche o di incolumità fisica che il lavoro di moderazione di contenuti porta inevitabilmente con sé. I moderatori, nel Digital Services Act, non sono contemplati. Non sono previste norme relative alla loro indipendenza di giudizio, alla loro formazione, alle tutele per la loro salute in caso di esposizione prolungata a migliaia di contenuti traumatizzanti. Non sono previste neppure norme riguardanti la tutela degli utenti (dall’”uomo comune” al giornalista, dall’attivista al ricercatore) dall’intromissione indebita di moderatori di contenuti all’interno delle proprie utenze digitali, delle proprie chat o account “privati”, come già ampiamente documentato da ricerche e inchieste indipendenti (l’ultima, in ordine di tempo, quella di ProPublica sui moderatori di WhatsApp). Il Digital Services Act rispecchia nella sua incompletezza la scarsità di informazioni riguardanti la materia che intende normare: è un regolamento che nasce probabilmente già vecchio, e come tale inadeguato quando entrerà in vigore.

Se non sei utente delle piattaforme, se non hai una connessione a Internet, non puoi inviare una notifica ai moderatori di contenuti

Dal punto di vista degli utenti, inoltre il Digital Services Act non compie significativi passi avanti neppure per quanto riguarda il processo di comprensione e accettazione delle “Condizioni generali” – o policy, che dir si voglia – di utilizzo delle piattaforme digitali. L’articolo 12 prevede infatti che contenuti, modalità di utilizzo e utenze soggetti a un intervento di moderazione di contenuti debbano essere esplicitate nelle “Condizioni generali”, ma senza fornire alcuna garanzia che queste “condizioni” non siano eccessivamente prolisse, o non possano cambiare troppo spesso in relazione alla capacità di comprensione e memorizzazione delle persone a cui sono rivolte, mentre solo negli emendamenti viene prevista una forma (non meglio precisata) di comunicazione “tempestiva” dei cambiamenti delle regole destinate agli utenti. Utenti che grazie all’articolo 14 del Digital Services Act potranno sempre disporre di meccanismi di notifica di possibili violazioni, ma esclusivamente “per via elettronica“, ignorando quindi le necessità di milioni di persone non connesse e non registrate alle piattaforme digitali e che possono essere vittime di abusi o conoscenti di vittime di abusi su queste ultime, loro malgrado.

Digital Services Act
Il Digital Services Act è stato approvato a larga maggioranza (530 voti favorevoli su 688 presenti) dal Parlamento Europeo e diventerà, nelle prossime settimane, oggetto di confronto in seno al Consiglio Europeo.

Gli obblighi sulla rendicontazione non aggiungono praticamente nulla ai report che le piattaforme digitali pubblicano già da tempo

Del tutto desolante è, inoltre, la prospettiva delineata dall’articolo 13 del Digital Services Act, che obbliga le piattaforme (per quelle con almeno 45 milioni di utenti vale anche l’articolo 33) a pubblicare ogni anno – quando ormai l’intervento di censura è già stato abbondantemente compiuto – “relazioni chiare, facilmente comprensibili e dettagliate” sulle attività di moderazione effettuate o non effettuate. Nulla che le piattaforme – soprattutto quelle maggiori – non facciano già, e che prevede una semplice rendicontazione quantitativa delle notifiche e dei reclami ricevuti, del numero di moderatori di contenuti attivi in ogni singolo Paese, delle azioni intraprese e del tempo medio necessario ad intervenire, senza fornire ulteriori dettagli agli utenti oltre ai semplici numeri degli interventi o alla generica distinzione tra strumenti di moderazione automatica e non. Senza, quindi, che sia possibile da parte delle persone comuni, giornalisti, attivisti e ricercatori indipendenti poter visionare i contenuti originali che sono stati rimossi o segnalati e non rimossi, per farsi un’idea realistica e non solo quantitativa delle decisioni prese dai moderatori.

Ogni intervento di moderazione deve essere “motivato”, e si può ricorrere per via extragiudiziale e giudiziale contro la censura delle piattaforme

Eppure, qualche passo avanti è stato compiuto. Qualche “paletto”, seppur fragile, è stato piantato nel terreno. Il DSA obbliga le piattaforme a fornire sempre una motivazione “chiara e specifica” sugli interventi di moderazione, dalla base giuridica invocata per la rimozione dei contenuti illegali alla clausola contrattuale delle condizioni generali di servizio che hanno portato alla rimozione di contenuti o alla sospensione degli utenti, oltre a informare gli utenti stessi della possibilità di ricorrere tramite vie interne o risoluzione extragiudiziale o giudiziale (articolo 15). Le decisioni e motivazioni, inoltre, devono essere pubblicate in una banca dati pubblicamente accessibile e gestita dalla Commissione Europea (senza riportare dati personali). Il reclamo, o appello, deve essere accessibile e “di facile uso” per un periodo di almeno sei mesi dalla rimozione dei contenuti (come prevede il già menzionato art. 17) e deve essere gestito dalla piattaforma entro dieci giorni lavorativi dal ricevimento della richiesta di revisione da parte dell’utente (da notare come la scadenza di dieci giorni, fondamentale per permettere agli utenti di ottenere giustizia entro tempi ragionevoli, non fosse neppure menzionata nella proposta della Commissione Europea).

Nasce un “doppio binario” di gestione delle segnalazioni, con l’istituzione dei “segnalatori attendibili” da parte dei Cooordinatori dei servizi digitali

Del tutto opinabile, infine, la possibilità contemplata nel DSA di conferire ai cosiddetti “segnalatori attendibili” il diritto di inviare notifiche e segnalazioni che potranno essere gestite dalle piattaforme in via “prioritaria” (articolo 19) rispetto alle notifiche degli utenti comuni. Segnalatori attendibili che possono essere nominati – o ostacolati – nell’esercizio delle loro funzioni unicamente dal Coordinatore dei servizi digitali, la vera novità del Digital Services Act, e che legalizzano di fatto la possibilità per le piattaforme di seguire un doppio binario nella gestione delle segnalazioni relative ai contenuti: da un lato gli utenti che possono al massimo aspettarsi risposte – quando va bene – a distanza di diversi giorni dalla propria segnalazione, dall’altro autorità ed enti nazionali e internazionali che potranno esigere risposte quasi in tempo reale, ottenendo quindi un indebito vantaggio su coloro che non saranno rappresentati da queste ultime, o non potranno, non sapranno o non vorranno per ragioni personali rivolgersi ai “segnalatori” per ottenere un riscontro tempestivo in merito ai contenuti segnalati.

I Coordinatori digitali emergono come il vero “contropotere” della moderazione di contenuti online, ancora tutto da provare sul campo

Emerge, in quest’ultimo passaggio, la figura del Coordinatore dei servizi digitali: un’autorità nazionale – con poteri sanzionatori – responsabile di garantire il coordinamento a livello nazionale tra le altre autorità competenti in materia e contribuire all’applicazione ed esecuzione del Regolamento in tutta l’Unione, coordinandosi con altre autorità nazionali e con la Commissione Europea. Il Coordinatore dei servizi digitali, coadiuvato dalle altre autorità “tradizionali” e dagli eventuali “segnalatori attendibili”, emerge dal Digital Services Act nel testo approvato a gennaio 2022 come il principale potere di controbilanciamento dei poteri di moderazione delle piattaforme. Poteri che rimangono, dal mio punto di vista, in larga misura invariati, opachi, arbitrari, salvo un intervento delle autorità nazionali preposte alla loro sorveglianza e che possono, come stabilito dall’articolo 41 e seguenti, obbligare le piattaforme a moderare o riabilitare contenuti o persone, quando non effettuare vere e proprie ispezioni e accertamenti presso le strutture delle aziende (e plausibilmente dei loro fornitori).

C’è un nuovo sceriffo in città” annuncia Thierry Breton: ma così il Far West continuerà a mietere vittime tra utenti e moderatori

In prospettiva, il Digital Services Act può essere visto come un primo tentativo di riequilibrare i rapporti di forza sulle diffusione e moderazione dei contenuti online tra istituzioni europee, Stati e piattaforme digitali, senza mai tuttavia mettere in discussione la possibilità che a moderare in prima battuta i contenuti siano le stese aziende che li ospitano sulle loro piattaforme e li indirizzano tramite i loro algoritmi, né tantomeno prevedere un riequilibro altrettanto significativo in termini di strumenti a disposizione, informazioni possedute e tutele immediate sia per gli utenti sia per i moderatori di contenuti chiamati a decidere caso per caso. Non deve sorprendere, quindi, che il commissario europeo per il mercato interno e i servizi Thierry Breton abbia celebrato l’approvazione del DSA con l’espressione “c’è un nuovo sceriffo in città” (citazione dal film “Il buono, il brutto e il cattivo”) in un tweet pubblicato il 19 gennaio: come nel Far West, lo scontro tra “buoni” e “cattivi” prosegue a oltranza a prescindere dai diritti delle vittime dell’una e dell’altra parte, e dalle modalità impiegate per raggiungere la “vittoria” finale.

thierry breton sceriffo tweet digital services act
Il tweet originale del commissario Thierry Breton in occasione dell’approvazione del Digital Services Act da parte del Parlamento europeo: “c’è un nuovo sceriffo in città”.

Aggiornamento: l’articolo è stato aggiornato l’8 febbraio 2022 per sottolineare la differenza tra il testo proposto dalla Commissione e quello proposto dal Parlamento europeo, che aggiunge alcuni obblighi per le piattaforme ma non muta, nella sostanza, l’approccio del Regolamento.

4 Comments »

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...