Il Digital Services Act alla prova della realtà

Dear Mr. Musk“, “Dear Mr. Chew“, “Dear Mr. Pichai“, “Dear Mr. Zuckerberg“: cominciano così le lettere inviate dal commissario europeo Thierry Breton ai proprietari e amministratori dei principali social media operanti in Europa, invitati a limitare con ogni mezzo disponibile la diffusione di contenuti di disinformazione in seguito agli attacchi terroristici di Hamas e in vista delle prossime elezioni per il rinnovo del Parlamento Europeo. Le lettere, rese pubbliche sugli stessi social a cui sono state indirizzate, rappresentano il primo esempio di applicazione concreta del Digital Services Act, il nuovo regolamento europeo riguardante la moderazione di contenuti online.

Le quattro lettere di Thierry Breton e le risposte delle aziende digitali poste sotto osservazione dalla Commissione europea

Le risposte, come prevedibile, non si sono fatte aspettare, seppur di tono e contenuto diverso in base alle aziende chiamate in causa e alle diverse risorse che queste ultime possono attualmente destinare all’attività di moderazione e verifica dei contenuti di disinformazione. Senza voler qui entrare nel merito delle singole risposte, ora più ora meno accomodanti, è apparso fin da subito evidente come l’ampia discrezionalità che il Digital Services Act offre ai fornitori di servizi digitali in merito alle strategie di moderazione abbia portato ogni azienda a prendere decisioni diverse pur a fronte di un’emergenza comune: dalla task force creata da Meta con moderatori madrelingua ebrea e araba per effettuare interventi di revisione “dall’alto”, centralizzati e coordinati, alle community notes di X che dovrebbero valutare, in maniera volontaria e “dal basso”, le informazioni dei post più controversi grazie al contributo degli stessi utenti del fu Twitter, compensando in questo modo la scarsità di moderatori professionisti attualmente impiegati dall’azienda dopo i licenziamenti di massa di “Mr. Musk”.

Il Digital Services Act offre alle aziende digitali la libertà di decidere tempi, modalità e caratteristiche della moderazione di contenuti

Prima ancora che dalle scelte opportunistiche delle singole aziende, tuttavia, questa differenziazione delle pratiche di moderazione dipende dal Digital Services Act stesso, che non definisce criteri stringenti riguardo alle modalità con cui i social media dovrebbero operare per garantire la propria conformità alle richieste della Commissione. Un approccio che ricorda quello di un altro regolamento ben più conosciuto – il GDPR, o Regolamento generale sulla protezione dei dati – ma che nel caso della moderazione di contenuti online appare quantomeno controproducente dal punto di vista degli utenti stessi, vittime loro malgrado della disinformazione: non vi sono, infatti, regole che impongano di assumere un numero minimo di moderatori madrelingua in base al numero di utenti dei Paesi in cui i servizi sono attivi, non vi sono regole che impongano un processo di revisione trasparente in tempo reale (salvo la condivisione dei dati a posteriori con alcuni ricercatori specializzati), non sono obbligatorie verifiche in merito al potenziale conflitto di interesse tra moderatori e persone controllate da questi ultimi, né tantomeno sono previste forme di moderazione diverse in base alla tipologia di contenuti e account segnalati come potenzialmente a rischio (un utente italiano, con dieci anni di attività sui social, può subire le stesse penalizzazioni e censure di un account fake creato pochi giorni orsono). Ai social media viene semplicemente chiesto di revisionare più contenuti, più in fretta, con maggiore pervasività rispetto a quanto non facciano abitualmente, ma senza che vi siano adeguate tutele nei confronti di chi viene controllato né tantomeno garanzie sul fatto che il processo di revisione venga compiuto da personale qualificato, imparziale e responsabile in merito alle scelte compiute.

In questo senso, le quattro lettere di Thierry Breton rappresentano un primo, importantissimo “stress test” per il Digital Services Act e coloro che sono chiamati ad applicarlo: il potere che il Regolamento concede alle aziende private di decidere tempi, modalità e caratteristiche dell’attività di moderazione mi sembra – dopo aver studiato le condizioni di lavoro e le regole di ingaggio dei moderatori – una scelta azzardata e non priva di ambiguità, soprattutto alla luce della gravità della disinformazione denunciata dallo stesso Commissario Breton e dall’urgenza di porvi rimedio in tempo reale. Se a distanza di dieci giorni dalla pubblicazione delle lettere appare già evidente, in questo senso, come social media come X abbiano ignorato palesemente le richieste della Commissione, sono già molte le voci critiche che denunciano la rimozione e shadow ban di contenuti e persone da social come Instagram e Facebook per aver semplicemente condiviso la propria opinione o notizie ritenute veritiere, senza alcuna possibilità di motivare le proprie ragioni e ribaltare in tempo reale le decisioni dei moderatori. Il DSA, infatti, non prevede alcuna forma di salvaguardia per coloro che vengono colpiti da un intervento di moderazione, i quali devono spesso attendere molti giorni prima di poter anche solo recuperare l’accesso ai propri account.

È possibile misurare l’efficacia degli interventi di contrasto alla disinformazione, e se sì sulla base di quali criteri?

A essere messa in discussione, in fondo, è la scelta stessa di concedere a delle aziende private il diritto di porsi come “arbitro della verità” su eventi di interesse generale e servirsi in maniera assolutamente discrezionale di moderatori umani professionisti e volontari, intelligenze artificiali e automatismi di rimozione, strumenti di segnalazione anonima e processi di revisione opachi, che nel corso degli anni non hanno mancato di suscitare perplessità, denunce e non poche indagini e inchieste giornalistiche. A mancare più di tutto, in questo momento, è un’idea chiara di quale possa essere un obiettivo ragionevole da raggiungere quando si parla di contrasto alla disinformazione: un obiettivo minimo di contenuti rimossi rispetto a un totale che può solo essere approssimato, o un numero massimo di persone raggiunte dai contenuti di disinformazione prima dell’intervento dei moderatori? Nessuno lo sa, mentre la distanza tra ciò che le aziende dichiarano di aver fatto, quello che le istituzioni dichiarano di aver ottenuto, e la percezione quotidiana di persone vittime di interventi di moderazione sproporzionati o destinatarie loro malgrado di contenuti di disinformazione non fa che aumentare, sempre di più.

Foto di copertina: Ilyass SEDDOUG su Unsplash

jacopo franchi

Autore

Jacopo Franchi

Mi chiamo Jacopo Franchi, sono nato nel 1987, vivo a Milano, lavoro come social media manager, sono autore del sito che state visitando in questo momento e di due saggi sull’impatto del digitale nelle relazioni tra persone (“Solitudini connesse. Sprofondare nei social media“) e nelle nuove forme di lavoro e di accesso alla conoscenza (“Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti“).

Continua a leggere…

Lascia un commento