Il 5 dicembre 2025 verrà ricordato nei libri di storia dei social media come il giorno della prima sanzione emessa dalla Commissione Europea ai sensi del Digital Services Act, il Regolamento europeo che disciplina le attività di moderazione di contenuti dei fornitori di servizi digitali.
X, il social media di proprietà di Elon Musk, è stato condannato a corrispondere un importo pari a 120 milioni di euro per aver sistematicamente impedito l’accesso dei ricercatori ai propri archivi di dati, per aver ingannato gli utenti con una comunicazione ambigua sull’uso delle “spunte blu” e non aver curato la gestione dell’archivio archivio pubblico di inserzioni pubblicitarie. Ambiguità e inefficienze che potrebbero ora essere pagate a caro prezzo.
La nascita di nuovi corpi intermedi in grado di valutare il tasso di errore delle attività di moderazione di contenuti delle piattaforme digitali
Se l’esito della sanzione è tutt’altro che scontato, visto lo sconsolante pregresso di multe di ben maggiore importo mai riscosse dalle altre Big Tech, l’annuncio segna un deciso cambio di passo rispetto alle incertezze dei primi anni di vita del Regolamento. Il timore diffuso che le sanzioni a Big Tech potessero innescare una spirale di ritorsioni da parte del governo americano sul fronte dei dazi commerciali sembra aver lasciato il posto, oggi, a un’applicazione del DSA senza sconti per nessuno, anche se la distanza tra il giro totale d’affari di X (e del proprietario Elon Musk) e l’importo previsto dalla sanzione rimane abissale.
In questo scenario in evoluzione hanno fatto la loro comparsa, nel frattempo, una serie di attori che potrebbero contribuire a limitare ulteriormente l’arbitrio che le grandi aziende tecnologiche hanno da sempre esercitato nelle attività di moderazione dei contenuti. Rispetto agli anni precedenti al Digital Services Act, quando gli utenti erano lasciati da soli a fare i conti con cancellazioni arbitrarie degli account, segnalazioni senza risposta e rimozioni ingiustificate dei contenuti, grazie al nuovo Regolamento sono nati una serie di corpi intermedi legalmente autorizzati a valutare in maniera indipendente le omissioni e le contraddizioni nelle scelte di moderazione dei social media e altre piattaforme digitali.
Il primo report di Appeals Centre Europe, uno dei primi organismi di risoluzione extragiudiziale delle controversie riguardanti la moderazione online
È questo il caso di Appeals Centre Europe, uno dei primi organismi di risoluzione extragiudiziale delle controversie riguardanti la moderazione di contenuti online previsti dall’articolo 21 del Digital Services Act. L’organismo offre ad utenti, aziende e organizzazioni europee la possibilità di chiedere una revisione indipendente sulle decisioni di moderazione di contenuti dei social media come, ad esempio, sospensione del proprio account, cancellazione di contenuti o segnalazioni che non ricevono adeguata risposta da parte dei moderatori dei servizi digitali. Il servizio di risoluzione extragiudiziale è, al momento, gratuito per coloro che inviano una contestazione attraverso il portale appealscentre.eu.
Torno a scrivere di Appeals Centre Europe – a distanza di un anno dal precedente articolo di Umanesimo Digitale – perché l’organismo ha da poco pubblicato il suo primo Rapporto sulla Trasparenza (un nome non a caso identico ai rapporti sulla trasparenza diffusi a cadenza regolare dagli stessi social media): oltre 70 pagine di dati e casi studio anonimizzati che potrebbero fornire numerosi spunti di riflessione alle autorità europee e nazionali (come Agcom, responsabile dell’applicazione del DSA in Italia).

I dati condivisi da Appeals Centre Europe coprono un periodo che va da novembre 2024 ad agosto 2025, durante il quale gli esperti indipendenti dell’organismo extragiudiziale hanno ricevuto oltre 10,000 contestazioni provenienti da tutta Europa riguardanti account e contenuti presenti su Facebook, Instagram, TikTok, YouTube, Threads e Pinterest. In oltre la metà dei casi gli autori delle segnalazioni hanno contestato la scelta dei social media di rimuovere i loro account e contenuti personali, mentre nella restante metà hanno contestato la scelta dei social di non rimuovere contenuti pubblicati da altri utenti o organizzazioni.
Di queste 10.000 contestazioni sono state circa 3.000 le controversie giudicate ammissibili dall’organismo, di cui circa un terzo provenienti da aziende o organizzazioni specializzate in settori sensibili come il contrasto all’hate speech e la tutela di comunità LGBTQ+. Su 1.500 contestazioni finora esaminate tre volte su quattro gli esperti di Appeals Centre Europe hanno dato ragione agli utenti e invitato i social media a rivedere le proprie decisioni di moderazione di contenuti, senza tuttavia avere il potere legale per costringerli a farlo. È, questo, uno dei maggiori limiti dello strumento extratragiudiziale: dopo aver inviato una contestazione gli utenti ottengono un riscontro che, ad oggi, nella maggior parte dei casi dà loro ragione ma senza portare automaticamente a una soluzione concreta del problema.

Nella maggior parte dei casi i social media non dispongono di informazioni sufficienti o si rifiutano di rispondere alle richieste di approfondimento
È qui che le autorità dovrebbero concentrare tutta la propria attenzione: se il margine di errore dei social media è così elevato su un campione rappresentativo di 1.500 contestazioni, e se gli stessi social accolgono solo in minima parte le richieste di revisione provenienti dagli utenti per il tramite degli organismi extragiudiziali, vuol dire che sono in atto processi distorsivi nell’utilizzo dei servizi digitali che non possono più essere ignorati. Tanto più se si pone attenzione a un altro dato: nella metà delle contestazioni esaminate dagli esperti di Appeals Centre Europe i social media si rifiutano di fornire adeguate informazioni oppure non riescono a recuperarne in misura sufficiente per consentire un approfondimento completo.
Non stiamo parlando, è bene sottolinearlo, “solo” di contenuti di valore strettamente personale. Come si legge nel report, infatti, in molti Paesi dell’Unione Europea le segnalazioni inviate all’Appeals Centre Europe provengono da organizzazioni della società civile impegnate nel contrasto ai fenomeni d’odio, razzismo, diffusione di informazioni false e non verificate. Il problema della concentrazione del potere della moderazione dei contenuti in poche, grandi piattaforme digitali rimane, al giorno d’oggi, un rischio sistemico di elevata gravità, e report come quello di Appeals Centre Europe dimostrano fino a che punto le decisioni dei social media di origine non europea possano influenzare il diritto dei cittadini e delle aziende europee a utilizzare i servizi digitali per comunicare, informarsi e commerciare tra di loro.

Milano e Roma fra le prime città europee per numero di contestazioni contro i social media, ma le risposte stentano ad arrivare
Il report, infine, fornisce ulteriori dati di dettaglio sui singoli Paesi – con Milano e Roma ai primi posti per numero di contestazioni inviate fra tutte le principali città europee – e sottolinea più volte le profonde differenze di condotta fra i diversi social media: se Facebook risponde alle richieste di approfondimento degli esperti di Appeals Centre Europe nel 55% dei casi, TikTok ha un tasso di risposta inferiore al 50% e Instagram addirittura al 30% del totale delle contestazioni. Meta, proprietaria di Facebook e Instagram, tende a condividere meno informazioni quando si tratta di richieste di rimozione di contenuti potenzialmente pericolosi e quando gli utenti contestano la disattivazione del proprio account.
Le domande, purtroppo, restano più numerose delle risposte: qual è il motivo di una percentuale così elevata di errori di giudizio da parte dei social media? Quali sono i motivi che li portano a non fornire informazioni agli organismi extragiudiziali, e a ignorare buona parte delle loro valutazioni? E che impatto hanno, realmente, gli errori dei moderatori di contenuti umani e dei sistemi automatici di moderazione sulle persone, sulla società, sulla tenuta delle nostre democrazie? La soluzione, è evidente, non può trovarsi solamente in ulteriori sanzioni, nemmeno se queste dovessero raggiungere importi sempre più elevati.
Il passo successivo potrebbe essere quello di fornire ad organismi come Appeals Centre Europe il potere di rendere immediatamente applicabili le valutazioni dei singoli casi tutte le volte che i social media si rifiutano o non sono in grado di rispondere alle richieste di ulteriori informazioni. A precisa domanda inviata via mail al responsabile comunicazione dell’organismo, Matthew Seals, se Appeals Centre Europe fosse disposto a esercitare questo potere di enforcement – una volta modificata la legge – la risposta è stata possibilista: “ad oggi le decisioni degli organismi di risoluzione extragiudiziale non sono vincolanti per le piattaforme. Tuttavia, se questa posizione dovesse cambiare, rimarremmo naturalmente conformi a qualsiasi revisione del DSA e applicheremmo eventuali disposizioni di enforcement introdotte”.
Ci sarà qualcuno a Bruxelles, a Roma, disposto ad ascoltarli e, soprattutto, a leggerli?
Vuoi rimanere aggiornato?




