Nel libro “Computational Propaganda. Political Parties, Politicians and Political Manipulations on Social Media” i ricercatori dell’Oxford Institute indagano sulle dinamiche e i falsi miti della propaganda online.
Automazione, scalabilità, anonimato: sarebbero queste le caratteristiche distintive della “propaganda computazionale” o “Computational Propaganda”, secondo i curatori del libro omonimo pubblicato dalla Oxford University Press e che raccoglie una serie di ricerche indipendenti sulla propaganda e disinformazione “computazionale” in nove Paesi del mondo. Eppure, come gli stessi ricercatori non mancano di sottolineare nel corso del libro, gran parte della propaganda “automatica” viene oggi in realtà svolta da esseri umani, l’obiettivo della disinformazione non sono sempre gli elettori e l’anonimato degli account “fake” è solo un pretesto per scaricare sulle piattaforme digitali l’intera responsabilità della disinformazione online.
La propaganda “computazionale” degli studenti ucraini e quella dei dipendenti pubblici cinesi
Gli addetti alla propaganda computazionale sono i veri “cyborg” del nostro tempo: persone in carne e ossa che disseminano i social media di commenti, link a notizie false o manipolate e “mi piace” inautentici. Si servono di profili social costruiti apposta per loro, passando continuamente da un account all’altro, impossibili da bloccare del tutto e da distinguere con precisione dagli account “veri” e dai “bot” propriamente detti: lavorano in maniera instancabile, sistematica, ripetitiva, come dei robot, ma sono uomini e donne che l’indigenza economica, il caso o la fede politica ha portato a lavorare dalla parte della “disinformazione”.
I lavoratori della propaganda computazionale possono essere a seconda dei contesti dei semplici studenti, come in Ucraina dove gli universitari possono guadagnare fino a 100 dollari a settimana per pubblicare sui social 200 commenti al giorno in sostegno a un candidato politico, oppure possono essere dei dipendenti pubblici regolarmente stipendiati dallo Stato. È il caso della Cina, dove oltre 448 milioni di contenuti “social” vengono pubblicati annualmente su Weibo, Twitter e altre piattaforme online da un esercito di dipendenti pubblici incaricato di promuovere una visione positiva delle politiche del governo. In entrambi i casi, diventa estremamente difficile per le piattaforme riconoscere e rimuovere i “fake”.
Politici, ricercatori e giornalisti sono i bersagli preferiti della propaganda computazionale
Se la propaganda computazionale è quindi per certi versi molto più “umana” di quanto ci si potrebbe aspettare, nondimeno le vittime di questa attività non sono quasi mai le persone comuni o gli elettori in senso lato. Bot e account “cyborg” non sono sufficienti, da soli, a manipolare una larga parte dell’opinione pubblica, per mancanza di mezzi finanziari e possibilità logistiche. I ricercatori dell’Oxford Institute sottolineano, infatti, come ad oggi sia impossibile misurare con precisione gli effetti quantitativi della propaganda computazionale dal punto di vista del travaso di voti da un partito all’altro, della radicalizzazione di una parte dell’opinione pubblica o degli effetti della disinformazione sulle scelte di un singolo elettore.
Molto meno ambiziosa di come viene tradizionalmente descritta dai media, la propaganda computazionale sembra accontentarsi di raggiungere obiettivi ben più realistici e immediati: bersagliare di commenti denigratori e messaggi di odio giornalisti e blogger non allineati, alterare i dati dei ricercatori che misurano il “sentiment” dell’opinione pubblica attraverso l’analisi dei contenuti presenti online, e non da ultimo manipolare i politici e opinion leader che si servono dei social per instaurare un rapporto diretto con i propri, presunti elettori e “follower“. La propaganda computazionale è scalabile non tanto dal punto di vista dell’audience che consente di raggiungere, quanto della specificità del “target” che si desidera mettere sotto pressione o manipolare.
La società civile non è una vittima sacrificale, ma ha bisogno di strumenti di autodifesa adeguati
In questo contesto, appaiono quanto meno inadeguate le strategie dei governi – Unione Europea inclusa – che scaricano sulle piattaforme digitali l’intera responsabilità di individuare, cancellare e bloccare gli autori della propaganda computazionale, sotto la sempre più debole minaccia di sanzioni pecuniarie colossali. Come insegna l’infausto destino del NetzDG tedesco, delegare a Facebook e Twitter il compito di decidere quali contenuti violano o meno la legge non è sufficiente a fermare l’esercito composito di “bot” dalle sembianze umane e “cyborg” dai comportamenti di una macchina: non lo è nel momento in cui gli algoritmi dei social non possono distinguere con assoluta certezza tra le due entità, mentre non è prevista alcuna forma di incentivazione per far sì che i moderatori di contenuti umani dei social possano svolgere indagini accurate su ciascuna delle segnalazioni inviate ogni giorno dagli utenti, in buona o cattiva fede.
Una nota positiva, tuttavia, esiste e non va sottovalutata: se ancora oggi manca una soluzione globale e definitiva al problema della propaganda computazionale, nondimeno la società civile ha iniziato ovunque a mobilitarsi spontaneamente contro la disinformazione proveniente da dentro e fuori i confini nazionali. Tra gli esempi riportati nel libro si sottolineano i casi dell’Ucraina, dove studenti e professori di una scuola di giornalismo hanno creato un sito di verifica delle notizie provenienti da fonti straniere, il caso di Taiwan, dove un “bot” attivo su Line risponde alle fake news con un articolo di smentita realizzato da “editor” umani, ed è il caso infine di un Paese apparentemente immune come il Canada, dove un bot su Twitter segnala quando una pagina di Wikipedia viene modificata da un indirizzo IP associato alle sedi del governo.
Se la propaganda computazione è quindi solo l’ultima delle manifestazioni distorte della propaganda politica, economica e culturale in senso lato, attuata da uomini in carne e ossa nelle vesti di account “fake” o di programmatori di account automatizzati e venduti un tanto al chilo, non è possibile pensare di contrastare quest’ultima unicamente attraverso il ricorso a moderatori di contenuti remunerati al minimo sindacale o inesistenti algoritmi onniscienti. Contro una propaganda computazionale condotta dall’uso spregiudicato di uomini e macchine, solo l’utilizzo combinato di capacità intellettive umane e computazionali può contrastare efficacemente la disinformazione rivolta a obiettivi sensibili: perché questo avvenga, tuttavia, bisognerebbe ripensare radicalmente le basi su cui si fonda il diritto all’anonimato, che tutela al tempo stesso gli autori della disinformazione online ma anche coloro che si battono per contrastare quest’ultima (come dimostra il caso dei due giovani brasiliani autori dell’account Sleeping Giants of Brazil, iniziativa popolare contro il sostegno economico alla disinformazione online, e di cui Twitter ha dovuto rivelare gli indirizzi IP su ordine di un tribunale locale).