Vai al contenuto

Il più grande (e grave) fallimento dell’intelligenza artificiale

Secondo i documenti rivelati dal Wall Street Journal l’intelligenza artificiale su cui Facebook ha investito enormi risorse finanziarie non sarebbe in grado di rimuovere più di una minima parte dei contenuti violenti, d’odio e problematici, rappresentando oggi uno dei maggiori fallimenti nell’applicazione di questa tecnologia.

Non è in grado di distinguere tra il video di un autolavaggio e il video di uno sparatutto, non è in grado di riconoscere un commento offensivo da uno satirico, riesce a comprendere solo poche lingue, fa confusione tra video di combattimento di galli e video di incidenti automobilistici, è impotente contro il razzismo, il sessismo, l’incitamento all’odio e alla violenza, ma nonostante tutto ancora oggi molti politici, giornalisti e cosiddetti “esperti” la ritengono capace di compiere veri e propri miracoli, sostituendosi alle capacità di interpretazione e decisione di un essere umano: è l’intelligenza artificiale applicata alla moderazione dei contenuti, una tecnologia perseguita dalle maggiori aziende tecnologiche al mondo e che per la prima volta è stata messa seriamente in discussione dall’ultimo capitolo di una lunga inchiesta del Wall Street Journal, a partire dalla rivelazione dei documenti interni e inediti dell’azienda di Menlo Park.

Novantanove contenuti e messaggi d’odio su cento sfuggono tuttora all’intelligenza artificiale di Facebook

Ad oggi, secondo i documenti rilevati dall’inchiesta, l’intelligenza artificiale di Facebook sarebbe in grado di rilevare e bloccare una percentuale compresa tra il 2% e il 5% di tutte le visualizzazioni accumulate dai contenuti d’incitamento all’odio, e meno dell’1% dei contenuti totali che rientrano in questa categoria. Le cifre, elaborate da un team interno di ricercatori dell’azienda fondata e diretta da Mark Zuckerberg e analizzate dai giornalisti del Wall street Journal, sono in netto contrasto con tutte le comunicazioni aziendali da cinque anni a questa parte: non più tardi di sei mesi fa, infatti, Facebook faceva uscire un report – ripreso, tra gli altri, dall’Ansa – in cui si affermava che grazie all’intelligenza artificiale erano fortemente diminuiti i post di incitamento all’odio, accompagnando la dichiarazione da una serie di dati impossibili da verificare per qualsiasi ricercatore esterno alla piattaforma.

I moderatori di contenuti sostituiti dall’IA, ben prima che l’IA fosse in grado di sostituirli

Che l’intelligenza artificiale di Facebook avesse un problema era già evidente da tempo in base a semplici rilevazioni empiriche, ma che fosse così disgraziatamente lontana dalle previsioni più pessimistiche è una notizia degna di nota. A far riflettere, inoltre, è il fatto che l’azienda abbia scelto di utilizzare l’intelligenza artificiale per risparmiare sul lavoro dei moderatori di contenuti– arrivati a costare oltre due milioni di dollari a settimana solo per quanto riguarda la gestione delle segnalazioni relative ai contenuti ‘odio – ben prima che la tecnologia diventasse effettivamente in grado di sostituirsi agli esseri umani. In questo contesto, i documenti interni del Wall Street Journal rilevano come i responsabili di Facebook abbiano deliberatamente scelto di ridurre il tempo dedicato dai moderatori di contenuti ai contenuti d’odio, affidando all’intelligenza artificiale la “scelta” su quali segnalazioni provenienti dagli utenti analizzare e quali no. In questo modo è stato possibile ottenere risultati statisticamente migliori (tempi di risposta, contenuti rimossi) ma a fronte di un numero totale di contenuti esaminati di gran lunga inferiore rispetto al necessario.

Lo scontro tutto interno tra algoritmi di diffusione e algoritmi di limitazione dei contenuti

A fronte di oltre tredici miliardi investiti in “safety&sercurity” a partire dal 2016, i risultati raggiunti sono stati fin qui largamente inferiori rispetto alle aspettative e a quanto dichiarato pubblicamente. Il problema, tuttavia, è che queste aspettative sono state ampiamente condivise e fatte proprie anche da coloro che avrebbero avuto tutti i mezzi per dubitarne: politici, giornalisti, esperti di tutto il mondo hanno supinamente creduto alle promesse di Zuckerberg, Sandberg e molti altri di poter affidare alle intelligenze artificiali la sorveglianza e censura dei contenuti potenzialmente “problematici” e nocivi per la salute mentale e la sicurezza degli utenti online, salvo poi non predisporre alcun adeguato sistema di controlli e verifica che quanto fosse stato promesso corrispondesse al vero. La difesa di Facebook, come spesso accade, è oggi attestata su una nuova linea di resistenza a oltranza: l’obiettivo, sostiene l’azienda, non sarebbe più quello di “rimuovere” i contenuti quanto di “limitarne la visibilità” nel flusso di notizie, in un inedito scontro interno tra algoritmi di selezione e algoritmi di “limitazione” dei contenuti stessi.

Quello che per Facebook è un fallimento di mercato, per gli utenti rappresenta un rischio concreto

Se quello dell’intelligenza artificiale applicata alla moderazione di contenuti appare quindi come un vero e proprio fallimento, di proporzioni globali e con danni non ancora quantificati alla sicurezza, al benessere, alla salute mentale e fisica delle persone che si servono di Facebook e altre piattaforme online similmente irresponsabili, le conseguenze sono ancora ben lungi dal manifestarsi pienamente. Non sembra esserci, infatti, alcun tipo di presa d’atto che l’uso di tecnologie così imperfette e inadatte possa sfociare in conseguenze indesiderate quanto più esse vengono applicate su larga scala e in modo del tutto incontrollato: se per Facebook il fallimento dell’intelligenza artificiale rappresenta solo uno dei tanti, sempre più numerosi fallimenti di mercato dell’azienda, per i suoi utenti il rischio di trovarsi esposti alla violenza altrui nella forma di un contenuto traumatizzante, un’aggressione in prima persona o l’impossibilità di denunciare gli autori di una violenza aumenta giorno dopo giorno. La memoria a lungo termine delle piattaforme fa sì che i contenuti non vadano mai del tutto persi, e quelli che oggi sono 99 contenuti d’odio non identificati tra dieci giorni saranno diventati 990, tra cento giorni 9.900, nell’arco di un anno quasi 30.000, tuttora liberi di essere visti, condivisi, diffusi, “sponsorizzati”: a meno che la matematica, come sembra emergere dai comunicati delle piattaforme, non sia già diventata poco più che un’opinione.

1 commento »

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...