Iscriviti alla newsletter di Umanesimo Digitale

“Per una responsabilità dell’IA”: perché leggere il libro bianco della Fondazione Bassetti

Quando si tratta di intelligenza artificiale generativa è davvero difficile scegliere quali contenuti di approfondimento meritino davvero la nostra attenzione, fra centinaia e migliaia di podcast, video, articoli e pubblicazioni sull’argomento. In questo contesto, il libro bianco  “Per una responsabilità dell’intelligenza artificiale” della Fondazione Giannino Bassetti appartiene alla ridotta categoria di pubblicazioni capaci di distinguersi dal rumore di fondo, discretamente, grazie alla pluralità di temi trattati e alla grande varietà di autori coinvolti nella pubblicazione, lasciando intuire tra le righe una diversa possibilità di approccio e utilizzo della tecnologia.

Una nuova forma di sapere che può allargare la partecipazione alla vita democratica, ma anche destabilizzare le nostre società

Creata nel 1994 e presieduta da Piero Bassetti, autore del libro “Le redini del potere”, consigliere comunale di Milano, primo presidente di Regione Lombardia, parlamentare, presidente della Camera di Commercio e delle Camere di Commercio nel mondo, la Fondazione Bassetti ha l’obiettivo di promuovere l’esercizio responsabile dell’innovazione sia dal punto di vista tecnologico, sia per quanto riguarda la creatività economica e imprenditoriale.

Se l’atto di innovare rappresenta “il modo in cui sapere e potere si combinano per modificare la storia“, secondo Piero Bassetti, il libro bianco della Fondazione è uno strumento prezioso per capire in che modo il sapere generato dall’intelligenza artificiale può innovare e condizionare le forme del pensare e dell’agire contemporaneo. Con l’IA siamo di fronte a una forma di intelligenza diversa rispetto a quella umana, una tecnologia creata dall’uomo che “forse – come scrive il presidente nell’introduzione – può intelligere cose che l’umanità non è in grado di comprendere“, e che in virtù di questa diversa capacità intellettiva può acquisire un potere via via maggiore sul governo della nostra società.

Le conseguenze, sul piano filosofico, culturale, politico, non potrebbero essere più rilevanti. La conoscenza dei fatti, la creazione delle opinioni, le informazioni che alimentano il dibattito pubblico percorrono oggi sentieri sotterranei in cui il sapere generato dalle intelligenze artificiali può essere trasmesso in forme diverse a seconda del destinatario, rendendo difficile tanto la verifica a posteriori quanto l’analisi dei rischi che questa nuova forma di comprensione del reale pone sul piano della tenuta democratica e delle istituzioni.

A fronte dei rischi, tuttavia, le potenzialità rimangono immense. La capacità di riassumere in brevissimo tempo informazioni complesse, di lunghezza pressoché illimitata, rende l’IA uno strumento indispensabile per chiunque abbia bisogno di comprendere una realtà dove la quantità di dati a disposizione aumenta ogni giorno di più. Come propone, ad esempio, Manuela Mimosa Ravasio, nell’intervento intitolato “Uno strumento per la democrazia partecipativa tra globale e locale“, l’IA potrebbe allargare la partecipazione democratica riassumendo le opinioni, le richieste e le proposte dei cittadini attualmente esclusi in un formato intelleggibile e immediatamente utilizzabile dai decisori politici. Una possibilità, tuttavia, non esente da rischi: chi può verificare che la sintesi non contenga “allucinazioni”?

L’IA è un diverso tipo di intelligenza che può portare alla nascita di nuove forme di comprensione e potere sulla realtà. Nonostante i rischi, le potenzialità restano immense, in un mondo dove la quantità di dati da analizzare non fa che aumentare esponenzialmente.

L’eXplainable AI, ovvero l’intelligenza artificiale che spiega se stessa e ammette le sue incertezze

Per questo, fra i tanti contributi ospitati nel Libro bianco, ho trovato di particolare interesse quello di Fosca Giannotti, professoressa della Scuola Normale Superiore di Pisa, scienziata pioniera del data mining e principal investigator del progetto “ERC XAI- – Science and technology for the explanation of AI decision making“. Il progetto, che ha ricevuto dall’UE un finanziamento di 2,5 milioni di euro, si fonda sul concetto di eXplainable AI (XAI): in contrapposizione all’intelligenza artificiale degli algoritmi segreti e dei “ragionamenti” indecifrabili, l’XAI è un’IA in grado di spiegare i motivi delle sue scelte e il livello di incertezza delle sue affermazioni, dei consigli, delle istruzioni fornite ai suoi utilizzatori.

L’intelligenza artificiale che si lascia comprendere e analizzare, che punta a instaurare un rapporto di fiducia e fra pari con l’utente, senza voler a tutti i costi apparire come fonte di onniscienza, potrebbe essere utilizzata in misura maggiore rispetto a quella attuale. Fosca Giannoti cita, a tal proposito, l’esempio del medico che per poter utilizzare l’intelligenza artificiale deve conoscere i dati su cui quest’ultima è stata addestrata e, di conseguenza, le sue possibilità di identificare o meno i sintomi di possibili malattie a uno stadio iniziale.

Una volta resa trasparente, tuttavia, l’intelligenza artificiale potrebbe comunque generare informazioni e istruzioni di difficile interpretazione, almeno per quanto riguarda le capacità dei singoli individui che se ne servono. Come scrive Francesca Buffa, nell’intervento “Il futuro della ricerca è nell’integrazione dei dati biometrici, la piena comprensione del “sapere” generato dalla macchina può avvenire solo tramite il coinvolgimento di più persone, di ambiti disciplinari diversi tra loro e sensibilità complementari. L’autrice dell’intervento fa il paragone con i risultati raggiunti attraverso la collaborazione in campo scientifico: di fronte all’IA abbiamo bisogno di adottare il medesimo approccio, collaborativo e corale.

La piena comprensione del sapere generato dall’IA può avvenire solo in maniera corale, mettendo insieme persone dotate di competenze e sensibilità diverse. Come avviene nel mondo della ricerca scientifica.

Dopo il grande “saccheggio” dei dati disponibili online, il prossimo giacimento da estrarre sono quelli dell’attività cerebrale

Il limite di questa crescita esponenziale delle nostre capacità di comprensione della realtà? Probabilmente si trova nella quantità e qualità di dati che saranno necessari per continuare ad alimentare l’addestramento delle intelligenze artificiali del prossimo futuro. Dati che finora sono stati estratti principalmente dal web, come ricordato dal segretario generale della Fondazione Bassetti, Francesco Samoré, nel suo intervento intitolato “Le cose sono di due mani, alcune in poter nostro, altre no. In futuro, tuttavia, a fronte dell’esaurirsi dei giacimenti di dati esistenti online, l’intelligenza artificiale potrebbe essere sempre più alimentata da dati provenienti dal corpo umano stesso, in primis dalla sua attività cerebrale.

Nell’attuale incertezza normativa, ecco che ritorna la necessità di sviluppare una legislazione che tuteli i neurodiritti degli individui rispetto ai sistemi elettronici di calcolo. Libertà cognitiva, diritto alla privacy e all’integrità mentale, alla continuità psicologica sono diritti ritenuti da sempre scontati – in un’epoca in cui le macchine non potevano leggere e interpretare le attività cerebrali, almeno non con questa pervasività e connettività globale – ma che tuttavia dovremo sempre più assicurarci di proteggere in futuro. Si pensi, ad esempio, al rischio che questi dati possano confluire in sistemi di intelligenza artificiale per finalità di sorveglianza di massa.

Da qui la necessità di un “habeas mentem” per proteggere libertà sempre più minacciate, come dal titolo dell’intervento omonimo di Gabriele Giacomini riportato nel libro bianco. Giacomini (vecchia conoscenza di Umanesimo Digitale) individua nel principio dell'”habeas mentem” uno strumento per limitare il potere dell’IA, tutelando al contempo la libertà di pensiero e le rappresentazioni mentali di idee, concetti, desideri. Una legislazione per tutelare ciò che la mente fa, prima ancora che questo agire si tramuti in parole, simboli, contenuti.

Non possiamo limitarci a legiferare sull’esistente, ma è necessario anticipare gli sviluppi futuri fino ad arrivare a un vero e proprio ‘habeas mentem’ per proteggere libertà oggi date per scontate, come la libertà di pensare.

Un primo passo per riconquistare il potere attraverso il sapere, a condizione di affrontare le sfide in maniera collettiva

Il libro bianco di Fondazione Bassetti, quindi, lungi dal voler scrivere la parola “fine” a un ragionamento in pieno divenire, ha il pregio di affrontare una serie di questioni irrisolte sollevate dall’intelligenza artificiale e di identificare possibili soluzioni a problemi ancora in gran parte sottovalutati. Privilegiare le IA che si spiegano da sole, circoscrivere i dati di cui possono fare uso al di fuori dell’ambito più propriamente digitale, adottare un approccio collaborativo nell’interpretazione delle informazioni e utilizzare le IA per includere un maggior numero di persone nei processi democratici sono importanti passi avanti rispetto a un dibattito ancora molto appiattito sulla dimensione presente e utilitaristica.

Si arriva in fondo nella lettura, quindi, con la consapevolezza che i margini di intervento siano ancora ampi, sebbene i produttori di IA siano per lo più extra-europei. Pensare, oggi, come utilizzare l’IA nel prossimo futuro, come interpretare e come servirci di questa nuova forma di “sapere” non è quindi un esercizio fine a se stesso, ma un primo passo per riconquistare quel “potere” politico messo da tempo in discussione dalla tecnologia. La dimensione corale del libro bianco è, attualmente, la forma migliore per portare avanti una proposta in grado di comprendere davvero al suo interno tutti i possibili punti di vista: se l’IA è davvero un’intelligenza superiore alla nostra, per governarla c’è bisogno della collaborazione di tutti coloro che intendono farne uso. Responsabilmente.

jacopo franchi

Autore

Jacopo Franchi

Mi chiamo Jacopo Franchi, sono nato nel 1987, vivo a Milano, lavoro come social media manager, sono autore del sito che state visitando in questo momento e di tre libri sui social media, la moderazione di contenuti online e gli oggetti digitali.

Continua a leggere…

Lascia un commento