Filosofo delle nuove ingegnerie, research affiliate del MIT Boston, adjunct professor dell’Università di Modena e Reggio Emilia, AI strategic advisor di Pollicino & Partners AIDVISORY, corporate board member, startup ambassador e instructor, Cosimo Accoto ha scritto negli ultimi dieci anni un’originale trilogia filosofica sulla civiltà digitale, apprezzata in tutto il mondo: Il mondo in sintesi (2022), Il mondo ex machina (2019), Il mondo dato (2017), quest’ultimo tradotto in più lingue tra cui il cinese. Il suo nuovo saggio, Il Pianeta Latente. Provocazioni della tecnica, innovazioni della cultura, è uscito nel 2024 per Egea ed è una lettura fondamentale per comprendere l’impatto profondo delle nuove tecnologie fondate sull’intelligenza artificiale.
“Oggi è forte l’attenzione verso l’insegnamento del coding nelle scuole, ma non altrettanto nei confronti della filosofia della programmazione – dichiara, in occasione della sua terza intervista per Umanesimo Digitale – È necessario, tuttavia, che il nostro pensare intorno alle nuove ingegnerie evolva oltre la dimensione puramente strumentale. Siamo di fronte a nuove forme di istituzioni socio-economiche, che affiancheranno ed entreranno in competizione con istituzioni ben più antiche come le imprese, i mercati, le burocrazie, gli Stati. Dovremo reimmaginare contratti sociali, principi giuridici, modelli di governo per far fronte a questa trasformazione radicale“.
Professor Accoto, che tipo di umanità sta nascendo dal rapporto sempre più stretto con l’intelligenza artificiale?
Il destino delle civilizzazioni umane sparse sul Pianeta è sempre stato intimamente legato alle modalità politiche con cui domestichiamo risorse, innovazioni e strumentalità. Il che significa che le incorporiamo e le socializziamo secondo intenzioni e disegni e, al contempo, queste costruiscono nuove condizioni di possibilità, esistenza, esperienza e intelligenza. Si richiama spesso il dono del fuoco di Prometeo agli umani, ma si dimentica che è Efesto a mostrare loro come il fuoco si può controllare per forgiare strumenti e artefatti: non è l’incontro col fuoco, ma è il controllo del fuoco – come ci insegnano gli archeologi – che ha innescato trasformazioni radicali, dall’alimentazione alla comunicazione. Una volta che l’umano è in grado di gestire il fuoco, questo produce una profonda evoluzione nella civilizzazione umana che è materiale e culturale al contempo.
Anche l’intelligenza artificiale è una trasformazione non immediatamente o preventivamente immaginabile. Nel caso del fuoco, il cambiamento ha riguardato i nuovi ritmi della luce e del buio, i nuovi tempi della veglia e del sonno, i nuovi modi del cibarsi e del raccontarsi. Da ultimo anche quelli del coordinarsi, come ricostruito in un recente articolo apparso su Nature. È presto per dire che trasformazioni produrrà la nuova sociotecnicalità dell’AI. Possiamo certamente fare ipotesi, ma non saprei quanto utili. Dico solo che, se vogliamo mantenere l’analogia ecologica con la coevoluzione tra le specie, in natura esistono quattro forme di coevoluzione: parassitica, predatoria, competitiva e mutualistica. Ad oggi nel rapporto umani-macchine, dal punto di vista dell’economia politica, mi sembrano prevalere le prime tre, pregiudizievoli, forme: un’AI parassitica dell’umano, predatoria del dato, competitiva sul lavoro. Credo che dovremmo puntare a sviluppare la quarta, quella mutualistica, l’unica in cui le due specie in rapporto beneficiano alla pari della relazione coevolutiva.
L’innovazione tecnologica è ancora governabile con gli strumenti di cui disponiamo attualmente?
Con un paradosso potrei dire che la cibernetica, scienza massima del controllo, richiede oggi di essere a sua volta controllata. Principi, valori, modelli, leggi, regole, pratiche sono sempre più evocati per incatenare cateconticamente una tecnica scatenata. Certo, c’è un che di condivisibile e consolante (e di giusto) in questi richiami alla governabilità della dimensione tecnica. E, tuttavia, mi sembra che queste esortazioni “governamentali” palesino tutte, in fondo, una certa naïveté filosofica. L’ingovernabilità è temuta e insieme negata. In tutti i casi, la governabilità è data e presupposta. La tecnologia è governabile, si può governare e si deve governare. Occorre però approfondire questa relazione contemporanea emergente tra téchne e nòmos, se vogliamo incidere sull’evoluzione.
Matthijs Maas, ricercatore dell’Institute for Law & AI, nel saggio “Architectures of AI Global Governance” sostiene che la governance globale dell’IA possa e debba migliorare rispetto a quanto fatto finora, in risposta a tre vettori di cambiamento globale in atto: cambiamenti nei problemi sociotecnici che devono essere affrontati dalla governance, cambiamenti negli strumenti di governance e, da ultimo, cambiamenti nell’ambiente di governance. Secondo l’autore, nello specifico, ci troveremmo di fronte a nuove domande su come possiamo o dovremmo progettare i nostri approcci di governance dell’IA, per garantire che rispondano alla relazione tra cambiamento tecnologico e cambiamenti sociali, tra cambiamento tecnologico e cambiamenti nei nostri strumenti giuridici, e infine tra cambiamenti esterni nel panorama della governance e nelle condizioni politiche per i regimi di governance dell’IA.
Dunque, in che senso diciamo che la tecnologia è governabile? A quali condizioni immaginiamo si possa governare? Possiamo impiegare istituzioni e costituzioni presenti, ma ho l’impressione che stiano proprio morfando le condizioni di possibilità dell’agire politico. Che si fa, oggi, sempre più con altri mezzi come, ad esempio, programmi software, sensori, dati e algoritmi, protocolli informatici o primitive crittografiche.

Il nostro linguaggio è ancora sufficiente a dialogare con le macchine e metterle in condizione di esprimersi al meglio delle loro possibilità?
Come ho scritto nel mio ultimo saggio, Il Pianeta Latente, il racconto storico di come parola e calcolo si siano incontrati (e scontrati) nel corso dell’evoluzione culturale umana più recente narra di una conflittualità emergente e ininterrotta. Un percorso che, a partire dai tentativi di escludere in toto la parola umana dalla computazione, è passato poi alla parola umana che si trasforma e si traduce in lingua di programmazione delle macchine per giungere, infine, alla parola umana che entra in conversazione diretta con i modelli linguistici dell’intelligenza artificiale generativa. Al punto che, come ha rimarcato con un paradosso l’esperto di AI e sviluppatore di fama mondiale Andrej Karpathy, notando l’adozione planetaria accelerata di ChatGPT, è l’inglese oggi la lingua di programmazione più diffusa sul Pianeta.
Anche questa, credo, è una fase intermedia e di passaggio. Perché la macchina, in prospettiva, potrà relazionarsi con noi anche in altre forme. E questo direi che già accade: le macchine “leggono” i corpi, i volti, le emozioni, le posture, le fisiologie, le onde celebrali. Non leggono solo la parola e la scrittura umana per come essa si è storicamente prodotta. La parola umana non è l’unica forma di comunicazione e informazione possibile. Inoltre, le macchine lavorano già su livelli sotto percepiti dall’umano (anche preconsci) come ci ha insegnato il filosofo Mark Hansen nel saggio “Feed-Forward“. Ricordiamoci, inoltre, che il tempo presente delle macchine è diverso dal tempo presente degli umani. A ben vedere, la reale forma di comunicazione umanomacchinica e poi intermacchinica non è la parola, ma la parola trasformata in vettore matematico. Siamo noi a interpretarla ancora solo come una performance primariamente linguistica. In realtà è una performance (retorica) matematico-probabilistica e vettoriale. Vale a dire: parole trasformate in numeri e con una complessità crescente tutta da indagare.
Occorre entrare meglio in questa era della “parola sintetica” e dentro l’economia politica di questa scrittura macchinica. La parola umana, d’ora in poi, dirà, sarà e farà altro.
Il “man-in-the-loop” è davvero l’unico e il miglior approccio alla tecnologia, o è possibile abbandonare l’antropocentrismo tecnologico in favore di modelli di governance migliori dal punto di vista dell’efficacia, della morale, della giustizia?
C’è un modo filosoficamente ingenuo e politicamente miope di guardare all’intelligenza artificiale. È quello strumentale (si tratta solo tecnologia), dicotomico (noi umani vs le macchine), antropocentrato (tenere l’umano nel loop, al centro e in controllo), allineante (rispetto dei valori umani) e dominante (all’umano spettano le decisioni) di un certo umanesimo. Si accompagna sovente anche ad una facile e diffusa anestetica dell’etica. Posizione condivisa dai più, ma direi ingenua e consolatoria. Per usare gli argomenti del professor Jake Goldenfein della Melbourne Law School, riportatate nel saggio “Lost in the Loop“, lo human in the loop è diventato “una sorta di talismano dell’appello alla riumanizzazione – un apparato regolatorio simbolico. Allo stesso tempo, tuttavia, la capacità dell’essere umano nel ‘loop’ di soddisfare tali richieste è stata messa in discussione su più livelli. Questi argomenti terminano in un’impasse concettuale e normativa. La supervisione umana delle decisioni automatizzate può essere, a volte, inefficace o funzionalmente impossibile, ma abbandonare l’azione umana nel processo decisionale è politicamente e funzionalmente inconcepibile”.
Human-in-the-loop si dice, ma ci si dimentica di dire che l’umano e il ‘loop’ di domani non saranno più quelli di ieri e di oggi. Dovremo reimmaginare contratti sociali, principi giuridici, modelli di governo. La giurisprudenza fronteggia le questioni più definitorie e regolatorie, la politica affronta i quadri di governabilità e orientamento, la filosofia apre orizzonti concettuali e di pensiero anche arrischiati. Penso, per fare un esempio, in una prospettiva critica postumanista, al saggio recente “Ethics for Cognitive Assemblages: Who’s in Charge Here?” della professoressa Katherine Hayles (University of California) sull’etica degli assemblaggi cognitivi, che sottolinea come questi ultimi implichino sempre diversi livelli di accountability (responsabilità procedurale) in base alle diverse capacità degli attori di interagire, essere autonomi e adattarsi al mutare delle circostanze. Secondo Hayles, il senso del porsi la domanda «Chi comanda qui?» esprime l’impossibilità di fornire una risposta semplice e, al tempo stesso, l’urgente necessità di affrontare le complessità e le ambiguità etico-politiche sottese a tale quesito.
È possibile pensare a un’intelligenza artificiale “europea” fondata su valori alternativi rispetto a quelli oggi dominanti a livello globale, e – se sì – quale dovrebbe essere il contributo della filosofia per provare a costruire una tecnologia diversa e realmente competitiva?
Stepehen Cave (Institute for Technology and Humanity) e Kanta Dihal (Imperial College London) , nel saggio “Imagining AI. How The World Sees Intelligent Machines“, pongono proprio l’accento sulla dimensione localizzata delle ingegnerie dell’AI. Che invece di essere interpretate come mere strumentalità prive di connotazione geografica e intellettuale, sono analizzate come influenzate e modellate proprio sui diversi contesti e culture planetarie.
Sono in costruzione oggi degli stack emisferici con de-coupling e de-risking di risorse, strumenti, talenti, infrastrutture: si è avviata una “tech cold war” planetaria che lascia pochi margini per una manovra totalmente indipendente. D’altro canto, valori alternativi rispetto a quelli dominanti sono perseguiti anche in altre aree del mondo. Prendiamo, ad esempio, lo sviluppo dell’economia agentiva. Sappiamo che saranno mesi, quelli prossimi, di forte sovraesposizione mediatica, ma anche di sperimentazione innovativa sulla frontiera ingegneristica dell’emergente economia agentiva. Al centro dell’attuale progettazione vi sono identità, funzionalità e responsabilità istituenti degli agenti artificiali autonomi in un ecosistema di creazione di valore.
In una prospettiva concreta, segnalo due rilevanti iniziative, recenti e differenti, che stanno lavorando sulla creazione di trust negli agenti autonomi (e nelle architetture ed ecosistemi di economia agentiva) con attenzione alla democraticità e decentralità delle future società: “Loyal Agents” (Alex Pentland & C.) e “Trustless Agents” (Marco Rossi & C.). Certo non accadrà in una notte e non solo in una notte europea. Solo oggi si parla di Euro Stack, ma ricordo che sul punto dieci anni fa scrivevo l’ultimo capitolo del primo libro della tetralogia focalizzato sulla Pila. The Stack, non a caso sottotitolato Software and Sovereignty, si intitolava il libro del filosofo Benjamin Bratton che richiamavo proprio nel capitolo finale del mio libro Il mondo dato (2017). Anche quel saggio nel nostro Paese non è stato tradotto. Forse non è un caso.
Hai individuato o ritieni utile far notare un qualche tipo di differenza ontologica fra intelligenze artificiali di matrice occidentale e quelle di matrice orientali, come Deepseek?
A guardare le ingegnerie sottostanti direi che non c’è una differenza sostanziale. Sono sempre modelli linguistici su larga scala che vengono progettati su fondamenti comuni declinati e variati poi con specifici obiettivi. Condividono molte delle tecnicalità come le architetture transformer, ad esempio. Poi ci sono i vincoli geostrategici e geopolitici che li contraddistinguono (restrizioni alle componenti da parte degli Usa e ai talenti da parte della Cina, che mette sotto controllo i passaporti degli impiegati di Deepseek).
Ci sono anche design computazionali che li differenziano sicuramente (come le sottoreti separate specializzate e diversi altri avanzamenti mirati a risolvere singoli problemi di calcolo ed efficienza), ma la base rimane comune e inoltre la competizione planetaria tende a livellare le performance in una gara all’ultimo colpo. Ci sono inoltre scelte strategiche discriminanti: la chiusura dei modelli americani versus l’apertura dei modelli cinesi. Ma anche qui vanno bene analizzate le logiche di questa apertura (dei pesi) dei modelli. Apertura che non è semplice democratizzazione, ma – come insegna il platform thinking – è strategia di dominanza dei mercati.
Aggiungerei che la prospettiva americana spinge culturalmente (e ideologicamente) verso l’idea visionaria delle intelligenze artificiali generali, quella cinese sembra essere più interessata all’idea scalare delle intelligenze artificiali verticali. Non è facile naturalmente conoscere fino in fondo i piani riservati dello sviluppo dell’AI di due stack emisferici in competizione. Tieni conto che anche per altre ingegnerie, americani e cinesi mostrano scelte differenti. Come accade per la quantum engineering: a guardare, infatti, il numero delle pubblicazioni, gli USA sono più concentrati sulla quantum computation, mentre la Cina sta spingendo verso la quantum communication. Calcolo quantistico da un lato (processare l’informazione) per risolvere in tempi rapidi questioni complesse e comunicazione quantistica (trasferire l’informazione) dall’altro per sviluppare in maniera innovativa forme nuove di coordinamento, come si legge anche nell’ultimo Quantum Index Report (QIR MIT). E qui torniamo all’analogia della tecnologia del fuoco e di come abbia innescato modalità di coordinazione trasformative e sorprendenti.
A distanza di dieci anni da “Il mondo dato” pensi sia ancora fondamentale sviluppare una vera e propria “filosofia del software”, oppure – ora che il software può essere scritto attraverso il linguaggio naturale – anche questo filone di studi deve essere ripensato?
Riprendendo quando scrivevo sopra, il linguaggio delle macchine è il codice software e, anzi, aggiungerei che le macchine sono in procinto di scriverlo sempre più loro stesse. Anche alla luce di questi ultimi sviluppi è ancora più urgente esplorare e divulgare la filosofia del codice.
Il prossimo anno coinciderà con il decennale della mia tetralogia che, come ricordavi, parte dal primo volume dedicato proprio alla filosofia della programmazione. Naturalmente occorre approfondire e aggiornare questioni e domini, ma i software studies rimangono la base di partenza di qualsivoglia discorso filosofico e culturale profondo intorno alla forma di scrittura del nostro presente e dell’orizzonte: il coding. Sono passati dieci anni, ma il ritardo culturale rimane e direi anzi che peggiora nella gravità. Ci si preoccupa di insegnare l’ingegneria della programmazione nelle scuole (coding), ma non anche la filosofia della programmazione (philosophy of coding). Questa miopia è per me il segnale che l’arretratezza culturale permane e non contribuisce a costruire quella cittadinanza digitale che tutti auspicano, ma che pochi perseguono nei fatti. Nel mentre le tecnologie accelerano e, per di più, stanno passando dalla loro fase “provocante” a quella “istituente”.
Credo che sarà necessario che il nostro pensare intorno alle nuove ingegnerie – dalle intelligenze artificiali alle reti decentralizzate alle simulazioni quantistiche – evolva oltre la dimensione “strumentale” per andare verso una loro interpretazione più “strutturale” e finanche “istituzionale”. È strategico cominciare a pensare, ad esempio, ai modelli linguistici su larga scala o ai registri decentralizzati a consenso crittografico non come mere strumentalità tecnologiche (dagli algoritmi di back-propagation ai protocolli di zero-knowledge proof ai dispositivi sim-to-real/real-to-sim alle comunicazioni del quantum networking) alla base di “soluzioni” e “sistemi”, ma come emergenti forme di “istituzioni” socio-economiche. E cioè potenziali, anche arrischiate, istituzionalità ‘more-than-human’ che si affiancheranno, si incroceranno ed entreranno in competizione con altre, diverse e più antiche istituzioni come le imprese, i mercati, le burocrazie, gli stati.
Non abbiamo a che fare solo con tecnologie general-purpose, ma con institutional technologies (nel senso descritto da Darcy Allen, Chris Berg e Jason Potts, del Royal Melbourne Institute of Technology, nel saggio “Institutional Acceleration“). A partire dal codice software come scrittura eseguente e istituente: dai nuovi mezzi di comunicazione (social network) alle nuove tecnologie monetarie (programmable money). Possiamo e dobbiamo sostenere i nostri valori, ma facendo i conti con la geopolitica della tecnologia che è stata sottovalutata in questa parte del mondo. Anche perché non abbiamo letto e tradotto la buona filosofia circolante.





Grazie per questa intervista e per le riflessioni sul rapporto tra umanità e macchine. Ciò che mi colpisce, in un’ottica pedagogica, è il ruolo del linguaggio come atto generativo.
Se le parole degli uomini e delle donne di oggi sono il materiale con cui diamo forma alle nuove intelligenze artificiali, la sfida prioritaria diventa la costruzione di un linguaggio virtuoso ed elevato, partendo proprio dall’educazione dei più piccoli.
Mi chiedo, però: chi ha il compito di accompagnare i bambini e le bambine nell’apprendimento comunicativo, possiede oggi una visione consapevole di questa responsabilità? Gli insegnanti di ogni ordine e grado, ma anche i neo-genitori, hanno gli strumenti necessari per guidare le nuove generazioni verso queste competenze? Credo sia doveroso riflettere sull’investimento, personale e collettivo, da dedicare a questa ‘base’ educativa: è da qui che si innalzeranno le intelligenze che abiteranno il nuovo mondo.”