Chat GPT e le Intelligenze Artificiali


Intervista a Cosimo Accoto, Tech Research Affiliate & Fellow al MIT di Boston.

Chat GPT e l’Intelligenza Artificiale fanno parte, da qualche mese, dei discorsi di tutti noi. Con l’intervento da parte del Garante della Privacy, la notizia ha addirittura fatto il giro del mondo. Dopo aver introdotto l’argomento nell’ultima intervista di Tecnofuturo, ora abbiamo l’onore di poter parlare con Cosimo Accoto, filosofo, Tech Research Affiliate e Fellow al MIT di Boston (USA). Accoto è autore di una trilogia sull’IA: “Il mondo in sintesi” (2022), “Il mondo ex machina” (2019), “Il mondo dato” (2017). È ospite di programmi televisivi (“Codice”, Rai 1) e radiofonici (“Smart City”, Radio24) dedicati all’innovazione culturale e tecnologica.

Fermate l’IA: nel giro di pochi giorni ad inizio aprile l’inarrestabile progresso di Chat GPT trova prima una serie di firmatari, tra cui Elon Musk, per una “moratoria” della sperimentazione di massa e poi la mossa del Garante Privacy italiano che chiede maggiori garanzie. È paura o saggezza? Stiamo andando troppo veloce?
Elon Musk ha appena fondato una nuova società centrata sull’IA (XAI). Nei fatti non si sta fermando, direi. Il Garante e OpenAI, dopo il provvedimento e la chiusura, si sono incontrati e stanno lavorando perché il servizio possa riprendere a funzionare regolarmente in Italia. Vedremo l’esito di questi aggiustamenti e se saranno sufficienti. Immagino si ripartirà con qualche garanzia maggiore e anche sotto la vigilanza allineata dei Garanti europei. La lettera di fermo temporaneo, peraltro debole nei suoi assunti e nelle sue intenzioni, mi sembra non aver avuto l’esito cercato. Ha tuttavia avuto il merito indubbiamente di sollevare ulteriormente la questione e il dibattito internazionale. Ci sono paure ataviche, paure
motivate e paure alimentate, ma la paura (o hype per converso) non è certo il migliore compagno per guidarci dentro l’innovazione. Piuttosto dobbiamo studiare e comprendere al meglio le trasformazioni (anche geostrategiche) in atto, valutare il valore che immaginiamo di creare e nel caso scoprissimo che c’è, prepararci a orientare la direzione di sviluppo
mitigando, come sempre abbiamo fatto, vulnerabilità e criticità emergenti. La velocità è certo un fattore che aumenta la complessità, ma è anche vero che siamo in ritardo su educazione e lavoro. È da un decennio oramai che le macchine sono divenute ultra performanti.

Le varie espressioni dell’Intelligenza Artificiale, dal testo alle immagini e ai video, hanno raggiunto ormai livelli di accuratezza impressionanti. Ne hai parlato moltissimo in testi ed articoli recentemente. Ci fai alcuni esempi?
Ci sono tre aree ad oggi in cui si esplica la potenza dell’IA generativa (GenAI). Sono i testi, le immagini, i programmi. Vale a dire la sua capacità di creare immagini di fantasia o ultrarealistiche, quella di articolare discorsi e testi scritti e quella di scrivere codici software. L’IA non si limita più a estrarre schemi significativi dai dati con cui alimentiamo le reti neurali artificiali, ma è in grado di generare contenuti e processi nuovi assemblando e remixando sintassi linguistiche, stili grafici, stringhe di codice, ecc. L’immagine fake di Trump inseguito dalla polizia, la scrittura artificiale di articoli giornalistici, la produzione automatica di un sito a partire dalla sua immagine. E tutti i vari incroci possibili tra questi: partire da un testo per creare un video, usare un’immagine per ispirare un racconto o una composizione musicale e così via. E poi tutto questo in modalità sempre più automatizzata e con un grado crescente di autonomia. Sempre più, anzi, vedremo agenti e assistenti artificiali che si muoveranno in autonomia per cercare le risorse e gli strumenti necessari al completamento di task qualora non li abbiamo già in dotazione connettendosi ad altre fonti e piattaforme. Capire come introdurre al meglio dentro i processi lavorativi di vario tipo questi nuovi strumenti (e più in generale dentro la società) sarà la vera sfida del futuro. In tutti i campi, non solo nell’intrattenimento.

Etica e Intelligenza Artificiale: a che punto siamo con i famosi dilemmi etici, ad esempio,
dell’auto a guida autonoma che deve decidere chi salvare in caso di incidente?
Dai tempi di “Moral Machin”, l’applicazione del MIT Media Lab che metteva in gioco e in test le questioni etiche connesse alla guida autonoma, sono passati quasi 7 anni. Era il giugno 2016 quando fu lanciato il sito che riproponeva, in forme nuove, il dilemma del carrello ferroviario omicida, un esperimento mentale di filosofia e decisione morale in situazioni critiche (vita/morte). Oggi, abbiamo capito che questi dilemmi morali soffrono probabilmente dell’eccesso di speculatività e astrattezza tipiche della filosofia. I progettisti di auto a guida autonoma sono più concentrati, invece, sulla creazione di sistemi, misure e processi di sicurezza che tengano conto delle condizioni di guida e delle condizioni di traffico (e delle prescrizioni e dei patti sociali che già regolano la mobilità). Sono focalizzati a implementare tutte le soluzioni ingegneristiche per evitare le collisioni attraverso sensori di alta precisione che migliorano di molto la capacità di leggere la situazione di mobilità e traffico e di agire anche preventivamente di conseguenza. E teniamo conto che l’Intelligenza Artificiale è una tecnologia della predizione e che noi andiamo verso una società oracolare (e non più archivistica). Pertanto, un po’ alla “Minority Report”, dovrebbe poter intervenire per evitare l’incidente e le collisioni potenziali in arrivo e quindi senza essere costretta a dover decidere chi sacrificare.

Nel mese di gennaio sei stato a Davos al WEF. I grandi del mondo che hai incontrato hanno compreso appieno le potenzialità ed i rischi del nuovo mondo in cui siamo approdati? Chi possiede l’IA governerà il mondo? O andiamo verso uno scenario alla “Matrix” in cui sarà l’IA a comandare?
A Davos, l’eccitazione per gli sviluppi dell’Intelligenza Artificiale già a gennaio era palpabile. Naturalmente anche con qualche apprensione. E tieni conto che non era ancora esploso a pieno il momentum di Chat GPT e simili. Al MIT questa primavera l’entusiasmo degli studenti e delle studentesse era ai suoi massimi livelli. Posso testimoniare personalmente le loro lunghe file per entrare agli eventi e convegni ad ascoltare i guru dell’IA delle Big Tech raccontare le nuove meraviglie dei linguaggi sintetici (sul tema ho pubblicato un lungo articolo su “Harvard Business Review”, marzo 2023) e, più in generale, dell’IA generativa. Ora, lasciando da parte l’immaginario cinematografico e guardando a quello che accade nei laboratori, direi che passo dopo passo quello che chiamiamo Intelligenza Artificiale sta guadagnando terreno. Semplificando, nell’ultimo decennio (2013-2023) le macchine hanno eguagliato e superato le abilità umane in dimensioni chiave come il riconoscimento immagini e testi e la comprensione del linguaggio naturale. Naturalmente possiamo criticare questi benchmark o evidenziare i limiti ancora esistenti o i bias e molto altro, ma è indubbio che lo sviluppo di queste capacità scardina e scardinerà equilibri consolidati in molti ambiti. Dall’economia alla politica planetaria. Prima lo capiamo (e, di nuovo, siamo in ritardo), meglio sarà per noi.

L’Intelligenza Artificiale è neutrale? Ad esempio, Chat GPT è molto “polite”, contraddice raramente ed è politicamente corretta, ma come sarebbe una IA cinese o prodotta in un contesto non democratico?
Dobbiamo qui sfatare una mitologia che è anche una miopia. Quello che chiamiamo IA non è quello che pensiamo o vediamo o che raccontano. Come ho scritto, l’IA non è mai pensabile in sé e per sé (artefatto strumentale), ma è sempre “per altri” (sistema sociotecnico) e “con altri” (costruzione sociomorfica). Altrimenti si rischia di reificarla (è solo un insieme di tecnicalità: dati, algoritmi, potenza di calcolo…) o di personificarla (è intelligente, è senziente, è cosciente…). Quindi se c’è “neutralità” è nella misura in cui può essere programmata, se non c’è “neutralità” è quella che la società, di cui è parte, in essa esprime. La cosiddetta neutralità come la cosiddetta trasparenza sono dei costrutti sociali, mai solo tecnici. La Cina proprio in questi giorni ha presentato le sue linee guida per lo sviluppo dell’IA. Nella traduzione fatta dalla Stanford University, all’articolo 4 in incipit si legge: “I contenuti generati attraverso l’uso dell’IA generativa devono riflettere i valori fondamentali del socialismo e non possono contenere: sovversione del potere statale; rovesciamento del sistema socialista…”. D’altro canto, nelle nostre versioni ripulite e molto “polite”, rischiamo viceversa di perderci una parte di utile e sana discussione democratica anche accesa su principi o posizioni diverse ed eretiche come ha rilevato il filosofo Bratton. L’equilibrio non sarà facile.

Nel tuo primo libro “Il mondo dato” in pratica anticipavi il fatto che prima o poi sarebbe arrivato un Chat GPT in grado di raccogliere una mole di dati talmente alta, tale da disporre di strumenti di potenza incredibile. Cosa è cambiato da quando lo hai scritto e cosa ci spieghi nel tuo ultimo volume “Il mondo in sintesi”?
Il percorso che ci ha portato fin qui l’ho raccontato nella mia trilogia tecno-filosofica che ha preso avvio, per l’appunto, con il saggio “Il mondo dato” (2017), poi proseguita con “Il mondo ex machina” (2019) e infine con “Il mondo in sintesi” (2022). La trilogia racconta questa nuova terraformazione digitale del nostro mondo. Che oggi, per me, si compone di tre campi strategici: filosofia della programmazione, filosofia dell’automazione, filosofia della simulazione. Se ci pensiamo, proprio Chat GPT è programmazione, automazione, simulazione del linguaggio naturale umano. Ne “Il mondo dato” parlavo di “trasduzione” dello spazio da parte del codice: era vero prima del metaverso ed è parimenti e maggiormente vero nel metaverso. Ne “Il mondo ex machina”, c’è robotica e “algomazione”, l’automazione algoritmica: era vero prima della pandemia, sarà più vero passata la virulenza che ha accentuato digitalizzazione e automazione. Ne “Il mondo in sintesi” ho discusso di “assettizzazione” del codice software: era vero per i Bitcoin ed è vero per i token infungibili.

Che futuro attende i nostri figli? Se anche i lavori più sofisticati e che richiedono anni e anni di studio potrebbero essere oggi a rischio, cosa dobbiamo fornire ai giovani per rimanere al passo con la potenza dell’IA senza esserne schiavi?
Il futuro si costruisce, lo costruiremo noi e lo costruiranno soprattutto loro. Ora noi dobbiamo insegnare filosofia, informatica e sostenibilità a tutti i livelli e in tutte le materie scolastiche con uno sguardo storiografico e metadisciplinare. Naturalmente dobbiamo sostenere le materie STEM, ma dobbiamo anche insegnare lettere, medicina, giurisprudenza, economia e così via in modo nuovo. Perché così saranno i saperi del futuro: legge computazionale, biologia sintetica, digital humanities, artificial economy, digital twin in medicina, robotica e altro che verrà. Insieme a questo, dobbiamo coltivare un umanesimo consapevole e coraggioso (non inutilmente impaurito oppure stupidamente entusiasta) che sia capace di fare innovazione culturale. Come fece l’umanista Lorenzo Valla (1440) che all’arrivo dei documenti scritti e poi stampati, inventò una disciplina che non esisteva, la filologia, per proteggerci dalle falsificazioni dei documenti scritti. Quella fu innovazione culturale e a questa siamo chiamati oggi con l’arrivo dell’Intelligenza Artificiale generativa. Le macchine sono cresciute in capacità e lo stesso dovremo fare noi con loro. Abbiamo una grande responsabilità a cui far fronte e abbiamo già perso tempo a dire. Ora che le cose accelerano, il tempo del fare sarà prezioso.