Quando l’Intelligenza Artificiale sbaglia e l’umano non c’è più


La maggior parte delle previsioni di grandi società di consulenza mondiali ci dicono che nei prossimi cinque anni l’ascesa dell’Intelligenza Artificiale e della robotica saranno impressionanti. Molte grandi aziende si stanno adeguando rapidamente. Se fino a quache anno fa avremmo potuto avere dei dubbi in merito a queste previsioni, con l’arrivo di Chat GPT ed in generale dei cosiddetti LLM (Large Language Models) abbiamo avuto, in questi ultimi mesi, esempi talmente evidenti da non poter più dubitare dell’inarrestabile ascesa di questa tecnologia.

La prima conseguenza ed anche la più evidente è, e sarà, la rapida fuoriuscita dal mercato del lavoro di migliaia di persone e forse la loro lenta riconversione in nuove professionalità. Ne parliamo in questa rubrica “Tecnofuturo” da almeno dieci anni, da quando riportammo gli studi del Professor Carl Benedict Frey, allora capo dipartimento “Futuro del Lavoro” dell’Università di Oxford ed oggi uno dei più quotati esperti mondiali in merito ai temi di Intelligenza Artificiale applicata al mondo del lavoro. In un recente articolo su Zafferano News, Roberto Dolci esperto di settore, intervistato qualche anno fa anche su Plus Magazine, ci racconta come negli Stati Uniti, patria dell’Intelligenza Artificiale, nell’ultimo anno, la perdita di posti di lavoro dovuta alla “sostituzione” di personale con skill medio-alte ed in generale di “colletti bianchi”, ha raggiunto  molto alti, addirittura non preventivati solo due anni fa. Infatti, nel 2023 il settore tecnologico USA ha licenziato 240.000 persone, infrangendo il record del 2001 e le prime notizie per il 2024 non sono per nulla buone. Solo SAP ad inizio febbraio ha annunciato il licenziamento a livello globale di 8.000 dipendenti a causa dell’utilizzo dell’Intelligenza Artificiale.

Da anni ci stiamo abituando a servizi rapidissimi fruiti attraverso il nostro smartphone. Tutto è diventato più semplice, fare un’operazione sul conto corrente, rinnovare una polizza assicurativa, effettuare un acquisto online. Nei prossimi anni sarà ancora più veloce e più semplice. L’Intelligenza Artificiale renderà queste operazioni ancora più rapide e personalizzate, potendo prevedere in anticipo quale sarà il servizio che maggiormente si adatta alle nostre esigenze o il bene che può servirci in un determinato luogo o momento. Le case costruttrici di smartphone stanno già inserendo in modo nativo gli assistenti A.I. nei loro devices. Tutto bene fino a quando le esigenze rientrano tra quelle previste o contemplate dal servizio online e dall’algoritmo che le regola. Ma mai fare qualcosa che non sia stato già previsto, pena il ripiombare nel peggiore girone infernale.

Cosa succede quando il robot e l’A.I. sbagliano ed il cliente non può risolvere il suo problema perchè le persone che si occupavano di questo non ci sono più? Una delle prime conseguenze è lo scadimento spesso evidente del livello e della qualità del servizio erogato. Nella peggiore delle ipotesi questa situazione porta ad impatti reputazionali imprevedibili per le aziende che adottano l’A.I. senza prendere le dovute misure di cautela e mantenendo una buona presenza di personale preparato sul tema. È una conseguenza a cui pochi avevano pensato anni fa, ma che in molte realtà è già presente. Un esempio è l’allungamento in modo insostenibile dei tempi di gestione del problema o dell’anomalia. Perchè avviene questo? Molti studi accennavano al problema già in passato, ma ponendo questo quale minaccia teorica. Esempi recenti ci dicono che il problema è già diventato realtà. Questo avviene perchè le aziende nel sostituire le persone con i processi automatizzati, si dimenticano del fatto che queste persone incarnano un’esperienza ed una memoria storica che spesso non viene riportata nei nuovi processi automatici. Nel momento in cui la persona viene espulsa dal processo produttivo chi la sostituisce a volte non ha gli strumenti per gestire problemi “imprevisti”. I tempi si allungano alla ricerca dei pochi umani sopravvissuti alla strage della riduzione del personale, in grado di risolvere l’anomalia. La risposta che più spesso mi sento dire è che un giorno l’A.I. sarà in grado di gestire in modo eccellente anche le anomalie più imprevedibili. Partiamo dai servizi. Il Banking è uno dei settori più importanti nell’applicazione dell’Intelligenza Artificiale.

Uno degli esempi storici risale al 2015 nel Regno Unito, un caso che aveva portato il governo a correre ai ripari con una legge apposita. Dopo la crisi finanziaria del 2009 e poi quella economica degli anni successivi, in un mercato particolarmente flessibile quale quello anglosassone, le banche avevano rapidamente licenziato migliaia di persone per ridurre i costi. Come spesso accade i tagli erano stati “lineari” e avevano colpito in particolare le sedi centrali e dipartimenti ICT dove “sembrava” che fosse più semplice ridurre i costi senza grandi impatti. Dopo qualche mese iniziarono a verificarsi dei veri e propri “black out” dei servizi online, mai registrati in precedenza, con la conseguenza che il governo inglese dovette introdurre multe salatissime per le banche responsabili del blocco dell’operatività ordinaria della clientela. Cosa era successo? Erano stati licenziati dipendenti che “formalmente” risultavano poco produttivi, ma proprio perchè “anziani” avevano conservato le conoscenze storiche dei sistemi informativi, senza le quali i giovani dipendenti (molto meno costosi) rimasti a gestire processi automatici, impiegavano giorni se non settimane a risolvere le problematiche.

L’automotive è un’altro dei settori più interessanti per l’applicazione dell’Intelligenza Artificiale. Molte auto di fascia media oggi offrono la tecnologia di guida autonoma a livello II. Sostanzialmente è possibile, ad esempio in autostrada, disporre della guida autonoma per lunghi tratti, senza dover intervenire sui comandi. Tutto va bene fino a quando il clima è perfetto, la strada è lineare e non vi sono piloti indisciplinati in giro. Quando qualcosa va storto, per il guidatore inizia una vera e propria “lotta” con l’auto per imporre la propria guida, con la necessità di dover escludere gli automatismi “ribelli”. La stessa Tesla che propone auto a guida autonoma di livello tre, chiarisce fin da subito al neofita l’importanza di tenere sempre le mani sul volante. Tesla ha di recente dovuto richiamare più di due milioni di veicoli per apportare correttive al software autopilot dopo aver riscontrato problemi di sicurezza. Nonostante ciò, la casa automobilistica americana ha vinto molte cause in cui si sono verificati incidenti mortali perchè ha dimostrato che il guidatore in quel momento non teneva le mani sul volante. Il livello 4 dovrebbe arrivare quest’anno ma per ora, è bene che l’umano non si distragga troppo.

Parlando di Intelligenza Artificiale generativa, con l’arrivo di Chat GPT molti professionisti soprattutto di alto profilo hanno iniziato ad usare tale strumento: uno degli esempi più curiosi degli ultimi mesi è stato quello dello studio legale Levidow & Oberman negli USA, con due dei suoi avvocati che hanno presentato pareri legali pieni di citazioni relative a sentenze inesistenti dopo aver usato Chat GPT per scrivere le argomentazioni. Il problema è stato che lo studio e i suoi avvocati invece di ammettere l’errore e prendersi la responsabilità dell’accaduto, hanno negato le accuse anche dopo che le ordinanze giudiziarie hanno messo in dubbio l’esistenza delle sentenze citate. Lo studio legale ha subìto nel giugno 2023 una multa di 5.000 dollari e ovviamente perso le cause in questione. Un altro esempio recente sempre legato all’Intelligenza Artificiale generativa è il primo “licenziamento” di un chatbot dedicato ai call center. Nel mese di gennaio 2024 la società americana di delivery DPD ha completamente disabilitato il suo chatbot online basato sull’Intelligenza Artificiale (che aveva parzialmente rimpiazzato il Call Center), dopo che un cliente, non riuscendo ad avere soddisfazione per le richieste effettuate, è riuscito a far scrivere al BOT una poesia in cui criticava ironicamente la società di consegna dei pacchi. In questi esempi l’uomo sta lentamente scomparendo e fa fatica a tenere testa ai robot e all’A.I. quando si verificano delle anomalie.

A questo punto ci si deve chiedere: quando le macchine potranno veramente operare senza più alcun controllo? E chi deciderà che è giunto questo momento? L’Unione Europea nel dicembre 2023 ha emesso la prima normativa della storia legata all’evoluzione dirompente dell’Intelligenza Artificiale: l’A.I. Act. Uno dei temi più importanti su cui interviene il regolamento europeo è la trasparenza nell’uso dei sistemi di Intelligenza Artificiale. Gli utenti e i clienti devono avere la possibilità di riconoscere i contenuti deep fake, come immagini e video, attraverso delle etichette ben evidenti denominate watermark e devono sapere se stanno interagendo con una persona o con un sistema, come ad esempio un chatbot. Inoltre, le aziende fornitrici di servizi digitali avranno l’obbligo di individuare i contenuti creati con l’Intelligenza Artificiale che circolano sulle loro piattaforme e segnalarli automaticamente come tali. Per l’Europa è una vera e propria rivoluzione se pensiamo al numero di deep fake che circolano sui social con le relative conseguenze. La nuova normativa si pone inoltre quale baluardo a difesa della società democratica, se pensiamo che l’Unione ha vietato l’uso del social scoring, il metodo di classificazione della reputazione dei cittadini già adottato da anni in Cina, Nazione divenuta ormai da alcuni anni una vera e propria dittatura digitale. L’A.I. Act. vieta inoltre la categorizzazione biometrica dei dati personali sensibili, come l’etnia, la fede o l’orientamento sessuale, la raccolta massiccia di volti da internet e le tecnologie che riconoscono le emozioni, viene inoltre limitato l’utilizzo governativo del riconoscimento facciale. È un primo passo anche a difesa degli errori che l’Intelligenza Artificiale potrà ancora compiere quando l’essere umano verrà relegato a semplice controllore della macchina.