Contenuti

Il futuro dell'umanità alla svolta dell'Intelligenza Artificiale

Contenuti

Il 2023 è indubbiamente stato un anno molto denso per l’intelligenza artificiale (IA). Un primo evento eclatante risale ad aprile, quando un team di esperti (manager, professori, tecnici del settore e intellettuali vari) si è unito in un appello per una moratoria per fare una pausa sui grandi progetti di addestramento delle intelligenze artificiali che alcune grosse aziende stanno portando avanti. Il messaggio invitava a fermarsi un attimo per valutare i rischi e per dare tempo alle istituzioni di comprendere l’evoluzione degli scenari possibili, alcuni dei quali ipoteticamente molto minacciosi. Tra i firmatari c’erano persone del calibro di Elon Musk (che investe ingenti somme nell’IA) e Noah Yuval Harari.Nei mesi successivi è stato approvato dal Parlamento Europeo il lavoro preliminare per una legge europea che regolamenti il settore, il cosiddetto «AI Act», che però sarà attuativo solo nei prossimi anni.Infine, a novembre, è stato inaugurato un istituto dedicato all’IA, promosso e finanziato dal governo britannico (che però non fa più parte del Parlamento Europeo dopo la Brexit). L’AI Safety Institute si occupa di studiare gli avanzamenti in corso in campo di IA, valutandone le implicazioni e i rischi, in modo da poter collaborare con le istituzioni e le aziende mondiali per un’azione di contenimento etico. Con questa mossa il Regno Unito si posiziona come paese leader nell’investimento e nella ricerca ufficiale sui rischi dell’IA.

Una grande spinta a mettere in atto tutti questi provvedimenti è arrivata, probabilmente dall’uscita di Chat-GPT-4, l’ultima versione dell’intelligenza generativa, cioè l’ormai famoso chatbot dai poteri sbalorditivi. Questo prodotto proviene da Open AI, impresa di punta sulla ricerca in questo campo; nata come no profit diventa poi azienda finanziata da investitori come Microsoft proprio quando il rilascio di CHAT-GPT sbalordisce il mondo con le sue capacità e dà una scossa ai finanziatori, che, viste le possibilità, decidono di trasformare la beneficienza in guadagno. Sempre Open AI, a novembre, è ancora sulle scene per un repentino licenziamento di uno dei suoi esponenti più in vista, CEO nonché fondatore, Sam Altman. La vicenda ha scosso sia i media che l’azienda stessa, che ha optato per il reintegro immediato dello stesso Altman. Sembra, da alcune indiscrezioni, che la discordia tra lui e il resto del board dell’azienda implicasse anche una questione di etica. Altman, nonostante prenda spesso parola pubblicamente per paventare i rischi dell’IA, era del parere di lavorare con meno remore sull’ultimo progetto di punta dal nome Q* (si legge Q-Star), una nuova forma di intelligenza con potenziali capacità di diventare una super-intelligenza. Il resto del board invece, pretendeva una condotta più cauta, a causa dei rischi in ballo, anche a dispetto di sacrificare i guadagni dell’impresa in questione. In realtà, la storia è molto torbida vista la precauzione dei vertici aziendali nel rilasciare dichiarazioni sulla vicenda.Prendiamo per buona questa ipotesi perché ci fa da pretesto per analizzare come si pongano in maniera antitetica le istanze capitalistiche rispetto a quelle etiche, anche all’interno di un’azienda molto redditizia.A rappresentare bene questo problema etico c’è il cosiddetto dilemma di Collingridge: arrestare il progresso e i guadagni di una dubbia tecnologia in nome della precauzione, o svilupparla appieno e provare a posteriori, in caso, a gestire gli aspetti rischiosi? Il problema è che introdurre misure di contenimento una volta che una tecnologia ha preso piede, risulta molto difficile. La vicenda OpenAI ci consente di esemplificare un conflitto di istanze che è stato ampiamente esplorato dalla filosofia. Uno dei pensatori che ha maggiormente riflettuto su questo tema è stato il filosofo ebreo tedesco Hans Jonas. È interessante scoprire che il suo pensiero è stato dirottato su queste riflessioni da un evento biografico preciso. Jonas era un giovane studioso delle correnti gnosticheimpegnato all’università di Marburgo, quando lo scoppio della Seconda guerra mondiale lo spinse ad arruolarsi con gli inglesi. La vita da soldato, priva dei libri sui quali portava avanti i suoi studi, lo costrinse a tornare alla vera attività del filosofo: pensare. Nella brutalità e violenza del conflitto, Jonas si trovò a riflettere sul potere sconfinato che la tecnica aveva ormai consegnato ai suoi contemporanei, fornendoli di un potere d’azione impensato prima di allora. La sua riflessione contempla l’inefficacia dell’etica così come è stata pensata dagli antichi Greci, perché quando la potenza umana era limitata, l’etica si limitava al «qui ed ora», era impensabile ragionare sulle conseguenze delle azioni su lunga distanza, con effetti cumulativi o immaginare che ci fossero risvolti imprevisti su larga scala a partire dalle azioni umane. Inoltre, non c’è mai stata un’etica antica che andasse oltre gli esseri umani; la natura, vista come espressione di un cosmo sconfinato, potente e inalterabile, non era qualcosa da tutelare: nessuna etica ha mai messo in conto di mettere in salvo l’ecosistema dall’azione umana. Sulla tradizione di questo scenario, ecco calare nel 1945 la bomba atomica, tra l’altro, in un momento in cui le sorti della guerra erano già abbastanza decise. È stato il film «Oppenheimer», per chi lo ha visto, che ci ha portato di nuovo a riflettere su quanto poco l’etica possa fermare il desiderio di tracotanza umana una volta inebriato dalla veemenza della tecnica. In sostanza, bisognava vedere, a qualunque costo, quanto potente sarebbe stato quel prodigioso ordigno, frutto della fisica più d’avanguardia e del progresso della tecnologia. Un singolo congegno ha messo in luce quanto il potere della tecnica sia smisurato di fronte alle remore etiche, al potere di previsione degli effetti su lungo tempo anche da parte della scienza, alle strade future che un evento può far intraprendere.Jonas ci dice, a proposito degli sviluppi tecnologici, che hanno la «tendenza a rendersi autonomi, ossia ad acquisire una propria dinamica coattiva, un impeto automatico in forza del quale non soltanto diventano irreversibili, ma acquistano una funzione propulsiva al punto da trascendere la volontà e i piani degli attori» (Jonas 1993: 40-41). In sostanza, se siamo liberi di fare il primo passo (o non farlo, se introduciamo una riflessione etica che privilegi la prudenza), a tutti gli altri successivi siamo già schiavi. Questo punto è cruciale per tornare alla tecnologia in questione: l’IA.Forse non siamo tutti consapevoli di quanto pervasiva sia questa tecnologia, ma praticamente ogni volta che usufruiamo di un’attività nel web, ne veniamo in contatto. Essa consente di svolgere vari compiti di calcolo in modo da ottimizzare i servizi a cui accediamo, sia per agevolare noi utenti, sia per migliorare le prestazioni e i ricavi di chi i servizi li fornisce. Tutte le nostre preferenze di azione nel web (o anche se idati entrano in connessione di rete a posteriori) vengono memorizzate per personalizzare meglio quanto ci viene continuamente proposto. Si pensi che oggi a decidere quali sono i libri più letti al mondo è l’algoritmo di Amazon. Questo è un utilizzo abbastanza banale dell’IA, utile a spiegare come ci riguardi tutti. Ma questa forma di tecnologia ha moltissimi altri impieghi: consente il filtraggio antispam delle email, gestisce le transazioni bancarie, gli investimenti finanziari delle borse, il traffico aereo e molto altro. Inoltre, supporta operazioni decisionali in campo sanitario, dove si prefigge di divenire uno strumento decisivo per selezionare cure ad personam in alcune patologie come il cancro, ad esempio. Ci sono innumerevoli esempi che possono supportare la tesi dell’utilità di questa tecnologia, altrimenti non ci sarebbe bisogno di discutere a lungo su come gestirla eticamente. Come diceva Jonas, ciò che preoccupa della tecnica non è la minaccia imminente, che ci sta davanti, ma quella futura, non il suo uso malvagio, che si può sperare di tenere sotto controllo, ma le sue utilizzazioni più oneste e legittime, che sono la vera essenza del suo attivo dominio. Infatti, se andiamo a vedere i punti salienti dell’AI Act del Parlamento Europeo, vediamo che prevede una classificazione delle applicazioni in base al livello di rischio: inaccettabile, elevato, limitato, minimo o nullo. Rientra nel rischio inaccettabile e perciò sarà vietato in Europa, l’uso di IA che porti a calcolare un punteggio sociale (social scoring) da parte dei governi, sistema invece praticato in Cina. Sarà anche vietata la rilevazione biometrica (faranno eccezione circostanze legate alla sicurezza delle persone), che è invece ampiamente praticata dal governo cinese, il quale, tra l’altro, ha potuto così acquisire una mole talmente vasta di visi da avere oggi la tecnologia più d’avanguardia sul riconoscimento facciale (l’IA potenzia la sua efficacia allenandosi su più dati possibili).Per quanto riguarda i rischi conclamati, non possiamo che affidarci alle istituzioni, ma per quanto riguarda i livelli più moderati, dobbiamo attrezzarci da soli sul da farsi. Il problema è che è necessaria un’operazione conoscitiva per capire i risvolti della nostra massiccia interazione con i dispositivi tecnologici. Come possiamo fare? Ci sono alcuni punti fermi da cui partire:

- Tutti gli strumenti plasmano la nostra materia cerebrale e questa plasticità aumenta con il tempo di interazione. Una violinista avrà un cervello particolarmente plasmato sull’esperienza di questo strumento, un tassista avrà un cervello modellato dalla conoscenza delle mappe stradali e così via. Come viene plasmato il cervello di chi passa ore a interagire con strumenti quali cellulari o computer? Essendo l’attività motoria piuttosto esigua (possiamo diventare bravissimi nella digitazione veloce, ma non molto altro) dobbiamo andare a vedere l’attività cognitiva. Qui scopriamo che molte delle funzioni che svogliamo in realtà ci facilitano le attività cognitive, delegandole alle macchine. Un esempio sono i navigatori (chi usa più una cartina stradale?), oppure i contenuti video (leggiamo di meno e in generale meno su carta?), oppure semplicemente il tempo che requisiamo ad altre attività (meno tecnologiche ma più diversificate). Chiediamoci come stiamo plasmando il nostro cervello e se ci sta bene.

- Il fenomeno dell’interazione con il digitale e con internet ha portata globale; il sito «Datareportal»2 ci dice che su otto miliardi di persone più di cinque miliardi possiedono un cellulare e usano internet, mentre la media di tempo di utilizzo del web risulta essere sei ore e mezza al giorno. Un fenomeno di massa sta potenzialmente plasmando le menti dell’umanità in modo abbastanza uniforme, chiediamoci se stiamo perdendo qualcosa.

- L’IA fornisce al digitale una marcia in più per aumentare l’interazione con gli umani. Il fenomeno più accattivante è costituito dai chat-bot, il più famoso è Chat-GPT, la cosiddetta intelligenza generativa, che confeziona in modo ogni volta singolare le risposte alle nostre richieste. Le perplessità intorno all’uso scorretto che si può farne sono molte, soprattutto in ambito scolastico, di ricerca e pubblicazione. Ma queste intelligenze artificiali possono imitare gli umani presentandosi con voci e interazioni molto verosimili. Nel film «Her» di Spike Jonze, l’attore Joaquin Phoenix finisce per innamorarsi di un chatbot che si dice a sua volta innamorato di lui. La verosimiglianza delle macchine con gli umani è un obiettivo che chi le progetta sta inseguendo, ma con la possibilità di campionare voci di persone vere e manipolare con il deep fake immagini reali, la potenza dell’inganno si fa audace e il rischio di manipolazione enorme. È importante essere informati, quando interagiamo, che stiamo parlando con delle IA, ma che succederebbe se ci convincessimo che esse sono di più, che soffrono o hanno un’anima? Se pensiamo che nel 2022 un ingegnere di Google, Blake Lemoine, è stato licenziato perché sosteneva che il suo progetto di IA, dal nome LaMDA, era arrivato a comunicargli di avere un’anima (e lui ci credeva), allora dovremmo ritenere la minaccia dell’inganno qualcosa di veramente preoccupante.

A partire da queste tre considerazioni, possiamo iniziare a riflettere se è il caso di informarci, preoccuparci e attrezzarci per non subire una tecnologia e i suoi insidiosi poteri ma essere invece delle persone che ne fanno un uso consapevole, traendone tutti i vantaggi ma, visto il rischio di coinvolgimento sregolato, privilegiando un utilizzo possibilmente limitato.