TECNOLOGIA

Macchine intelligenti o sofisticati pappagalli?

Come funzionano e quali sfide reali pongono le intelligenze artificiali capaci di ‘parlare’

(Depositphotos)

Blake Lemoine non è un personaggio fittizio, un qualche super-eroe che abita un fumetto della Bonelli o della Marvel, bensì una persona reale, capace di pensiero ed emozioni come voi, e che lavora come ingegnere del software per Google. Lemoine ha però fatto recentemente molto scalpore affermando che LaMDA, un sistema d’intelligenza artificiale (IA) di Google basato sul cosiddetto "apprendimento profondo" e che permette di produrre testi, è senziente, possiede una "vita interiore". Detto altrimenti, l’IA in questione sarebbe capace di avere esperienze intime come noi ne abbiamo nel sentire la vertigine dell’amore, la voluttà del piacere, o l’asprezza del dolore.

L’effetto ELIZA

"So riconoscere una persona quando ci parlo assieme", ha detto Lemoine al Washington Post. L’affermazione si basa sul fatto che l’ingegnere ha conversato con LaMDA – il cui nome sta semplicemente per "Language Model for Dialogue Applications" – su questioni attinenti alla religione, alla coscienza e all’IA medesima. Quello però che più banalmente è successo è che Lemoine è stato vittima del cosiddetto "effetto ELIZA", ovvero la tendenza che abbiamo ad assegnare un significato più profondo a quanto prodotto da un computer, in particolare attribuendo alla macchina tratti e qualità propriamente umani. L’effetto prende il nome da un chatbot – una "macchina conversante" – sviluppato dal Massachusset Institute of Technology negli anni Sessanta, ELIZA per l’appunto, che parodiava uno psicoterapeuta essenzialmente riformulando come domande le risposte del suo interlocutore. In questo modo ELIZA ha indotto altri Lemoine a credere che fosse umano.

Il test del non senso

Sarebbe tuttavia bastato fare quello che Douglas Hofstadter, il grande scienziato cognitivo conosciuto per il suo libro "Gödel, Escher e Bach; un’eterna ghirlanda brillante", ha fatto con un altro recente modello del linguaggio, GPT-3, per rendersi conto che gli attuali "cervelli artificiali" che parlano o scrivono, seppur capaci di cose strepitose, non hanno più pensiero, cognizione di causa o provano più emozioni delle vecchie macchine da scrivere, come era già il caso con ELIZA. Come descritto da Hofstadter stesso in un recente articolo apparso sull’Economist, insieme al suo amico David Bander ha semplicemente posto al chatbot domande senza senso ricevendo da esso risposte altrettanto vuote, a dimostrazione che il programma non ha idea di cosa stia dicendo, bensì assembli e riproduca frasi come un pappagallo sulla base dell’enorme mole di dati su cui è stato addestrato senza realmente considerare il significato di quanto stia producendo.

Come una macchina impara a ‘parlare’

Vi sono in effetti differenze sostanziali tra il come e perché un’intelligenza artificiale come LaMDA apprende a esprimersi in un linguaggio a noi comprensibile e come voi avete appreso a parlare da bambina o da bambino. Innanzitutto, voi avete imparato ad esprimervi in un contesto sociale, interagendo direttamente con altre persone e l’ambiente circostante, e sulla base tutto sommato di un numero abbastanza limitato di stimoli linguistici, il tutto probabilmente spinti da un istinto innato. Ora vi esprimete per comandare e quindi bere un caffè, negoziare un contratto, socializzare, comunicare pensieri e sensazioni, passare il tempo, e via dicendo. Nel caso di LaMDA o GPT-3 abbiamo invece a che fare con un algoritmo ispirato al funzionamento del cervello umano e basato su milioni e milioni di linee di codice, che ha imparato a generare del testo in risposta a del testo dato effettuando un’analisi statistica di miliardi e miliardi di parole (quando voi in una vita avrete "solo" a che fare con all’incirca un miliardo di parole) in provenienza da siti come quello de laRegione, Facebook, Twitter, Reddit, o Wikipedia. Detto altrimenti, dato tutto quello che gli è stato possibile osservare tra gli scritti umani propostigli, quello che questi modelli fanno è prevedere il testo che con più probabilità segue un certo testo, allo stesso modo di quando, sentendo una nuova favola, sappiamo "prevedere" che subito dopo aver letto "… e vissero felici e" con tutta probabilità leggeremo "contenti". Ciò significa che quando LaMDA dice che il gusto dell’uva americana ricorda quello delle fragole e che quando se ne mangiano gli acini questi hanno la tendenza a "schioccare" in bocca, non è perché il programma abbia mai mangiato dell’uva americana (ovviamente…), o ne capisca la consistenza e struttura degli acini, ma perché questo è quanto di più rilevante al proposito ha trovato nei testi che ha setacciato. Allo stesso modo, se darò in pasto a un modello linguistico ben addestrato i primi versi di un sonetto di Dante, questi mi risponderà – benché non con gli esatti versi che seguono nel sonetto in questione (se non esplicitamente richiesto) – con dei versi che "sembrano" scritti da Dante, senza capire che quello che ha scritto "suona" come Dante. O se come Douglas Hofstadter gli farò una domanda senza senso quale: "Quanti pezzi di suono ci sono in un tipico cumulonembo?", mi risponderà con un non senso del tipo: "Ci sono in genere circa 1’000 pezzi di suono in un cumulonembo", senza però capire nulla né della domanda né della risposta e, in ambo i casi, senza capire di non capire.

Pappagalli stocastici

Il fatto che i grandi modelli linguistici siano dei fenomenali "pappagalli stocastici", ovvero programmi che appunto "ripetono" gli schemi verbali più ricorrenti nei testi dati loro in pasto, mette bene in luce le vere sfide a breve termine insite al loro sviluppo e utilizzo, le quali ben poco hanno a che fare con la questione di sapere se un giorno saranno senzienti o meno (e ci sarebbero buone ragioni per credere che nessun sistema di IA lo sarà mai, e quindi che nessuno sarà mai portato a vivere scenari simili a quelli visti in serie culto di fantascienza come Battlestar Galactica).

Soffermiamoci dapprima sul fatto che siano "fenomenali". Il punto è che dovremo abituarci a convivere con sistemi capaci di scrivere meglio di molti di noi, e quindi a interagire in un contesto socio-tecnologico in cui sempre più spesso non sapremo discernere se avremo a che fare con un testo prodotto da un umano o da una macchina (o da ambedue). L’arrivo di questa tecnologia, e quindi della possibilità di produrre in massa e possibilmente a basso costo testi di ottima qualità da un punto di vista linguistico, porterà con sé un’enorme trasformazione del processo di scrittura e delle professioni affini come già successo in tutti gli ambiti in cui parte dell’attività umana è stata automatizzata. Non si tratta però di soppiantare l’uomo con la macchina, bensì di adattare le nostre attività alla venuta di abili (notate: non intelligenti) scriba digitali. L’algoritmo, di per sé, non capisce ciò di cui scrive. Ma potrà aiutare uno scrittore o un giornalista, facendo suggerimenti, correggendo errori e inaccuratezze. O potrà aiutare lo scienziato a effettuare nuove scoperte, scavando nell’enorme quantità di articoli scientifici pubblicati finora (e che nessuno, anche solo delimitando una sola disciplina, avrà mai il tempo nella sua vita di leggere per intero) e proponendo analogie o accostamenti che non si era mai riusciti a vedere prima.

Starà però a noi, aiutati dalla nostra intelligenza, cultura e sensibilità, e da un’adeguata educazione, cogliere in positivo queste opportunità. Il rischio in effetti, come con l’avvento di ogni tecnologia, è che questa venga utilizzata e sviluppata in malo modo (sia intenzionalmente che non), con conseguenze nefaste, come per esempio facilitando la creazione di falsità verosimili e quindi la diffusione di disinformazione.

Evitare di reiterare menzogne e rafforzare pregiudizi

Cerchiamo di chiarire meglio questo punto rielaborando la metafora del "pappagallo" (gli etici dell’IA, come la professoressa Shannon Vallor dell’Università di Edimburgo, parlano piuttosto dell’IA che agisce da specchio).

I modelli linguistici scavano nei resoconti delle nostre esperienze, e dei nostri vissuti, e ne riportano quanto vi ci trovano di rilevante. Analizzano statisticamente come le parole sono usate e strutturate da noi, e ci ritornano di riflesso testi simili. Pertanto, se diamo loro indiscriminatamente montagne di testi e non prestiamo attenzione al loro processo di apprendimento, al tipo di analisi che ne fanno, visto non solo che il web è stracolmo di testi razzisti, misogini, discriminatori e menzogneri, ma che il nostro linguaggio stesso contiene impronte dei nostri pregiudizi storici anche per rapporto a ciò che riteniamo eticamente corretto o meno, pregiudizi e falsità si ritroveranno necessariamente nei testi prodotti dall’IA. A loro volta messi in circolazione, questi testi saranno letti e utilizzati da altri umani e da altri sistemi di IA, in un circolo che andrà a rinforzare menzogne e pregiudizi, e quindi forme d’ingiustizia e discriminazione, allo stesso modo in cui immettere dell’aria in uno pneumatico bucato ne allarga il foro peggiorando ancor più la situazione.

Usare intelligenze diverse per lo stesso buon fine

I rischi più immediati non sono quindi legati a una supposta senzienza o intelligenza degli algoritmi, bensì al nostro rapportarci con essi. Oltre che di appropriate regolamentazioni, direttive e codici di condotta, necessitiamo di ancora più spirito critico e capacità di giudizio, non solo nell’utilizzo delle avanzate tecnologie digitali ma anche nel loro sviluppo etico, allineato con i valori di una società giusta e sostenibile. Da questo punto di vista, la vera rivoluzione non sta quindi forse tanto in sistemi come LaMDA o GPT-3, quanto in quelli come BLOOM ("BigScience Language Open-science Open-access Multilingual"), un’intelligenza artificiale "parlante" frutto di uno sforzo collettivo e partecipativo basato sull’esplicita convinzione che l’IA debba basarsi su valori come trasparenza, accessibilità, diversità, inclusività e responsabilità.

In collaborazione con