laR+ Scienze

Chi ha paura dell’intelligenza artificiale?

Dobbiamo temere che in futuro l'IA possa prendere il controllo dell’umanità? Parlano Barry Smith e Jobst Landgrebe, protagonisti di un recente workshop Usi

(Depositphotos)
11 aprile 2023
|

L’idea che un evento imprevisto, originato dai progressi scientifici e tecnologici, potrebbe scombussolare gli equilibri del mondo che conosciamo, è sempre più spesso al centro di previsioni sul futuro dell’umanità. Nel mondo attuale, scienziati e tecnologi celebrano regolarmente nuovi traguardi nell’innovazione: al tempo stesso, la complessità cresce a dismisura, e la massa di dati disponibile necessita di computer sempre più sofisticati. Diventa quindi difficile pianificare con tempi precisi la produzione del sapere, e si fa strada il timore che un giorno il progresso tecnologico e scientifico ci sfugga di mano, per finire nelle mani di robot e computer superintelligenti. Gli esperti hanno un nome per questa situazione: la chiamano singolarità tecnologica. Essa si manifesta quando non siamo più noi a controllare la tecnologia, ma è la tecnologia a controllarci.

Ma i timori che un’intelligenza artificiale (IA) possa un giorno prendere il controllo dell’umanità sono fondati? Ne abbiamo parlato con Barry Smith e Jobst Landgrebe, co-autori del libro ‘Why Machines Will Never Rule the World. Artificial Intelligence without Fear’ (Perché le macchine non comanderanno mai il mondo. L’intelligenza artificiale senza paura) e ospiti del recente workshop (1-2 marzo) che l’Istituto di filosofia dell’Università della Svizzera italiana ha dedicato al tema dell’intelligenza artificiale. Tanto Landgrebe quanto Smith hanno una formazione in filosofia, ma negli anni hanno arricchito il loro bagaglio di conoscenze diventando dei punti di riferimento nell’ambito dello studio dell’intelligenza artificiale. Il titolo del loro libro solleva la nota questione della singolarità: nondimeno, gli intenti che animano i due ricercatori sono, come vedremo, ben diversi da quelli di chi paventa il pericolo di un ammutinamento futuro delle macchine.

Guardando al titolo del vostro libro, viene spontaneo pensare a una presa di posizione rispetto alla questione della singolarità. È così?

Barry Smith (B.S.): Il punto di partenza del nostro libro è la consapevolezza che molte delle affermazioni e delle previsioni fatte in nome dell’intelligenza artificiale sono esagerate. Queste esagerazioni purtroppo portano alla paura che qualora si potesse ideare un’intelligenza artificiale generale che è più potente dell’intelligenza umana, questa intelligenza artificiale poi creerebbe un’intelligenza artificiale ancora più potente, e così di seguito, fino ad arrivare a una sorta di esplosione dell’intelligenza che porterebbe i supercomputer a conquistare l’universo e a distruggere l’umanità. Noi non siamo molto interessati a questo fenomeno, perché non ci crediamo, per noi è impossibile che si verifichi. Ma se la paura che si diffonde sempre più, anche fra un pubblico intelligente, è infondata dal punto di vista della matematica, rimane comunque reale. Il titolo del libro è un tentativo di far conoscere la prova di questa infondatezza a chi altrimenti sarebbe pieno di timori. Aggiungerei che ci sono molte altre ragioni per temere l’IA che hanno poco a che vedere con la teoria della singolarità. Per esempio, ci sono persone che si innamorano di chatbot che, per qualche ragione interna o esterna, da un momento all’altro smettono di reagire ai loro amanti, causandone il suicidio. Questo sì che è un problema reale.

Jobst Landgrebe (J.L.): in questi casi, il suicidio non è sicuramente causato dall’IA, ma alla base c’è un problema di tipo psicologico. In passato ci sono stati casi di suicidio fra i lettori de ‘I dolori del giovane Werther’ (noto romanzo di Johann Wolfgang von Goethe), ma leggere quel libro non ti porta automaticamente al suicidio. Tornando al tema controverso della singolarità, io credo che quando ci si pone delle questioni etiche riguardo all’IA, bisognerebbe chiedersi cosa c’è di veramente specifico all’AI nell’idea di singolarità. La singolarità era già stata immaginata negli anni 90 da studiosi come Ray Kurzweil, un pioniere importante nel campo dell’IA, ma la vera domanda è come ha fatto proprio lui a elaborare un’idea così assurda. Penso che il problema di fondo sia che persone come Kurzweil mancano di una reale comprensione dell’intelligenza umana. Questo è un versante della questione; l’altro versante è che chi appoggia queste idee non comprende la rilevanza matematica di ciò che stiamo facendo nel campo dell’IA. Si limitano a concepire l’IA come uno strumento ingegneristico ma non la vedono dalla prospettiva della fisica e della matematica, e perciò sono confusi e credono in qualcosa che non è vero. La gente che non lavora nell’ambito dell’IA pensa che se Ray Kurzweil è un pioniere deve per forza avere ragione, ma in realtà non fanno altro che contribuire a loro volta ad alimentare delle paure irrazionali.

B.S: Esiste un presupposto ampiamente condiviso secondo cui il cervello sarebbe solo un computer e che, quindi, è solo questione di tempo prima che si resca a costruire un computer migliore di quello umano. Ma noi pensiamo che questo presupposto sia falso, perché il cervello non è un computer.

Il concetto di intelligenza negli ultimi decenni ha subito delle sostanziali ridefinizioni, penso ad esempio al modello delle intelligenze multiple di Howard Gardner. Qual è la vostra idea di intelligenza, e cosa ne pensate del rapporto fra intelligenza umana e macchinica?

B.S: dal nostro punto di vista l’intelligenza include molte dimensioni e sfumature, e solo alcune di queste possono essere emulate da un computer.

J.L: C’è chi definisce l’intelligenza come la capacità di trovare una soluzione efficace a una nuova situazione senza averne una conoscenza pregressa, e ciò caratterizza sia l’intelligenza umana sia quella animale. Nel nostro libro mostriamo che i computer non sono in grado di accedere a questo tipo di intelligenza. Inoltre, quando si fanno dei test per misurare l’intelligenza, in realtà si sta misurando il quoziente intellettivo, che però rende conto di una parte piuttosto ridotta di ciò che è l’intelligenza nel suo complesso. Puoi avere un QI molto alto ma fallire nel risolvere un problema che non hai mai incontrato prima, perché la situazione richiede l’impiego di aspetti dell’intelligenza che non sono misurabili dal QI. Nondimeno, un alto QI è un indice abbastanza accurato delle possibilità di successo nelle società occidentali.

Come mai quando i media parlano di intelligenza umana e di intelligenza artificiale, questo confronto prende sovente la forma di una gara in cui deve per forza esserci un vincitore? Non è un po’ fuorviante questa immagine della gara?

B.S: Oggi abbiamo macchine veramente molto intelligenti che possono battere gli umani in certe attività, come giocare a scacchi o a go, oppure nel predire il processo di ripiegamento molecolare attraverso il quale le proteine ottengono la loro struttura tridimensionale. Noi non sosteniamo che l’IA sia sempre inferiore all’intelligenza umana: al contrario, certi tipi di intelligenza artificiale ristretta in linea di principio possono battere l’intelligenza umana. Ci saranno sempre queste gare e il premio più grande sarà quello di costruire un’IA che superi l’intelligenza umana.

Ma non è in fondo un’ossessione tipicamente umana, quella del confronto fra gli umani e le macchine?

B.S: Direi piuttosto che è un’ossessione degli ingegneri informatici. È la grande sfida degli ingegneri quella di costruire un’IA che batta l’intelligenza umana.

J.L: Comunque, io non la vedo necessariamente come una gara. Certo una macchina va molto più veloce di un umano, ma questo significa che vince la sfida? No, perché l’intelligenza artificiale è solo uno strumento. Costruire strumenti è un aspetto della rivoluzione industriale che rende il nostro ambiente sempre più tecnico. Ciò presenta sia dei vantaggi, sia dei rischi e delle minacce.

Senza una collaborazione interdisciplinare il vostro libro non avrebbe quell’ampiezza di vedute e quella solidità di argomenti che ne determinano la principale forza. È così?

B.S: Innanzitutto vorrei dire che l’Usi è un ottimo luogo per gli incontri e le collaborazioni interdisciplinari. Noi due non lavoreremmo assieme se non fosse per l’Usi che ogni anno organizza questo workshop. Non ci sono molte altre università che offrono un’occasione simile. In linea di principio, non avremmo potuto scrivere il libro senza condividere, prima di tutto, una serie di competenze in più ambiti. Entrambi siamo molto ferrati in matematica, Jobst padroneggia il tema dell’IA, entrambi conosciamo bene la filosofia. Io so un sacco di trucchi efficaci per scrivere particolarmente bene in inglese. Siamo stati un buon team perché siamo riusciti a superare le discipline, e credo che i problemi sollevati nel libro possano essere affrontati solo da chi padroneggia la fisica e la matematica, le scienze cognitive, la psicologia e, beninteso, l’IA. La maggior parte delle persone che si occupano e scrivono di IA, in realtà, non se ne intendono molto della psicologia dell’intelligenza umana. Non sanno cosa sia veramente l’intelligenza quando parlano di IA, e per questo finiscono per oscurare ciò che vorrebbero chiarire.

J.L: Purtroppo l’interdisciplinarità non è incoraggiata nel mondo scientifico attuale, dove sempre più regna la specializzazione, e questo crea una serie di vuoti perché ci sono delle questioni che possono essere affrontate solo in maniera interdisciplinare. Credo che bisognerebbe fare degli sforzi per superare le barriere disciplinari e ridurre questi vuoti del sapere: è quello che abbiamo cercato di fare nel nostro libro.


Depositphotos


Linkedin
Barry Smith


Linkedin
Jobst Landgrebe

Leggi anche: