Immaginare che l’intelligenza artificiale abbia capacità pari o superiori a quelle umane è uno scenario che spaventa ma (forse) non dovrebbe
Quanto manca al momento in cui un’intelligenza artificiale (IA) eguaglierà o sorpasserà quella umana? Forse siamo molto, molto lontani, o forse più vicini di quanto crediamo: secondo Dario Amodei, ricercatore e Ceo di Anthropic, azienda che sviluppa modelli di IA, già nel 2026 le macchine raggiungeranno un livello paragonabile a quello umano. Nel 2009 Shane Legg, cofondatore di Google DeepMind e alumno Usi, indicò il 2028 come possibile data per il raggiungimento di tale traguardo. Per Ray Kurzweil, uno dei più influenti pensatori nel campo, mancherebbe appena un lustro; 8 anni invece secondo Ben Goertzel, il ricercatore che a inizio secolo ha reso popolare la sigla Agi (Artificial General Intelligence), oggi usata come sinonimo di IA superumana, ossia in grado di fare tutto quello che può fare un essere umano ma a un livello superiore. Si tratta di un requisito indispensabile verso quello stadio evolutivo dell’IA che gli scienziati chiamano “singolarità”, e che nei film e nei libri di fantascienza viene definita come “autocoscienza delle macchine”. Il momento, secondo Kurzweil, in cui fonderemo la nostra mente con il cloud.
Quando avverrà? Verso il 2050 secondo lui, mentre Goertzel non ha fissato date precise, anche se l’orizzonte temporale che lascia intendere è simile. Amodei, per contro, non si sbilancia, ma parla genericamente di una super (“powerful”) IA appunto nel 2026 (“anche se c’è l’eventualità che potrebbe richiedere molto più tempo”, precisa) e dei suoi possibili sviluppi nei successivi 5-10 anni.
Sia chiaro: il fatto che un giorno (vicino o lontano che sia) si possa arrivare alla singolarità non è accettato unanimemente da tutti nel settore. Tanto per cominciare richiederà un salto tecnologico molto importante, e, poiché le conoscenze necessarie per fare ciò non esistono ancora, parte degli esperti è convinta che siamo molto lontani dall’Agi e ancor più dalla singolarità, alcuni di loro sostengono che addirittura non ci arriveremo mai.
Ciononostante, la ricerca prosegue, quindi – in teoria – si avvicina costantemente allo sviluppo dell’Agi e della singolarità: sistemi come Gpt-4 o Claude Sonnet 3.5 hanno mostrato abilità linguistiche notevoli, le auto a guida autonoma si perfezionano sempre di più, sistemi come AlphaZero non solo battono sistematicamente tutti i campioni umani in giochi complessi come gli scacchi e il Go, ma imparano da soli come farlo partendo unicamente dalle regole di base del gioco.
È un bene o un male? I pareri sono anche qui divisi, oltre che fluttuanti. Come quello di un altro guru delle nuove tecnologie, Bill Gates, preoccupato nel 2015 ma oggi passato dalla parte degli ottimisti.
Cosa ci riserverà il futuro non lo sa ovviamente nessuno; l’unica cosa su cui tutti concordano è che l’intelligenza artificiale, indipendentemente dal fatto che forse un giorno diventerà Agi o singolarità, sta portando e porterà cambiamenti radicali alla nostra società.
Al di là dell’imperante filone catastrofista dell’odierna fantascienza (dal computer Hal 9000 del film “2001: Odissea nello spazio”, alle macchine senzienti di “Terminator” o “Matrix” gli esempi si sprecano), la comunità scientifica oscilla tra gli ottimisti che parlano di una futura età dell’oro, una società dal lavoro umano quasi assente, con un reddito di base universale e una vita sempre più lunga, e i pessimisti che mettono in guardia da possibili sconvolgimenti sociali, con disparità sempre più ampie tra chi avrà accesso alle tecnologie avanzate e chi no.
Tutti pertanto concordano sulla necessità di sviluppare l’IA in modo etico e controllato, così da massimizzare i probabili benefici e minimizzare i possibili rischi. Una delle sfide più complesse (la diversità culturale, sociale ed etica dell’umanità rende molto complicato definire un insieme universale di valori e obiettivi) e cruciali (l’IA può sviluppare modelli di comportamento imprevedibili anche per programmatori e addestratori) che scienziati e ricercatori affrontano oggi.
Forse però è un falso problema: come infatti affermato recentemente da Paolo Benanti, studioso di etica, bioetica ed etica delle tecnologie, quello che dobbiamo davvero temere “non sono le intelligenze artificiali, ma la stupidità naturale” dell’uomo, che nella storia ha dato infinite prove di sé e che probabilmente non smetterà mai di stupirci. In questo senso, forse, se un giorno vicino o lontano una macchina mai ci eguaglierà o supererà, potrebbe anche non essere un male.
Probabilmente pochi lo sanno, ma quando si parla dell’intelligenza artificiale (IA) bisogna ricordare che uno dei primi centri di ricerca del settore in Svizzera e in Europa nacque a Lugano nel 1988. Fu per volontà del signor Angelo Dalle Molle, che trovò in Canton Ticino un ambiente fertile per i suoi progetti e fondò l’istituto che porta il suo nome: Istituto Dalle Molle di studi sull’intelligenza artificiale (Idsia Usi-Supsi). E Luca Gambardella, oggi prorettore per l’innovazione e le relazioni aziendali dell’Usi, professore ordinario di intelligenza artificiale presso la Facoltà di scienze informatiche e direttore dell’omonimo Master, fu uno dei primi assunti dell’Idsia, che diresse dal 1995 al 2020 e al quale tuttora afferisce.
Trentasei anni fa, tuttavia, “si progettava un’intelligenza artificiale ‘giocattolo’, non si affrontavano certo i problemi di oggi”. Già allora, comunque, vi era una “parte visionaria”, proprio perché Dalle Molle “era interessato alla qualità della vita degli esseri umani in relazione all’evoluzione tecnologica”. E su questo Gambardella non ha dubbi: “Oggi l’IA è uno strumento che ci aiuta a vivere meglio, anche se per ora non lavoriamo meno, anzi. Siamo comunque la generazione che sta vivendo un cambio tecnologico epocale”.
In effetti viviamo ormai “in un mondo ibrido”, in cui “la vera sfida è dotarci degli strumenti per affrontarlo, possedere la capacità di interrogare le IA e interagire con loro, guardarle molto dallemollianamente come strumento a supporto dell’essere umano”, non certo come una minaccia. Non per nulla “sull’IA lo scorso anno nel mondo è stata investita una cifra più o meno pari al Pil degli Stati Uniti”. Una cifra enorme, che non avrebbe senso se non ci fosse un’utilità, presente e futura, in numerosissimi campi. A dimostrazione di ciò due recenti premi Nobel, quello per la chimica e quello per la fisica, sono stati assegnati a studiosi dell’IA. “Quindi arrivano riconoscimenti a livello scientifico, non solo dal business. Questa tecnologia sta rivoluzionando molti settori; noi siamo in mezzo al guado, e forse non capiamo neanche bene dove siamo finiti”. E dove stiamo andando.
E qui, sugli sviluppi verso una IA proto-umana se non addirittura verso la singolarità, Gambardella frena. “L’idea di capire se una macchina abbia un’intelligenza umana – ci spiega – risale addirittura alle origini dell’intelligenza artificiale, agli anni 50 e ad Alan Turing”. Fu lui che inventò un test, che porta il suo nome, proprio “per capire se una macchina sia intelligente oppure no”. I risultati sono inequivocabili: “Fino a oggi nessun congegno lo ha superato”.
Da qui i dubbi di Gambardella. “Noi informatici, gente un po’ terra terra, se ci spiegano come funziona una cosa riusciamo a scrivere un programma per computer che replichi quei meccanismi; ma se andassi da un neuroscienziato e gli chiedessi di spiegarmi come funziona esattamente la mente umana, lui non sarebbe in grado di rispondermi. Per non parlare della coscienza, un mistero sia in termini computazionali sia filosofici”. In sintesi: fino al supercalcolo e al nozionismo ci siamo arrivati, ma passare al livello successivo certo immediato non è.
Al momento dobbiamo dunque accontentarci del fatto che abbiamo una IA “che funziona molto bene, anche se è un pappagallo (Noam Chomsky docet, ndr): è una macchina probabilistica, ciò significa che a furia di leggere libri dà la risposta più probabilmente corretta”. Il che implica che “secondo i nostri criteri di valutazione le macchine oggi non sono intelligenti; hanno capacità molto avanzate”, ma dei limiti altrettanto elevati: “Se mi guarda negli occhi non capisce che cosa sto pensando, anche se i suoi occhi vedono molto meglio dei miei; se mi parla del mare non sa cosa sia il mare, anche se le sue risposte saranno tutte molto sensate e corrette”.
Conseguenza logica, se sul possibile avvento della singolarità ha dei dubbi, figuriamoci su una possibile data. “Chi lo fa parla senza presentare una strada scientificamente solida. Una macchina che capisce, valuta, ha coscienza di sé, di quello che dice e ne capisce il contesto è qualcosa che oggi non vedo”. Il che non significa che non potrà mai accadere. “Una finestra la lascio aperta, però oggi non vedo un percorso”, anche se l’IA negli ultimi anni ha fatto un balzo in avanti notevole.
Eppure, esistono macchine che imparano da sole, dai propri errori o dai propri simili (un po’ come gli esseri umani): sono le ultime generazioni di software per i giochi complessi, come AlphaGo e AlphaZero, diventate imbattibili partendo solo dalla conoscenza delle regole base del gioco. Come è stato possibile? Le hanno fatte giocare contro sé stesse. “È un po’ psicopatica la cosa, però l’avversario dentro un computer può essere il programma stesso”. La macchina così impara sia a vincere sia a perdere e a ogni partita diventa più brava. Ed elabora pure mosse e strategie non convenzionali.
“È qui che la singolarità potrebbe diventare non un’assurdità: non in una macchina che legge tanto, ma in una macchina che evolve in un modo quasi umano”. Le conseguenze finora accertate sono perlomeno inquietanti. “Qualche tempo fa per scambiarsi informazioni più velocemente due macchine hanno generato un linguaggio che capivano solo loro. Una nuova, sconosciuta forma linguistica digitale. Posso spostarla su un’altra macchina? Non lo so. Però questo punto di discontinuità, dunque l’idea che potrebbe esserci un tipo di coscienza nuova, che la nostra possa essere solo una delle tante possibili coscienze, mi affascina. Qui si aprono davvero infinite possibilità”.
Positive o negative? Data di Star Trek o Terminator? Gambardella è positivo, non lo spaventa il fatto che le macchine abbiano e acquistino coscienza, perché “tutti noi siamo abituati a lavorare con persone che hanno coscienza, che sanno leggerti negli occhi”, per cui “un mondo dove gli esseri umani e le macchine interagiscono con le stesse regole e le stesse logiche dovrebbe essere gestibile”. Forse migliore.
Una rubrica a cura di