IL COMMENTO

Io robot ... posso favorire la diffusione di notizie false

Siamo molto bravi a delegare all’Intelligenza artificiale sempre più attività cognitive. Sapremo ancora scrivere, pensare, decidere autonomamente?

In sintesi:
  • C’è un certo disagio verso nuovi robot che iniziano ad assomigliare un po’ troppo all’essere umano.
  • Più che vietarli, dovremo saper integrare questi nuovi strumenti, senza farci manipolare e mettendo chiari paletti.
(Depositphotos)
20 febbraio 2023
|

Quanti sanno fare a mente 8 per 9 diviso 4, più 7? Quanti si ricordano a memoria i numeri di telefono di dieci amici? Io sono piuttosto scarsa, lo ammetto, sarà l’età o la pigrizia mentale. Perché fare conti a mente, se c’è la calcolatrice; perché ricordare numeri di telefono se lo fa il cellulare; perché scrivere un testo se c’è ChatGPT? Le macchine sanno fare tante cose meglio e più velocemente dell’essere umano. Sono assistenti efficienti. Stiamo diventando molto bravi a dare ordini, a delegare all’intelligenza artificiale sempre più attività cognitive, ma poi, concretamente, sapremo ancora fare un riassunto, scrivere un testo, elaborare un pensiero, sapremo decidere autonomamente? Lasciamo questi quesiti un attimo in sospeso…
Una cosa è certa. Siamo a una svolta: la rivoluzione si chiama ChatGPT. Una applicazione dell’Intelligenza artificiale (sviluppata da OpenAI) che sa quasi tutto e conversa con gli esseri umani, come fosse una di loro. Simile a un grosso cervello artificiale, online e gratuito, sa ascoltare domande ed elaborare risposte personalizzate. La buona notizia è che non ragiona e fa errori. I big dell’hi-tech, da Google a Microsoft, hanno annunciato i loro progetti per integrare l’IA in prossimi software. L’accelerazione è palpabile, anche l’eccitazione per qualcosa che sta cambiando molto velocemente. Assieme, c’è anche paura, un certo disagio verso nuovi robot che iniziano ad assomigliare un po’ troppo all’essere umano.
Il mondo accademico è stato il primo a reagire vietando l’uso di ChatGPT, che è riuscito a superare esami di università prestigiose, aggirando i rilevatori di plagio. Oggi docenti e ricercatori non sono in grado di stabilire se un esame o una ricerca sono stati fatti da un essere umano o da un’intelligenza artificiale. Come valutare gli studenti? Questi programmi rischiano inoltre di stravolgere le regole alla base della scienza, se dovessero essere lasciati soli a progettare esperimenti o a decidere se un articolo scientifico meriti o no la pubblicazione. Davvero rischioso! Infatti le decisioni politiche (pandemia insegna) spesso si basano sulla ricerca. Confidiamo che questi aspetti verranno risolti da nuovi sistemi antiplagio.
La questione urgente è fissare regole per usare al meglio queste tecnologie. Non tutto quello che scrive la macchina è per forza corretto. La verifica umana è fondamentale. Chi decide deve restare l’essere umano. Può farlo dopo aver ascoltato anche il suo assistente robotico, ma al centro deve restare l’uomo. Anche ChatGPT è consapevole di sollevare problemi etici. Ci dice, di sé stesso: «Posso essere influenzato da pregiudizi e stereotipi presenti nel testo usato per addestrarmi. Posso favorire la manipolazione dell’opinione pubblica, ad esempio diffondendo opinioni false. Posso causare la disoccupazione di chi svolge i miei compiti manualmente… ».
C’è molto su cui ragionare. Il jet è partito e chi lo ferma più! Più che vietarli, dovremo saper integrare questi nuovi strumenti, senza regredire cognitivamente.
È vero, la calcolatrice fa i conti al nostro posto, ma a scuola, grazie alla ‘macchinetta’ gli studenti si cimentano con equazioni più complesse. Grazie a ChatGPT, potranno forse allenarsi a ricercare fonti, errori, a migliorare i testi del robot, mantenendo viva la capacità di narrare, di raccontarsi, imparando a essere ancora più critici. La pigrizia sarà il nemico peggiore di noi stessi.