Incontro con il Grand Prix Möbius 2023 Roberto Viola, direttore generale per le politiche digitali europee, per discutere del recente regolamento sulle IA
Quando si parla di diritto e tecnologia, si può tranquillamente dare per certo il ritardo del diritto sulla tecnologia, con norme e regole concepite una o due “rivoluzioni tecnologiche” fa. I motivi sono molteplici, dai tempi lunghi della politica al fatto che, giustamente, si interviene a livello giuridico solo quando c’è necessità.
Il regolamento europeo sull’intelligenza artificiale appena “approvato” (poi si spiegherà perché quelle virgolette) sembra smentire tutto questo: per una volta il diritto è, se non in anticipo, quantomeno puntuale. Il regolamento è in discussione già da qualche anno; non è quindi un testo concepito in fretta e furia sull’onda del successo delle intelligenze artificiali (IA) generative come chatGPT. È inoltre un testo studiato per non invecchiare prematuramente, cercando un compromesso tra l’elasticità necessaria ad adattarsi a nuovi sviluppi tecnologici e dei principi sufficientemente chiari da non lasciare industrie e utenti nell’incertezza; se ci riuscirà dipenderà, tra le altre cose, da come verranno gestiti i vari organismi previsti dal regolamento, tra cui un comitato scientifico indipendente e una commissione consultiva che dovrebbe rappresentare in maniera bilanciata i vari interessi, da quelli dei grandi operatori alla società civile.
Quello raggiunto il 9 dicembre, dopo tre giorni di negoziati intensi, è un accordo sui contenuti generali; adesso si stanno mettendo a punto dei dettagli del regolamento che dovrà infine essere approvato definitivamente (per questo le virgolette). Una volta approvato entrerà subito in vigore, con tempi di adeguamento relativamente brevi (appena 6 mesi per proibire i sistemi il cui rischio è considerato inaccettabile, come la manipolazione comportamentale o il ‘social scoring’ che valuta il comportamento dei cittadini).
Roberto Viola
Quando lo scorso ottobre la Fondazione Möbius Lugano ha annunciato che il suo Grand Prix per l’intelligenza artificiale al servizio della società sarebbe andato a Roberto Viola, direttore generale per le politiche digitali della Commissione europea (DG Connect), ancora non si sapeva che presto si sarebbe raggiunto un accordo sul Regolamento sull’intelligenza artificiale. La cerimonia di consegna del premio, che si è svolta lunedì al Campus Est Usi-Supsi, poteva quindi diventare la semplice celebrazione di un importante risultato ottenuto; è stata invece una interessante occasione per riflettere sulle ambizioni e i limiti di quella che, una volta approvata senza virgolette, sarà verosimilmente la prima legge organica sulle intelligenze artificiali al mondo. Con le potenzialità, ha sottolineato Viola durante l’incontro, di diventare un punto di riferimento globale come accaduto con la tutela della privacy.
Viola ha strutturato il suo intervento rispondendo a otto domande poste da Alessio Petralli, direttore della Fondazione Möbius, che ha iniziato con gli obiettivi del regolamento. La versione altisonante che troviamo nel comunicato stampa del Consiglio dell’Ue recita “assicurare che i sistemi di IA immessi sul mercato europeo e utilizzati nell’Ue siano sicuri e rispettino i diritti fondamentali e i valori dell’Ue”; Viola ha più efficacemente riassunto parlando di accettazione dell’intelligenza artificiale: vuoi per la naturale diffidenza verso una nuova tecnologia, vuoi per i rischi che alcuni sistemi presentano, è comprensibile diffidare dell’intelligenza artificiale e le regole approvate dovrebbero costruire questa fiducia. Poi naturalmente non si tratta di normare tutti i tipi di intelligenza artificiale: un algoritmo che, implementato nei nostri smartphone, ci permette di fare foto più belle non desta particolari problemi; un algoritmo che partendo da quelle foto ricava informazioni sensibili quali l’orientamento sessuale o le convinzioni religiose o anche solo stabilisce se concedere o rifiutare un prestito (stabilendo anche il tasso d’interesse) solleva invece grossi problemi.
Le procedure un po’ bizantine dell’Ue, che Viola ha brevemente riassunto e che sono culminate con i tre giorni ininterrotti di negoziato, garantiscono peraltro una certa rappresentatività di tutte le parti coinvolte, incluse le grandi aziende che hanno potuto far sentire la loro voce: il processo forse non risponde all’idea di democrazia come decisione della cittadinanza, ma certamente è in grado, attraverso il dialogo e il compromesso, di trovare accordi su temi complessi e delicati come appunto l’intelligenza artificiale.
Per spiegare la necessità di una (buona) regolamentazione delle innovazioni, Roberto Viola ha fatto due esempi di tecnologie lontane tra di loro. Il primo è la ferrovia: quando per la prima volta i treni hanno permesso di raggiungere velocità elevate (superiori alla ventina di chilometri orari) si sono diffusi timori sui possibili danni per la salute. È la naturale diffidenza verso le novità alla quale si è già accennato e che effettivamente delle regole stabilite da un organismo autorevole (che l’Unione europea lo sia, in questo momento storico, è poi tutto da dimostrare) possono aiutare a superare.
Più interessante il secondo esempio: il web. Internet doveva essere la biblioteca universale, il sapere liberamente accessibile a tutti; poi «sono arrivati degli intelligenti ragazzi della California che hanno pensato di farci soldi» e l’obiettivo è diventato semplicemente massimizzare il profitto. Con il risultato che gli algoritmi che regolano la nostra esperienza online, in particolare sui social media, non favoriscono l’informazione di qualità ma le fake news. Certo il discorso della disinformazione, così come quello della regolamentazione del web – che l’Ue non è riuscita a fare – è più complicato, ma il succo è che la spinta del profitto deve essere controbilanciata dalla spinta dell’interesse pubblico, un equilibrio tra poteri al momento assente nel settore dell’intelligenza artificiale. Sperando che le regole non ostacolino l’innovazione ma al contrario la stimolino, ma è presto per capire se sarà davvero così e se l’Europa riuscirà a recuperare un po’ di competitività.
La capacità di farsi valere nei confronti di grandi aziende è possibile anche grazie al peso dell’economia europea: quando è un singolo Paese europeo a introdurre regole non gradite a una multinazionale, quest’ultima può anche decidere di abbandonare (o di minacciare di abbandonare) quel mercato; ma quando il mercato in questione è uno dei principali al mondo, il discorso cambia e, dopo aver fatto tutte le attività possibili di lobbying, ci si adegua.
Lunedì scorso a Lugano
Un punto importante del regolamento riguarda la trasparenza. Non si tratta solo di informare gli utenti su come vengono utilizzate le intelligenze artificiali, ma anche come vengono create. Questo è particolarmente delicato per quanto riguarda le IA generative che inizialmente vengono addestrate partendo da grandi quantità di dati (testi, immagini, suoni…) e poi messe a punto con procedure anche molto lunghe (le capacità di ChatGPT sono in parte dovute proprio a questa fase di affinamento). Si tratta di aspetti spesso coperti da segreto industriale, una strategia commerciale legittima che tuttavia rischia di ostacolare la ricerca e, in ultima istanza, di danneggiare i cittadini. La soluzione trovata non prevede la completa trasparenza: per usare un’analogia alimentare, non si richiede di divulgare la ricetta completa, ma di mettere nero su bianco la lista di ingredienti per controllare se ci sono prodotti pericolosi ai quali magari una persona è allergica.
Questa trasparenza, ha sottolineato Roberto Viola, è anche utile per quella che ha definito “l’economia dei prompt”. Come accaduto con gli smartphone, che hanno aperto un importante mercato per gli sviluppatori di app, le intelligenze artificiali generative potrebbero creare opportunità economiche importanti per chi “crea prompt”, le richieste che guidano le IA nella generazione di contenuti. Sapere come queste IA sono state addestrate può favorire lo sviluppo di questo mercato – rispondendo indirettamente alle perplessità di chi (non del tutto a torto) vede, in questo come in altri regolamenti europei, una minaccia alla competitività.
Le parole di Roberto Viola hanno aiutato a illuminare un po’ questo regolamento e le sue tante anime. Lo si vede bene nel caso della trasparenza, invocata certo per tutelare i cittadini ma al contempo a garantire anche i titolari di diritti d’autore che le proprie opere non vengano utilizzate senza autorizzazione per addestrare una IA generativa. In quel regolamento trovano spazio i diritti, i valori e i timori che una tecnologia non regolata possa danneggiare le persone, ma al contempo anche preoccupazioni economiche e di ordine pubblico, con una generica esenzione per i sistemi impiegati esclusivamente per la sicurezza nazionale e numerose eccezioni per reati particolarmente gravi che non rassicurano, tenendo presente che anche all’interno dell’Unione europea si trovano dei Paesi che sono, per usare un eufemismo, delle “democrazie imperfette”.