L’ingegneria informatica davanti alla sfida tecnologica ed etica della sua pervasività
L’informatica è ovunque, ha giustamente ricordato il nostro Decano qualche settimana fa da queste colonne. Questo significa che in quasi ogni aspetto della nostra quotidianità è presente quello che possiamo considerare il "cuore" o meglio ancora il "cervello" delle tecnologie di elaborazione automatica dell’informazione (l’infor-matica, appunto): il software, ovvero la componente immateriale che "fa i calcoli", che ci "mette" la logica. Oggi abbiamo un "computer" non solo nel computer – perdonate il gioco di parole – con cui lavoriamo (e facciamo mille altre operazioni), e negli smartphone con cui comunichiamo (e facciamo mille altre operazioni). C’è software quando paghiamo la spesa con una carta di credito e, prima ancora, c’è software nella cassa che legge i codici dei prodotti e ci mostra l’importo. C’è software quando il tergicristallo della nostra auto si attiva allorché inizia a piovere, c’è software nella centralina elettronica che permette all’auto medesima di accendersi e marciare e c’è software nel sistema frenante dei treni con cui andiamo al lavoro.
Alcune settimane fa abbiamo letto che British Airways ha dovuto cancellare diversi voli per una panne al suo sistema informatico e qualche anno fa siamo stati testimoni diretti di quanto lo spegnimento forzato dei nostri computer per il blackout che ha interessato per quasi un’ora buona parte del Ticino abbia reso alquanto difficile se non impossibile lavorare. L’informatica ha contribuito a semplificare e migliorare in modo cruciale la nostra vita, ha aperto e continua ad aprire possibilità incredibili, nelle cose più piccole come in quelle più grandi. Pensiamo solo a come abbia permesso a un genio quale Stephen Hawking di continuare a comunicare e produrre conoscenza. Il rovescio della medaglia è, inevitabilmente, la nostra dipendenza dalla tecnologia, che l’odierna ubiquità della tecnologia informatica ha portato a una scala senza precedenti.
La dimensione pervasiva (il fatto di essere dappertutto) e infrastrutturale (il fatto di determinare la nostra possibilità o meno di agire) del software pone almeno due sfide principali. La prima è intrinsecamente tecnologica e consiste nel progettare, sviluppare e validare oggetti che siano funzionali, efficienti, efficaci, sicuri e affidabili. È la sfida propria dell’ingegneria, in ogni suo ramo: creare un software comporta infatti le stesse questioni valide per un aspirapolvere o un ponte.
Nel caso del software è in particolare la complessità a metterci alla prova: i sistemi software attuali possono essere enormi, con una logica estremamente convoluta, con componenti, sottocomponenti e sotto-sottocomponenti, con una serie impressionante di funzionalità che devono rispondere al meglio al contesto applicativo. Faccio solo un esempio: i sistemi che nelle auto ci permettono di accendere la radio, usare un telefonino connesso o interagire con il navigatore tramite comandi vocali. Questi sistemi devono avere intelligenza artificiale, per capire che cosa la persona stia dicendo (e processare il linguaggio umano è particolarmente complesso per un computer), devono essere efficienti a livello elettronico ed energetico, devono essere sicuri e devono essere realizzati con risorse limitate in uno spazio limitato.
La creazione di alcuni sistemi informatici si misura ormai addirittura in centinaia di anni, sommando il tempo di lavoro di ogni persona coinvolta nel suo sviluppo. E per metterli a punto servono bravi ingegneri perché, per quanto possa suonare singolare, lo sviluppo del software è ancora un’attività molto "manuale", nel senso di intellettuale, imperniata sul cervello dei progettisti. Un’attività "human intensive".
Questo mi conduce alla seconda sfida fondamentale che la dimensione pervasiva e infrastrutturale dell’informatica, e la dipendenza che ne consegue, comporta: quella che chiama in causa il tipo di società che vogliamo per gli esseri umani, gli obiettivi che vogliamo perseguire con la tecnologia. L’automazione che l’informatica consente deve essere uno strumento, non il fine. Non possiamo automatizzare semplicemente per lo "sfizio" di automatizzare. La scelta di che cosa e quanto è opportuno automatizzare dove – e lo dico da "appassionato" di automazione – deve essere una scelta collettiva, basata su valutazioni non solo economiche ma anche e soprattutto sociali e morali. Una scelta che, dunque, non può essere scaricata solo sulle spalle dei tecnici: dobbiamo essere tutti insieme a definire la direzione.
Dobbiamo in primis chiederci perché stiamo automatizzando. Prendiamo ad esempio l’aviazione, un settore già ampiamente automatizzato, come ci ricorda la stessa espressione "pilota automatico". Potremmo allora puntare, perché no, ad avere aerei passeggeri senza piloti umani. Questo sarebbe però un passo che merita prudenza e riflessione. Cosa vogliamo fare? Eliminare una categoria professionale per risparmiare? Discorso diverso se a motivarci sono ragioni di sicurezza, ma allora dobbiamo dimostrare che la capacità di elaborazione della macchina garantisce maggiore sicurezza rispetto alla capacità di valutazione dell’essere umano. E se la tecnologia non è ancora matura, aspettiamo, nessuno ci "corre dietro".
Chiariamoci: nessuno discute che in determinati campi debba esserci un livello, anche importante, di automazione. Ma piuttosto che inseguire l’automazione totale a ogni costo possiamo lavorare ancora di più e meglio sull’integrazione tra macchina ed essere umano, soprattutto in quei campi dove il progresso tecnologico e segnatamente informatico può davvero schiudere nuovi orizzonti.
Questi campi di certo non mancano. Penso soprattutto alla chimica, alla biomedicina, alla scienza dei materiali, all’energia, ai trasporti, alla gestione delle risorse all’interno di una città, tutti settori dove l’applicazione dell’informatica – già in essere – potrà giocare un ruolo sempre più determinante.
Guardo invece con un certo scetticismo e, non lo nascondo, una certa preoccupazione all’uso dell’informatica nell’automazione dei processi decisionali. L’intelligenza artificiale che permette di automatizzare le decisioni poggia sostanzialmente su due elementi: modelli statistici avanzati e gigantesche basi di dati. Abbiamo il vantaggio di avere la capacità computazionale per elaborare questi modelli e abbiamo un ammontare di dati tale da renderli molto ricchi, e questo può dare l’illusione che certe decisioni possano ormai essere prese appunto in modo automatico. E in effetti tecnicamente "possono", per quanto anche a livello scientifico sussistano ancora diverse "debolezze" in questi modelli. La domanda centrale, in ogni caso, è sempre la stessa, ovvero se debbano, se sia sensato e opportuno delegare completamente a un computer il mestiere dell’investitore, del politico, del giornalista e di tutti gli altri ruoli che richiedono particolare spirito critico ed esperienza del mondo. Ancora una volta dobbiamo interrogarci sull’obiettivo di questo processo: stiamo semplicemente cercando di risparmiare dove non ha senso risparmiare?
Negli ultimi tempi in molti hanno ad esempio evocato la necessità che le grandi aziende high tech intervengano a definire se l’esternazione del presidente di turno debba o meno essere rimossa da un social media, se un post possa o meno avere il bollino di veridicità, e in diverse sono già andate in questa direzione. Non entro nel merito del che cosa e del perché, questioni che afferiscono il diritto, la responsabilità editoriale… Mi interessano piuttosto il chi e il come. Affidare ad aziende private che perseguono utili milionari il compito di stabilire cosa sia "vero" e cosa no, cosa possa essere detto e cosa no, e basare queste decisioni solo su un algoritmo, è qualcosa che mi interroga. Ancora una volta, non è questione di "luddismo", di negare il prezioso apporto e supporto che tecnologie come l’intelligenza artificiale possono dare nel cercare di individuare una fake news o della pericolosa propaganda, o nell’analizzare una situazione al fine di una decisione basata sui dati. Se vogliamo formare giornalisti esperti di analisi statistica, se vogliamo politici che sappiano leggere e sfruttare i dati, se vogliamo moderatori e revisori in grado di muoversi tra moli di informazione sempre più grandi e complesse, e se vogliamo affiancare loro un "collega computerizzato" che fa scattare "campanelli" e li aiuta a orientarsi e a intravedere schemi e somiglianze, è un conto. Se invece vogliamo mettere tutto in mano a una macchina è prematuro, e nemmeno opportuno.
Si tratta, ribadisco, di quali obiettivi, valori e visione del mondo definiscono il perché, il dove, il come e il quanto usiamo una tecnologia, che di per sé è essenzialmente neutrale e, anche per questo, ha degli sviluppi e degli ambiti di potenziale applicazione che non sono mai completamente pronosticabili. Quello che possiamo fare è innanzitutto agire con responsabilità: valutare di continuo le scelte fatte in passato e le scelte che vengono fatte per l’evoluzione di un sistema complesso quale una società immersa in una serie di tecnologie che cambiano di continuo. Se nel momento in cui prendiamo delle decisioni facciamo tutto il possibile per prevedere le loro possibili conseguenze possiamo ritenere di aver proceduto in modo etico. Ed ecco l’altra parola chiave: etica. L’etica e la politica – nel senso più vasto e alto del termine: i cittadini che decidono insieme che forma dare alla convivenza sociale – devono avere primalità sulla tecnologia. Qualsiasi decisione tecnica deve essere subordinata e servile rispetto alla dimensione etica e politica. Nel mentre accompagniamo il mondo verso nuovi ed eccitanti traguardi tecnologici e informatici non dobbiamo dimenticare che l’essere umani viene prima dell’essere ingegneri.
Con la collaborazione di Michele Marchioni. Una rubrica a cura di