TECNOLOGIA

Il giornalismo ai tempi dell’intelligenza artificiale

Dalla scrittura di articoli alla ricerca di dati per la personalizzazione dei contenuti, come il ‘robogiornalismo’ cambia il mondo dell’informazione

Colloqui del futuro? (A laRegione ancora tutto nelle mani professionali e analogiche delle redazioni)
(depositphotos)

Grazie a modelli linguistici come ChatGPT, un’intelligenza artificiale può scrivere in pochi secondi un articolo di cronaca. Ma la recente popolarità del sistema sviluppato da OpenAI non deve far pensare che simili scenari appartengano a un futuro più o meno prossimo: l’intelligenza artificiale e l’automatizzazione hanno già trasformato il giornalismo e non solo per quanto riguarda la realizzazione di contenuti.

Giornalismo automatizzato

Per descrivere le applicazioni dell’intelligenza artificiale al giornalismo si parla spesso di “robogiornalismo”. È tuttavia un’espressione problematica sotto molti aspetti: prima di tutto evoca l’immagine di un robot con sembianze umane che, seduto davanti a un computer, scrive magicamente dei testi. È la riflessione di un immaginario che spesso troviamo nelle illustrazioni che corredano gli articoli sull’uso di intelligenza artificiale nel giornalismo. Inoltre, la tecnologia si basa sulla cosiddetta generazione del linguaggio naturale, non ci sono quindi dei robot. In ultimo, la continua narrativa dei robot fa spesso leva sulla paura dei giornalisti di essere licenziati e impedisce alle redazioni di essere più innovative.

Il termine “giornalismo automatizzato” è dunque più adatto per descrivere tutte le tecnologie che generano testi e contenuti senza alcun intervento umano, se non per lo sviluppo e la programmazione iniziali.

Questo tipo di giornalismo automatizzato è già una realtà in diversi contesti e si rivela particolarmente interessante quando si hanno molti dati strutturati e facilmente accessibili. È il caso di certe notizie economiche: l’agenzia di stampa Associated Press utilizza ad esempio il giornalismo automatizzato per le notizie sui bilanci aziendali. Il Los Angeles Times ha realizzato uno strumento per il reporting automatizzato dei terremoti, scrivendo automaticamente un breve testo con i dati condivisi da istituti di ricerca. Lo stesso giornale ha poi fatto un’operazione simile con i dati sugli omicidi.

Anche lo sport è un settore in cui possono esserci molti dati statistici dai quali partire. È il caso del baseball, sport diviso in singole azioni separate tra di loro: il lanciatore lancia la palla, il battitore la colpisce eccetera. La prima importante applicazione dell’azienda statunitense leader nel mercato dell’intelligenza artificiale nei media – StatsMonkey, letteralmente “scimmia delle statistiche”, poi diventata “Narrative Science” – riguardava proprio il baseball.

Un’altra applicazione un po’ più complessa, e che non è stata utilizzata solo in ambito sportivo, riguarda il software Heliograf utilizzato dal Washington Post di Jeff Bezos. Durante i giochi olimpici di Rio de Janeiro del 2016 il sistema riusciva a scrivere articoli in modo autonomo e anche a decidere autonomamente dove pubblicarli, se sul sito web oppure solo sui social media. In passato, Heliograf è però anche stato utilizzato per informare la redazione in tempo reale quando i risultati elettorali iniziavano a prendere una direzione inaspettata. Votazioni ed elezioni sono quindi un altro campo di applicazione per il giornalismo automatizzato. Si tratta di sistemi già sperimentati da Le Monde, dalla Bbc, dallo stesso Washington Post e anche in Svizzera dal gruppo Tamedia e dall’agenzia di stampa ATS. Queste soluzioni permettono agli utenti di personalizzare la cronaca elettorale grazie ad articoli con i risultati in ogni comune, cosa difficile da fare per una redazione che dovrebbe scrivere centinaia di articoli diversi.

L’intelligenza artificiale in redazione

Queste le principali soluzioni di giornalismo automatizzato. Ma l’intelligenza artificiale ha già pervaso ogni processo giornalistico, non solo la produzione di articoli. Pensiamo alla ricerca di informazioni: ci sono sistemi che possono aiutare i giornalisti a trovare informazioni rilevanti in database pubblici, altri sistemi invece permettono di identificare informazioni specifiche in una grande mole di dati come avviene nel caso dei “leak”. Spesso sono sistemi di intelligenza artificiale ad analizzare le grandi quantità di documenti riservati. Vi sono poi sistemi che assistono i giornalisti nella scrittura dell’articolo, tramite spunti creativi o suggerendo possibili approcci e fornendo informazioni. Altri sistemi come i traduttori automatici, ad esempio Deepl, li avete già utilizzati anche voi. Un altro ambito in cui l’intelligenza artificiale è molto usata riguarda poi la disseminazione dei contenuti, con algoritmi che personalizzano l’offerta in base alle preferenze e al comportamento degli utenti.

Possiamo riassumere queste applicazioni in tre gruppi. Il primo riguarda l’aumento della capacità di produzione di articoli e contenuti. In questo ambito i sistemi sono in grado di analizzare grandi quantità di documenti, di individuare autonomamente le notizie dell’ultima ora sui social media o prendere dei dati da fonti pubbliche – come è spesso accaduto con i dati sulla pandemia.

Il secondo gruppo di applicazioni riguarda l’efficienza dei procedimenti: pensiamo a processi di trascrizione o di traduzione automatizzate, o alla catalogazione automatica di immagini e di video, utile soprattutto per i servizi pubblici.

L’ultimo gruppo riguarda un aspetto più commerciale: l’ottimizzazione delle entrate. Una testata può prevedere dei paywall dove un algoritmo riconosce se un utente ha già visualizzato un certo numero di articoli e quindi offre un abbonamento su misura. Abbiamo poi tutti i sistemi di raccomandazione e di personalizzazione dei contenuti. Parliamo di strumenti che contribuiscono a ottimizzare le entrate e che possono essere molto utili in questo periodo per le aziende mediatiche che spesso si trovano sotto pressioni economiche.

Tra rischi e opportunità

Queste soluzioni tecnologiche possono sgravare il lavoro delle redazioni da compiti di routine e garantire maggiori entrate alle aziende, ma presentano anche dei rischi concreti per la funzione democratica dei media che non vanno sottovalutati. L’intelligenza artificiale e gli algoritmi sono dunque un rischio o un’opportunità per il giornalismo e il suo ruolo nella democrazia?

Ogni sistema presenta le sue difficoltà. Molto spesso, le tecnologie di personalizzazione o di raccomandazione vengono sviluppate con obiettivi puramente commerciali. La capacità di offrire agli utenti in modo più efficace ciò che preferiscono solleva non poche preoccupazioni riguardo all’impatto dei sistemi di raccomandazione sulla democrazia. Cosa succede alla sfera pubblica se ogni utente riceve solo le notizie che predilige, restringendo così l’esposizione dei cittadini a diversi punti di vista? Cosa significa per la politica se diventa più difficile incontrare idee e opinioni diverse? Certo, i timori di una frammentazione e polarizzazione del panorama mediatico sono tutt’altro che nuovi. Ma quello che distingue lo scenario attuale dalle preoccupazioni più generali sulla frammentazione è la relativa mancanza di scelta da parte dell’utente, in particolare nei casi di raccomandazioni preselezionate. Questo problema si presenta in misura meno esplicita nei media tradizionali che propongono un’offerta editoriale che, spesso, offre idee e opinioni diverse.

Naturalmente, questi sistemi di personalizzazione possono essere gestiti, come avviene ad esempio con gli algoritmi di alcune piattaforme di streaming, in modo da inserire contenuti al di fuori delle preferenze individuali, così da far scoprire cose nuove. Tant’è che molti utenti considerano i sistemi di raccomandazione un buon modo per orientarsi nella crescente abbondanza di informazioni. Quindi, questo tipo di sistema permette ai media di rispondere meglio alle esigenze concrete di informazione degli utenti.

Ci sono però altri due ambiti sui quali occorre fare particolare attenzione. Il primo riguarda la programmazione degli strumenti come quelli che producono testi in maniera automatica. Questi sistemi sono programmati da esseri umani con le loro preferenze, le loro logiche e possono quindi esserci dei pregiudizi. Inoltre, nel caso del machine learning, questi sistemi vengono addestrati tramite enormi quantità di dati. La qualità del programma dipende dalla qualità dei dati di partenza. Se i dati sono errati o se contengono dei pregiudizi sociali, questi problemi si ritroveranno incorporati nell’algoritmo. Disporre dei dati corretti è quindi fondamentale.

Un problema simile lo vediamo anche con ChatGPT e le cosiddette allucinazioni. Questo sistema è in grado di scrivere articoli meravigliosi, ma ogni tanto le informazioni che genera contengono dati inventati o elementi privi di senso. Questo ci fa capire che nel giornalismo automatizzato è tuttora necessaria una supervisione umana per evitare che articoli prodotti con l’intelligenza artificiale contengano degli errori ma che possono sfuggire a una revisione superficiale con conseguenze reputazionali serie per la testata.

Questione di trasparenza

Quando parliamo dell’uso di algoritmi nel giornalismo, la trasparenza diventa un fattore centrale. Ci sono tre aspetti di cui tener conto.

Il primo riguarda la possibilità di sapere se un articolo è stato generato da un programma. Purtroppo questo non capita sempre, forse per paura di incrinare la propria autorevolezza giornalistica. Una delle prime testate a rendere trasparente questa informazione è stata l’edizione australiana del Guardian che è stata anche tra le prime a pubblicare un articolo interamente scritto da un modello linguistico.

Il secondo aspetto concerne la trasparenza sugli algoritmi che personalizzano i contenuti. I lettori e le lettrici devono poter sapere perché un determinato contenuto viene loro consigliato e sulla base di quali dati raccolti. Ci vorrebbero quindi delle linee guida chiare per la gestione dei dati degli utenti, ma anche delle regole sul modo in cui le informazioni vengono offerte. Il problema è come farlo: non è certo possibile condividere il codice del programma, sia perché difficilmente verrebbe compreso, sia perché potrebbe essere stato sviluppato da aziende private con un interesse commerciale. La Bbc ad esempio ha formulato delle regole sia per il design di questi sistemi, su come devono essere utilizzati i dati, ma informa anche gli utenti con parole semplici sul funzionamento di algoritmi di questo tipo.

Anche queste sono sfide nuove che non c’erano fino a poco tempo fa. Rimane il fatto che tecnologie come l’intelligenza artificiale e gli algoritmi, se vengono utilizzati nelle redazioni, possono offrire sia grandi opportunità ma anche un determinato rischio per la funzione democratica dei media.

Una rubrica a cura di