Società

Intelligenza artificiale e... frottole in 15 lingue

Dal cinese all'arabo, dal turco all'italiano: censiti oltre 700 siti che operano con poca o nessuna supervisione umana, fornendo notizie inaffidabili

In sintesi:
  • Molto spesso questi siti hanno nomi generici che a un utente possono sembrare contenitori di notizie affermati
  • In molti casi il modello di entrate di questi portali è la pubblicità programmata, in base alla quale vengono forniti annunci indipendentemente dalla natura o dalla qualità del portale stesso
Fidarsi è bene...
(Keystone)
2 marzo 2024
|

Ci sono oltre 700 siti di notizie e informazioni generati dall'intelligenza artificiale che operano con poca o nessuna supervisione umana. Sono in 15 lingue, compreso l'italiano, e sfornano dozzine di articoli generici, dalla politica all'intrattenimento, includendo bufale o false affermazioni. Newsguard, l'organizzazione che valuta l'affidabilità dei siti di notizie di tutto il mondo, torna a lanciare l'allarme sul proliferare di ‘newsbot’.

A oggi il team dell'organizzazione ha identificato 713 siti di notizie inaffidabili generati dall'Intelligenza artificiale etichettati come ‘Uains’ (Unreliable artificial intelligence-generated news and information websites) e generati in 15 lingue: arabo, cinese, ceco, olandese, inglese, francese, tedesco, indonesiano, italiano, coreano, portoghese, spagnolo, Tagalog, tailandese e turco. Ad aprile 2023, quasi un anno fa, quando è iniziato il monitoraggio i siti erano meno di 50.

"Questi siti hanno nomi generici come iBusiness Day, Ireland Top News e Daily Time Update che a un utente possono sembrare siti di notizie affermati – spiega Newsguard –. Operano con poca o nessuna supervisione umana e pubblicano articoli scritti in gran parte o interamente da bot, software, piuttosto che presentare un giornalismo creato e curato tradizionalmente con la supervisione umana".

Questi portali hanno sfornato dozzine e in alcuni casi centinaia di articoli generici su una vasta gamma di argomenti. Talvolta includono false affermazioni, anche sui leader politici. Come ad esempio quello pubblicato a novembre scorso su globalvillagespace.com, catalogato come sito ‘Uains’ secondo cui il presunto psichiatra del premier israeliano Benjamin Netanyahu sarebbe morto per suicidio. Altre false affermazioni riguardano bufale sulla morte di celebrità, eventi inventati e articoli che presentano vecchi eventi come se fossero appena accaduti.

"Esistono prove evidenti che il contenuto viene pubblicato senza una significativa supervisione umana i siti sono presentati in modo tale che un lettore medio possa presumere che il suo contenuto sia prodotto da giornalisti in carne e ossa perché ha un layout e altri elementi tipici di siti di news. Chiaramente le piattaforme in questione non rivelano che il contenuto è prodotto dall'Intelligenza artificiale".

Gli analisti hanno anche identificato un sito gestito dal governo cinese che utilizza testi generati dall'intelligenza artificiale e fa false affermazioni. Come, ad esempio, quella relativa ad un laboratorio di armi biologiche in Kazakistan gestito dagli Usa, che infetterebbe cammelli per mettere in pericolo le persone in Cina.

Newsguard pone l'accento anche su un tema importante, quello delle entrate economiche di questi siti e fa un appello ai marchi famosi. "In molti casi il loro modello di entrate è la pubblicità programmata, in base alla quale vengono forniti annunci indipendentemente dalla natura o dalla qualità del sito. Di conseguenza, i migliori marchi stanno involontariamente supportando questi siti. A meno che non adottino misure per escludere i siti non affidabili, i loro annunci continueranno a comparire su questi siti creando un incentivo economico per la loro creazione su larga.