Tecnologia

YouTube chiede di etichettare i contenuti creati con l'Ia

La società si muove contro il diffondersi dei deepfake e pensa a misure contro chi non segnala video realizzati o alterati con l'Intelligenza artificiale

Immagine di archivio
(Keystone)
19 marzo 2024
|

YouTube ora richiede ai creatori di contenuti di rivelare con una etichetta quando i contenuti realistici sono stati realizzati o alterati con software di Intelligenza artificiale generativa. Lo ha reso noto la società sul suo blog.

L'iniziativa arriva in un momento in cui sta diventando sempre più difficile capire cosa sia vero e cosa sia falso, soprattutto a ridosso delle elezioni politiche che si terranno in tutto il mondo, minacciate dai deepfake.

Su YouTube i creatori di contenuti, ad esempio, dovranno rivelare quando hanno alterato digitalmente un video per "sostituire il volto di un individuo con quello di un altro o aver generato sinteticamente la voce di una persona", afferma YouTube. Dovranno inoltre esplicitare i contenuti che alterano eventi o luoghi reali, ad esempio facendo sembrare che un vero edificio abbia preso fuoco e rivelare quando hanno generato scene realistiche di grandi eventi immaginari, come un tornado che si muove verso una città reale.

YouTube afferma che la maggior parte dei video avrà un'etichetta nella descrizione estesa, ma per i video che toccano argomenti più delicati come la salute, ci sarà un'etichetta più evidente sul video stesso.

Gli utenti inizieranno a vedere le etichette in tutti i formati YouTube nelle prossime settimane, a partire dall'app mobile e presto anche su desktop e Tv. La società prevede inoltre di prendere in considerazione misure per i creatori che scelgono costantemente di non utilizzare le etichette. E afferma che aggiungerà etichette in alcuni casi quando un creatore non ne ha aggiunta una, soprattutto se il contenuto ha il potenziale per confondere o fuorviare le persone.