Tecnologia

Adescano le vittime su Tinder e si fanno trasferire denaro

L'ultima frontiera della cybercriminalità si chiama CryptoRom ed è stata individuata dall'azienda di sicurezza informatica inglese Sophos

In sintesi:
  • Truffe in aumento agli utenti del web
  • I criminali usano la ‘conoscenza’ dell'intelligenza artificiale generativa
I cibercriminali arrivano anche qui
(Keystone)
8 agosto 2023
|

Sono sempre di più gli strumenti figli del famoso chatbot ChatGpt, usati dai criminali per ingannare gli utenti del web. L'ultima frontiera si chiama CryptoRom ed è stata individuata dall'azienda di sicurezza informatica inglese Sophos.

Il cybercrime sfrutta app di appuntamenti, come Tinder, per adescare le vittime e portarle a trasferire somme di denaro, in forma di criptovaluta, su conti terzi. Come ci riescono? I criminali usano la "conoscenza" dell'intelligenza artificiale generativa e si fingono esperti di investimenti, creando una "relazione" con i malcapitati.

La fiducia che si instaura, porta i navigatori a scaricare applicazioni farlocche, che fanno da ponte al trasferimento dei fondi. Proprio Sophos, lo scorso maggio, raccontava di tanti truffatori che avevano creato false app che affermavano di basarsi su ChatGpt, e che invece rubavano soldi a chi decideva di abbonarsi a servizi extra non veritieri.

La capacità dei modelli di intelligenza artificiale di rispondere alle domande in modo simile alla maggior parte degli umani pone un nuovo tipo di problema per chi si occupa di sicurezza: la veridicità. Subito dopo il terremoto che ha colpito Siria e Turchia a febbraio, una ricerca della Bbc aveva individuato decine di canali TikTok e post sui social che chiedevano di supportare le persone colpite dal disastro. False immagini e falsi video, creati da software di intelligenza artificiale, accompagnavano gli indirizzi PayPal a cui inviare denaro.

La nuova era della truffa via IA è sui contenuti audio. Un messaggio ricevuto su WhatsApp o su Messenger può far credere davvero che un parente o un amico sia in difficoltà e abbia bisogno di un aiuto economico.

I ricercatori di McAfee, altra azienda di sicurezza informatica, hanno scoperto che bastano tre secondi ai criminali per replicare la voce di chiunque, inserendo frasi a piacere. "Attraverso l'intelligenza artificiale, il truffatore può fingere di essere il figlio di qualcuno o un altro parente grazie a un campione della voce reale, che addestra l'IA ad assumere un tono e una cadenza il più vicino possibile all'originale. Alcuni hacker arrivano persino a ricercare informazioni personali per rendere la richiesta più credibile" dicono.

L'IA generativa consente inoltre al cybercrime di avviare nuove campagne di "sextortion" con cui si minaccia di pubblicare online foto e video di nudo, con il volto della vittima, ricreati con programmi oggi popolari. Si sovrappone il viso reale di un individuo al corpo di attori e professionisti, puntando sulla paura che la propria reputazione sia rovinata per sempre, nonostante il contenuto finale si fondi su una falsa verità, artefatta e realizzata al computer.