Con l’intelligenza artificiale possono rubare attraverso le videochiamate
I deepfake che imitano il volto di una persona sono la risorsa preferita dai criminali informatici
L’intelligenza artificiale sta diventando uno strumento usato dai cyber-criminali per truffare le persone, sostituendo l’identità dei loro familiari o amici. Fino ad ora, la clonazione della voce era la tattica più forte, ma ora si è evoluta alle videochiamate.
Il giornale El Mundo ha raccontato la storia di un uomo in Cina che ha ricevuto una videochiamata dalla moglie su WeChat, che gli chiedeva circa 3.600 dollari perché aveva avuto un incidente d’auto e doveva risolvere la situazione con l’altro conducente.
Anche se la chiamata è stata effettuata da un account diverso da quello originale della donna, a causa della somiglianza fisica, l’uomo di 73 anni è caduto nella trappola e ha consegnato il denaro, poiché la persona dall’altra parte aveva una grande somiglianza con la moglie nella sua forma di parlare e tono di voce, ma in realtà si trattava di un’imitazione generata dall’intelligenza artificiale.
Secondo le indagini del caso, i cyber-criminali stavano seguendo la coppia da un po’ di tempo, sfruttando che la donnaaveva un canale di creazione di contenuti sulla cucina, popolare in Cina, e da lì hanno ottenuto i dati per generare l’immagine con IA in una modalità conosciuta come deepfake.
Leggi anche:
Le videochiamate sono la nuova modalità di inganno con IA perché ispirano un alto grado di fiducia nelle vittime. Il numero di casi di questo tipo di truffe è in aumento e preoccupa le autorità e le aziende del settore privato. Ad esempio, nel 2022 sono state presentate 36.000 denunce negli Stati Uniti di persone che sono state ingannate attraverso la clonazione della voce.
Le chiamate sono il principale metodo di truffa, poiché gli audio sono un processo di facile creazione in cui l’attaccante deve solo prendere un paio di frasi da una persona perché il sistema apprenda i suoi modelli di parlato e tono di voce. Poi il cyber-criminale può creare un audio che dice qualsiasi cosa per ingannare gli altri.
Questa situazione ha generato un’allerta nel settore privato e pubblico. Brad Smith, presidente di Microsoft, ha affermato davanti ai legislatori degli Stati Uniti che questa è una delle preoccupazioni di sicurezza più grandi dell’azienda attualmente. Ha chiesto alle autorità e ai creatori di software di prendere misure per proteggersi dall’alterazione di contenuti legittimi con l’intenzione di ingannare o frodare le persone attraverso l’uso di IA.
Smith ha anche suggerito di implementare etichette in immagini e video che indichino quando si tratta di contenuti generati da IA, in modo che il pubblico possa riconoscerli. In Cina, le autorità hanno usato Weibo, una rete sociale locale, per diffondere messaggi di avvertimento agli utenti e chiedono di essere cauti nel fornire informazioni biometriche e di evitare di condividere video e altre immagini di sé stessi su Internet.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa tecnica di furto che sfrutta l’intelligenza artificiale e le videochiamate? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].