News

Truffano i genitori con l’intelligenza artificiale: non era sua figlia, ma un robot

Condividi l'articolo

Negli ultimi anni, le minacce informatiche sono diventate una preoccupazione sempre piĆ¹ grande per individui e organizzazioni

L’intelligenza artificiale, con la sua capacitĆ  di apprendere e adattarsi, si sta rivelando un utile strumento di lavoro, ma anche un valido alleato per i criminali informatici, sempre pronti a truffare il prossimo.

Da un lato, offre strumenti avanzati per proteggere i dati e i sistemi, ma dall’altro viene utilizzata per elaborare truffe sempre piĆ¹ sofisticate e credibili, sfidando le tradizionali misure di sicurezza.

Paddric Fitzgerald si trovava al lavoro quando il suo telefono squillĆ², era un numero sconosciuto. Al rispondere, si trovĆ² di fronte a una situazione spaventosa. Ha sentito sua figlia urlare in sottofondo durante la chiamata, dicendo di essere in pericolo. “Gridava dicendo che l’avrebbero uccisa mentre era in conversazione. Avrei dato loro tutto quello che ho economicamente”, ha raccontato. In realtĆ , non si trattava di sua figlia, ma di una voce generata dall’intelligenza artificiale.

Per coincidenza, in quel momento ha ricevuto un messaggio normale da sua figlia sul suo cellulare, il che gli ha fatto capire che la voce che stava ascoltando non apparteneva a sua figlia, ma era stata creata tramite il deepfake vocale. Questo metodo rappresenta la nuova e allarmante strategia che i criminali stanno utilizzando per ingannare le persone.

Leggi anche:

Le voci generate con l’IA rappresentano una minaccia reale

Oggi ĆØ comune trovare canzoni create con l’intelligenza artificiale. Ad esempio, ĆØ circolata online una canzone di Bad Bunny, Daddy Yankee e Justin Bieber, anche se in realtĆ  questi artisti non hanno mai collaborato, sono solo le loro voci manipolate tramite IA. Era prevedibile che i criminali iniziassero a utilizzare queste tecniche di clonazione vocale per scopi illeciti.

Alex West, consulente presso PwC e coautore di alcuni dei piĆ¹ recenti studi sull’argomento, ha spiegato che “i truffatori stanno giĆ  ottenendo un grande successo” e probabilmente stanno appena iniziando a utilizzare questa tecnologia. Ha aggiunto che “ĆØ evidente che i tentativi di truffa diventeranno sempre piĆ¹ sofisticati”.

Nel febbraio del 2023, uno studio condotto da ricercatori di Microsoft ha dimostrato le capacitĆ  del loro sistema, VALL-E, nel clonare voci con una qualitĆ  eccezionale, utilizzando solo un campione vocale di tre secondi. Gli esperti in generazione di contenuti tramite IA, come Henry Ajder, che ha consulenze per aziende come Meta o Adobe, sottolineano come l’IA abbia notevolmente facilitato le truffe di identitĆ .

Secondo i dati della Federal Trade Commission citati da FT, le truffe colpiscono in particolare le persone anziane, con le perdite economiche medie che aumentano con l’etĆ  delle vittime. Ad esempio, le persone di etĆ  superiore agli 80 anni subiscono perdite che sono il doppio di quelle subite da individui piĆ¹ giovani.

Per proteggersi da queste truffe vocali digitali, ĆØ essenziale che le persone convalidino l’identitĆ  di chi le contatta tramite un altro canale di comunicazione, assicurandosi che sia veramente chi dice di essere. ƈ inoltre fondamentale non fornire alcun tipo di informazione personale o finanziaria durante chiamate non verificate.

Si consiglia anche di parlare con familiari e amici di queste tecniche di frode, creando una rete di allerta e prevenzione che riduca la vulnerabilitĆ  a queste sofisticate truffe tecnologiche.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa nuova truffa del deepfake vocale? Lascia un commento nellā€™apposita sezione che trovi piĆ¹ in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email allā€™indirizzoĀ guruhitech@yahoo.com.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
(Visited 121 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments