Quantcast
News

Il deepfake vocale è la nuova frontiera delle truffe telefoniche

Condividi l'articolo

Man mano che la tecnologia avanza, anche le tecniche di truffa si evolvono. Ora, i criminali informatici possono rapidamente trasformare la loro voce nella voce dei loro obiettivi con l’aiuto di sistemi AI generativi come VALL-E di Microsoft. In alcuni casi, questi attacchi possono essere eseguiti con solo pochi secondi di audio campionato.

Secondo un articolo pubblicato da Gadget, una rivista di tecnologia personale, la tecnologia deepfake dovrebbe essere innocua a meno che non finisca nelle mani sbagliate. Tuttavia, gli imbroglioni possono tentare di generare voci convincenti in situazioni in tempo reale, come impersonare un familiare per ingannarlo a cedere denaro.

Leggi anche:

Pindrop, un’azienda che esamina sistemi automatici di verifica vocali per otto dei più grandi prestatori statunitensi, ha segnalato un aumento delle truffe vocali deepfake quando le voci false create da programmi AI hanno iniziato a fare la loro apparizione nel 2022. Anche Nuance, un altro fornitore di autenticazione vocale, ha notato il primo attacco deepfake riuscito a un cliente dei servizi finanziari alla fine dell’anno scorso.

Per proteggerti da queste truffe, è essenziale essere cauti quando ricevi chiamate dalla tua banca o da qualsiasi altra istituzione finanziaria. Se ricevi una chiamata dalla tua banca, riaggancia e richiama utilizzando un numero di telefono che sai essere legittimo. Inoltre, diffida di qualsiasi richiesta di informazioni personali o finanziarie, poiché queste possono essere utilizzate per rubare i tuoi soldi o commettere furti d’identità.

Ricorda, le truffe sonore deepfake alimentate da IA sono una nuova minaccia in evoluzione, ed è essenziale rimanere informati e vigilanti per proteggerti da perdite finanziarie. Fai attenzione quando ricevi chiamate dalla tua banca o da qualsiasi altra istituzione finanziaria, e non dare mai informazioni personali o finanziarie a meno che tu non sia certo che si tratti di una richiesta legittima.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Ti preoccupano queste nuove truffe del deepfake vocale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x