Ecco come clonano la voce per fare truffe telefoniche
I video su Instagram o TikTok sono la chiave per conoscere il timbro di voce delle vittime
Il più recente rapporto di McAfee sull’intelligenza artificiale e la cybersecurity affronta direttamente uno dei temi più rilevanti dell’attualità con un titolo chiaro: “Attenzione all’impostore artificiale”, un avvertimento sulle truffe telefoniche con clonazione della voce.
A tal proposito, Fabio Sánchez, Direttore della Cybersecurity di OCP TECH, segnala che il fenomeno ha avuto una crescita esponenziale negli ultimi mesi e l’indagine condotta da McAfee è la più ampia fino ad oggi.
Secondo i dati raccolti nel corso del 2023, questa nuova minaccia utilizza la tecnologia di clonazione della voce supportata dall’IA, rappresentando una versione moderna delle conosciute truffe telefoniche come il famoso “Ciao mamma, ho avuto un incidente”.
Leggi anche:
In questo tipo di truffe, un delinquente effettua una telefonata e crea una situazione di stress significativa, portando la vittima a credere di parlare realmente con un familiare che richiede un aiuto urgente (e, naturalmente, richiede il pagamento in contanti per fornire l’assistenza necessaria).
L’incorporazione della tecnologia in questo antico schema rende molto difficile la sua rilevazione e può persino raggiungere l’obiettivo senza generare una situazione stressante.
Solo negli Stati Uniti, si stima che nel corso del 2022, questa truffa abbia causato perdite per un totale di 2,6 miliardi di dollari, e questa tendenza sta crescendo anche in altri paesi.
Nel Regno Unito, ad esempio, una variante di questa truffa effettuata esclusivamente tramite WhatsApp ha causato perdite per 1,5 milioni di sterline in soli quattro mesi. Inoltre, in Australia, una diffusa truffa tramite messaggi di testo dello stesso tipo ha provocato una perdita media per vittima di 5.000 dollari.
Questi dati relativi al 2022, quando l’uso di queste tecnologie non era ancora così diffuso, indicano che il peggio deve ancora venire. La crescente disponibilità e sofisticazione degli strumenti di IA stanno trasformando le regole del cybercrimine.
Inoltre, questi strumenti di clonazione della voce supportati da questa tecnologia sono accessibili in termini di costo e semplici da utilizzare. L’epoca in cui era necessario tempo, competenze tecniche e talento per effettuare una truffa, ora è alla portata di chiunque.
La disponibilità di strumenti tecnici si combina con un fattore cruciale per queste pratiche: la frequenza con cui la voce viene condivisa. Secondo McAfee, il 53% degli adulti intervistati condivide la propria voce online almeno una volta alla settimana, e il 49% lo fa fino a 10 volte nello stesso periodo. Ciò senza considerare i video personali su piattaforme come Instagram o TikTok.
Leggi anche:
È importante menzionare che la maggior parte dei casi segnalati coinvolge genitori o nonni che informano che un cybercriminale ha clonato la voce di un figlio o nipote e si è fatto passare per loro.
Per proteggersi da queste truffe, ecco alcune raccomandazioni:
- Stabilire una “parola sicura” come codice tra familiari e amici per situazioni di emergenza. Ciò consentirà di segnalare tempestivamente possibili truffe di clonazione della voce.
- Diffidare della fonte, specialmente se proviene da un numero sconosciuto. In questi casi, è meglio richiedere ulteriori informazioni per verificare l’identità della persona con cui si sta parlando, anche chiamando da un altro numero.
- Controllare le emozioni e mettere in discussione tutto. Chiedere se la persona è davvero chi dice di essere, se il contesto è credibile e se ciò che viene richiesto è ragionevole. Effettuare questi controlli può fare la differenza.
- Considerare selettivamente le chiamate da numeri sconosciuti. Nell’era della clonazione della voce, è importante essere selettivi nelle chiamate da numeri sconosciuti. Se non si è sicuri dell’identità della persona che chiama, è meglio non rispondere o bloccare il numero.
- Non fornire informazioni personali o finanziarie. I truffatori cercano di ottenere informazioni personali e finanziarie per sfruttarle a proprio vantaggio. Non bisogna mai fornire queste informazioni a nessuno, a meno che non si sia sicuri dell’identità della persona con cui si sta parlando.
- Utilizzare software di riconoscimento della voce. Esistono software di riconoscimento della voce che possono aiutare a identificare se la voce è autentica o clonata. Questi strumenti possono aumentare la sicurezza nelle chiamate telefoniche.
In sintesi, la clonazione della voce supportata dall’IA rappresenta una minaccia reale e in continua crescita. È importante essere consapevoli di questa minaccia e adottare le misure di sicurezza necessarie per proteggere se stessi e la propria famiglia.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di queste nuove truffe che sfruttano l’intelligenza artificiale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.