La minaccia dei deepfake nel contesto delle elezioni statunitensi del 2024
La tecnologia deepfake si sta affermando come una preoccupazione urgente in vista delle elezioni statunitensi del 2024, con il potenziale di alterare non solo il panorama politico ma anche il settore finanziario. Secondo una recente ricerca di Regula, le frodi legate ai deepfake stanno aumentando, con perdite medie stimabili in 600.000 dollari per azienda nel settore finanziario.
Un sondaggio ha rivelato che il 33% degli intervistati negli Stati Uniti considera i media i più vulnerabili ai deepfake, temendo che notizie e interviste falsificate possano ingannare l’opinione pubblica. La capacità dei deepfake di compromettere l’integrità delle elezioni è evidenziata dal fatto che il 28% degli americani e il 34% dei tedeschi ritengono che questa tecnologia possa influenzare i risultati elettorali. Con l’aumento dell’uso dei social media, cresce anche il rischio che contenuti manipolati vengano impiegati in campagne di disinformazione, in particolare durante il periodo pre-elettorale.
Il settore finanziario non è immune a queste minacce. Le aziende subiscono perdite significative a causa delle frodi legate ai deepfake, e il sondaggio di Regula suggerisce che molte istituzioni non sono adeguatamente preparate ad affrontare la complessità di tali attacchi. “Il divario significativo tra la fiducia nel rilevamento dei deepfake e la realtà delle perdite finanziarie evidenzia la necessità di un approccio più robusto”, afferma Ihar Kliashchou, direttore tecnico di Regula.
Leggi anche:
Kliashchou suggerisce un approccio incentrato sulla vitalità, che prevede la gestione di oggetti fisici, come volti e documenti, in tempo reale, riducendo notevolmente il rischio di cadere vittima di attacchi deepfake. La raccomandazione include l’implementazione di più livelli di verifica dell’identità e l’adozione di tecnologie affidabili, come la rielaborazione sicura dei documenti e i controlli biometrici.
Un altro report di Au10tix ha evidenziato l’aumento delle frodi di identità, con un picco di attacchi sui social media in prossimità delle elezioni presidenziali statunitensi. Il report Q3 2024 Global Identity Fraud evidenzia come le tattiche di furto di identità si stiano evolvendo in risposta alla crescente digitalizzazione dei processi di verifica. I truffatori stanno approfittando di queste vulnerabilità, mettendo a rischio non solo gli individui ma anche le organizzazioni e la loro reputazione.
Le implicazioni dei deepfake vanno oltre le mere perdite economiche; l’erosione della fiducia nelle fonti di informazione legittime potrebbe portare a una disillusione diffusa tra gli elettori, minando i processi democratici. “I truffatori si stanno evolvendo rapidamente, utilizzando l’intelligenza artificiale per ottimizzare i loro attacchi, in particolare nei settori dei social media e dei pagamenti”, afferma Dan Yerushalmi, CEO di Au10tix.
Yerushalmi avverte che mentre le aziende impiegano l’intelligenza artificiale per migliorare la sicurezza, i criminali sfruttano la stessa tecnologia per creare contenuti falsi, rendendo difficile il rilevamento. “L’unico modo per affrontare queste frodi è analizzare il comportamento a livello di traffico”, continua, sottolineando l’importanza del Serial Fraud Monitor di Au10tix.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.