Quantcast
News

FraudGPT: il chatbot malvagio utilizzato dai criminali informatici nel Deep Web

Condividi l'articolo

I criminali informatici ora si vantano di utilizzare le ampie capacità dell’intelligenza artificiale generativa per creare modelli con capacità simili a ChatGPT e Bard di Google, ma specializzati per attività illegali come sostituire una banca o mostrare siti web suscettibili di essere truffati.

FraudGPT e WormGPT sono alcuni di questi nuovi sistemi dannosi che emergono nel Deep Web e, secondo la piattaforma di analisi dei dati Netenrich, consentono la creazione di e-mail fraudolente e l’orchestrazione di attacchi di phishing altamente convincenti, nonché la possibile creazione di deepfake e campagne di disinformazione.

In effetti, il primo chatbot è considerato da alcuni come “il gemello malvagio di ChatGPT”, e questo non è gratuito e nessuna delle sue funzioni lo è. Ha due tipi di piani, uno mensile per 100 dollari e un altro, privato, che costa 500 dollari.

Un cambio di paradigma

L’emergere di questi strumenti rappresenta un cambiamento significativo nella criminalità informatica, dimostrando che il loro utilizzo sta diventando sempre più perfezionato e segmentato. Mentre gli esperti mettono in guardia sullo sviluppo potenziale di malware più sofisticato grazie all’aiuto dell’IA generativa.

Una tecnologia che facilita persino agli aggressori la generazione di e-mail dannose in diverse lingue e senza i tipici errori che ne consentivano la facile individuazione in passato.

Per gli esperti, questo tipo di strumenti criminali come FraudGPT, può rappresentare un serio problema per il futuro perché con il loro aiuto i criminali con poche conoscenze tecniche possono preparare campagne dannose di ogni tipo con una probabilità di successo notevole.

Nuove modalità di criminalità

La società di sicurezza informatica Proofpoint ha identificato un aumento nell’uso dell’intelligenza artificiale per l’esecuzione di truffe avanzate, come la nota “macellazione di maiali”, in cui i truffatori aumentano la fiducia delle loro vittime prima di spogliarle dei loro beni.

Questa tecnica si è evoluta e ora si avvale anche di deepfake, video e audio manipolati, che colpiscono principalmente funzionari governativi, imprenditori e celebrità, in particolare quelli legati all’ambito degli investimenti in criptovalute.

Leggi anche:

I ricercatori hanno osservato come gli aggressori di TA499, un gruppo di criminalità informatica, ricorrano a videochiamate falsificate tramite IA per sostituire politici e altre figure pubbliche.

L’imitazione di questi individui cerca di estrarre informazioni riservate o compromettenti dalle vittime, al fine di ridicolizzarle successivamente mediante la pubblicazione sui social media.

Dai deepfake alla creazione di armi

Oltre alle implicazioni sulla sicurezza informatica, l’abuso dell’intelligenza artificiale nella creazione di contenuti ingannevoli e materiale sensibile, come la pornografia non consensuale, preoccupa gli esperti di diritto ed etica digitale.

Queste tecniche di IA sono state inoltre utilizzate per scopi di manipolazione politica e sociale, come la creazione di false immagini di immigrati per influenzare l’opinione pubblica e i risultati elettorali.

Allo stesso modo, è stato identificato il rischio che l’IA aiuti a creare armi biochimiche e si infiltri nel software di infrastrutture critiche, problematiche.

Mentre le normative esistenti non riescono a coprire efficacemente lo spettro di minacce che sorgono con l’intelligenza artificiale generativa.

Le raccomandazioni

L’istruzione e la sensibilizzazione degli utenti sono menzionate come elementi chiave per prevenire i rischi di questi strumenti dannosi, sebbene siano riconosciute necessarie anche le misure normative e le soluzioni tecnologiche.

In risposta ai pericoli emergenti, si suggerisce la formazione di team indipendenti per testare strumenti di questo tipo contro gli abusi di IA e la possibile proibizione di determinati modelli open source.

Tuttavia, la sfida per prevenire i danni causati da FraudGPT e strumenti simili risiede nel trovare un equilibrio tra gli obiettivi etici dell’intelligenza artificiale e l’implementazione pratica di misure di sicurezza e regolamentazione.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di FraudGPT e dei chatbot in generale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
(Visited 134 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x