Google ignora una falla di sicurezza in Gemini: l’IA può essere ingannata con messaggi nascosti

Una nuova controversia scuote il mondo dell’intelligenza artificiale: Google avrebbe rifiutato di correggere una grave vulnerabilità nel suo modello Gemini, nonostante l’allarme lanciato da un esperto di sicurezza informatica.
Il ricercatore Victor Markopoulos ha individuato una falla nel sistema di analisi testuale di Gemini che permetterebbe a malintenzionati di inserire comandi nascosti all’interno di semplici messaggi o email, inducendo l’IA a eseguire azioni potenzialmente pericolose.
Il trucco dell’“attacco ASCII”
L’attacco, noto come ASCII smuggling, si basa su caratteri quasi invisibili, inseriti nel testo con lo stesso colore dello sfondo.
Un essere umano non noterebbe nulla di strano, ma una rete neurale potrebbe interpretare quei simboli come istruzioni operative.
In pratica, un hacker potrebbe inviare a Gemini un messaggio contenente un comando mascherato — ad esempio, un link a un sito malevolo — e l’IA, nel riassumere il testo o generare una risposta, potrebbe inconsapevolmente eseguire o divulgare dati sensibili.
Il rischio è particolarmente alto perché Gemini è integrato con Google Workspace, e quindi potenzialmente con email, documenti e informazioni riservate aziendali.

Leggi anche:
Google minimizza, ma la comunità si allarma
Markopoulos ha mostrato a Google un esempio concreto del problema: un’email apparentemente innocua che, una volta letta da Gemini, portava l’assistente a mostrare un link fraudolento anziché quello originale della riunione.
La risposta di Google, tuttavia, ha lasciato perplessi molti esperti.
L’azienda avrebbe classificato l’attacco non come un difetto tecnico del modello, ma come un caso di ingegneria sociale — di fatto, scaricando la responsabilità sul comportamento dell’utente e non sulla vulnerabilità del sistema.
Un rischio sottovalutato
Se questa posizione venisse confermata, Gemini non riceverà alcuna patch di sicurezza per mitigare il problema.
Eppure, secondo diversi ricercatori, la falla apre scenari inquietanti: un semplice messaggio ben camuffato potrebbe trasformare un assistente AI in un veicolo di phishing o furto dati.
Google, interpellata ufficialmente, non ha né confermato né smentito la questione. Ma nel frattempo, la notizia si sta diffondendo rapidamente nel mondo della cybersecurity, riaccendendo il dibattito su quanto le IA generative siano davvero sicure quando vengono integrate nei nostri strumenti di lavoro quotidiani.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.