ChatGPT: conversazioni private indicizzate su Google, scoppia il caso

In un episodio che riaccende il dibattito sulla privacy digitale, alcune conversazioni private con ChatGPT sono finite — senza che molti utenti se ne accorgessero — nei risultati di ricerca di Google.
La scoperta è della giornalista e attivista per la privacy Luiza Jarovsky, che ha denunciato la fuga di contenuti estremamente sensibili: dalle confessioni di abusi a problematiche di salute mentale, tutto accessibile con una semplice ricerca.
Il “bug” della condivisione che non era un bug
Il problema nasce da una funzione — ora rimossa — che permetteva di contrassegnare le chat come “reperibili”. Durante la creazione di un link condivisibile, compariva una casella con l’opzione Rendi questa chat visibile: molti utenti, pensando fosse necessaria per inviare la conversazione a un amico, l’hanno attivata senza capire che significava rendere il contenuto indicizzabile su Google.
Il risultato? Migliaia di conversazioni personali, grezze e non filtrate, improvvisamente visibili al mondo intero.
Confessioni intime esposte al pubblico
Le ricerche hanno riportato alla luce dettagli personali drammatici:
- richieste di aiuto per gestire partner violenti
- ammissioni di comportamenti abusivi
- confessioni su dipendenze e difficoltà lavorative
Non erano esercizi di scrittura o scenari inventati: erano le fragilità di persone reali, ora sospese nell’etere digitale.

Leggi anche:
Un problema di fiducia nell’IA
Questo incidente mette in evidenza un fenomeno in crescita: sempre più persone si rivolgono all’IA per consigli terapeutici, professionali o personali, confidando in una riservatezza che — di fatto — non è mai stata garantita. Come ha già avvertito Sam Altman, CEO di OpenAI, non esiste alcuna tutela legale specifica per le conversazioni con chatbot.
Dane Stuckey, Chief Information Security Officer di OpenAI, ha definito la funzione un “esperimento di breve durata” che ha comportato troppi rischi. L’azienda ora collabora con i motori di ricerca per rimuovere le chat indicizzate, ma i dati potrebbero rimanere in cache, screenshot o archivi di terze parti ancora a lungo.
Non è un caso isolato
Questa non è la prima violazione che coinvolge l’IA:
- 2023 – Amazon Alexa invia registrazioni private agli utenti sbagliati
- 2024 – Google Bard (ora Gemini AI) conserva gli input più a lungo del previsto
La lezione è sempre la stessa: la comodità ha un prezzo, e spesso lo si paga con la perdita di controllo sui propri dati.
Per ora, OpenAI invita gli utenti a verificare i link condivisi e rimuovere eventuali esposizioni non desiderate. Ma in un panorama digitale privo di regole chiare, una cosa è certa: la privacy non è mai garantita.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.