ChatGPT e la privacy a rischio: il tribunale ordina la conservazione eterna delle chat

Le chat di ChatGPT potrebbero non essere più sicure. Se inizialmente le conversazioni dei chatbot venivano eliminate dai server di OpenAI dopo 30 giorni, ora una sentenza del tribunale ha rivoluzionato le regole del gioco. Il giudice ha deciso che le chat devono essere conservate in modo permanente, e la motivazione è tutt’altro che rassicurante: estrarre prove in caso di violazione del copyright.
Una sentenza che fa discutere: sorveglianza o necessità legale?
La causa è partita da alcune organizzazioni giornalistiche che accusano OpenAI di violazione del copyright. Per loro, conservare le conversazioni è essenziale per identificare eventuali attività illegali. Ma questa decisione ha sollevato un polverone. Aidan Hunt, un avvocato coinvolto nel caso, ha definito l’ordine una vera e propria “sorveglianza di massa”, soprattutto considerando che molti utenti di ChatGPT non sono stati avvisati dei cambiamenti nelle politiche di archiviazione dei dati.
La preoccupazione riguarda principalmente la privacy: queste conversazioni potrebbero essere facilmente spiate, hackerate o usate per scopi non previsti in futuro, creando una pericolosa invasione della privacy personale e aziendale.
La risposta legale e i rischi per la privacy
Corinne McSherry, avvocato di Electronic Frontier Foundation (EFF), ha sottolineato che questa decisione potrebbe rappresentare un pericoloso precedente per la protezione dei dati in futuro. Ma il giudice, Ona Wong, ha respinto le obiezioni, ritenendo che la questione della privacy fosse secondaria rispetto alla necessità di conservare le prove legali.

Leggi anche:
OpenAI nel mirino: rischi per gli utenti e possibili fughe di dati
A questo punto, la palla è passata a OpenAI, che ha intenzione di fare ricorso contro la sentenza. Il rischio maggiore? Che le informazioni private degli utenti possano diventare un bersaglio per le forze dell’ordine o, peggio ancora, vittime di attacchi informatici. I dati potrebbero finire nelle mani sbagliate a causa di bug o violazioni della sicurezza.
Anche se al momento non ci sono prove che i dati siano stati compromessi, questa situazione evidenzia la crescente preoccupazione per il controllo e la gestione dei dati personali nell’era dell’intelligenza artificiale.
La lezione che ci lascia questa storia
Gli attivisti per i diritti umani chiedono maggiore trasparenza da parte dei creatori di chatbot come OpenAI. Non basta garantire la cancellazione dei dati su richiesta: i clienti devono essere pienamente informati sulle politiche di conservazione dei dati e sulla possibilità che le loro conversazioni vengano mantenute indefinitivamente.
La privacy non è mai stata così fragile. E, come ci ricorda questa sentenza, il controllo dei dati potrebbe diventare una battaglia legale che coinvolge tutti, dai giganti tecnologici agli utenti finali.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.