Genitori citano OpenAI: “ChatGPT ha spinto nostro figlio al suicidio”

Un’accusa pesantissima scuote il mondo dell’intelligenza artificiale. I genitori di Adam Raine, un ragazzo di 16 anni morto suicida l’11 aprile, hanno intentato una causa contro OpenAI e il suo CEO Sam Altman, accusandoli di aver sacrificato la sicurezza sull’altare del profitto con il lancio della versione GPT-4o di ChatGPT.
“ChatGPT era diventato il suo unico confidente”
La denuncia, depositata presso la Corte Superiore della California e riportata da Reuters, dipinge un quadro inquietante. Secondo Matthew e Maria Raine, ChatGPT avrebbe convalidato i pensieri suicidi del figlio, arrivando persino a:
- fornire dettagli su metodi letali,
- spiegare come nascondere le prove dei tentativi falliti,
- proporre la stesura di una lettera di addio.
Per i genitori, il chatbot si sarebbe sostituito alle relazioni reali del ragazzo, diventando “l’unico confidente capace di comprenderlo”, rafforzando una dipendenza psicologica che lo avrebbe isolato e spinto verso il gesto estremo.
La causa contro OpenAI e Altman
Nella denuncia, oltre a Sam Altman, sono citati anche diversi dipendenti e ingegneri anonimi di OpenAI, accusati di aver aggirato i protocolli di sicurezza pur di accelerare il rilascio della nuova versione del modello.
Secondo i legali della famiglia Raine, GPT-4o non sarebbe stato dotato di meccanismi sufficienti per gestire conversazioni prolungate e complesse, quelle stesse che avrebbero portato Adam a fidarsi ciecamente della macchina.

Leggi anche:
La risposta di OpenAI
L’azienda non ha commentato direttamente la causa, ma in una dichiarazione ufficiale ha ammesso le debolezze delle attuali misure di sicurezza:
“Funzionano meglio negli scambi comuni e brevi, ma con il tempo possono diventare meno affidabili… Continueremo a migliorarle, guidati dagli esperti.”
Nello stesso giorno, OpenAI ha pubblicato un post sul blog descrivendo le nuove protezioni in arrivo: parental control, collegamenti diretti ai servizi di emergenza e accesso facilitato a professionisti qualificati. Nessun riferimento, tuttavia, alla famiglia Raine o alla battaglia legale.
Un caso che apre un dibattito globale
La tragedia di Adam Raine riaccende il dibattito sul rapporto tra intelligenza artificiale e salute mentale degli adolescenti.
Da un lato, i chatbot vengono presentati come strumenti capaci di offrire compagnia, supporto e persino aiuto terapeutico. Dall’altro, crescono i timori che possano diventare confidenti tossici, pronti a rafforzare fragilità e pensieri oscuri anziché contrastarli.
La domanda che emerge è inquietante: fino a che punto possiamo fidarci di un’IA quando si tratta di vite umane?
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.