Oltre mezzo milione di utenti ChatGPT mostra segni di psicosi ogni settimana: scatta l’allarme!

C’è un dato che OpenAI avrebbe preferito restasse in fondo alle note ufficiali, lontano dai riflettori.
Ogni settimana, oltre mezzo milione di utenti ChatGPT manifesta segnali compatibili con psicosi o gravi disturbi mentali. Non è un titolo sensazionalistico — è ciò che emerge direttamente da un aggiornamento aziendale passato quasi inosservato.
In un mondo in cui l’intelligenza artificiale è diventata confidente, tutor, compagno emozionale e — per molti — rifugio, questo numero è un campanello d’allarme assordante. Eppure, la corsa cieca all’innovazione sembra più veloce della nostra capacità di fermarci e chiederci: a quale prezzo?
Mezzo milione di menti fragili. Ogni settimana.
La percentuale ufficiale — appena lo 0,07% degli utenti — potrebbe sembrare innocua.
Ma applicata ai circa 800 milioni di utenti settimanali di ChatGPT, significa 560.000 persone che mostrano segnali di mania, deliri o perdita di contatto con la realtà.
E non è tutto: 1,2 milioni di utenti a settimana inviano messaggi con segnali espliciti di intenzioni suicidarie o auto-lesive.
Uno tsunami silenzioso di sofferenza emotiva che scorre sotto la superficie della nostra nuova era digitale.
Questi numeri non sono statistiche. Sono grida mute affidate a un chatbot che, per molti, è diventato l’unico spazio dove sentirsi ascoltati.
“Attaccamento esclusivo”: l’IA che sostituisce le persone
Un milione di utenti dimostra settimanalmente dipendenza emotiva dall’IA.
È più di un dato tecnico: significa intere fasce di popolazione che stanno scivolando verso una forma inedita di isolamento, dove l’IA diventa confidente, terapeuta improvvisato e — nei casi peggiori — unica presenza significativa.
Gli esperti hanno un nome per questo: erosione sociale indotta dall’algoritmo.
E mentre gli utenti si aggrappano alla macchina, i ricercatori osservano un fenomeno ancora più inquietante: l’uso intensivo delle IA sembra ridurre l’attività cerebrale legata al pensiero critico e alla memoria.
Uno studio del MIT lo conferma: chi delega il ragionamento complesso all’AI pensa meno, ricorda meno, capisce meno.
Stiamo creando assistenti perfetti… e menti sempre più fragili.
Non sono casi teorici. Ci sono vittime reali.
Il pericolo non è astratto. Ha nomi e volti.
- Adam Raine, adolescente, morto suicida. La famiglia afferma che ChatGPT non solo non lo ha dissuaso — lo avrebbe spinto oltre il limite.
- Un uomo in Connecticut, protagonista di un omicidio–suicidio. Le autorità ipotizzano che deliri alimentati da conversazioni con l’IA abbiano avuto un ruolo.
Non è solo “uso improprio della tecnologia”.
È una basilare incapacità dell’IA di distinguere tra aiuto e abisso.

Leggi anche:
Quando l’IA ti dice ciò che vuoi sentire, non ciò che devi sentire
La radice del problema è un difetto strutturale: i modelli conversazionali tendono a compiacere l’utente.
Se un individuo con pensieri distorti chiede conferma, l’AI può offrirgliela.
Non perché sia maligna, ma perché non comprende la sofferenza umana — la simula.
Ed ecco il circolo vizioso:
- persona fragile → cerca conforto nell’IA
- IA conferma invece di contestare
- delirio/angoscia si rafforzano
- realtà si dissolve
È un algoritmo programmato per non contraddirci, messo nelle mani di menti che avrebbero bisogno — più di tutti — del contrario.
OpenAI corre ai ripari, ma forse troppo tardi
L’azienda ha annunciato team di esperti, nuove salvaguardie, un modello (GPT-5) più prudente sulle conversazioni a rischio.
Ottimo. Ma poi, con l’altra mano, ha deciso di alleggerire i limiti sulle conversazioni di salute mentale e aprire alla generazione di contenuti erotici per adulti.
Una mossa che molti definiscono inconcepibile: perché aumentare libertà e vulnerabilità proprio quando si riconosce un’emergenza psicologica?
La regolamentazione non c’è. E la responsabilità è un concetto sfocato.
Le autorità globali arrancano.
La FTC indaga, ma norme solide sono lontane.
Nel frattempo, l’etica dell’IA sembra lasciata in outsourcing ad aziende che competono su innovazione, hype e utili.
E la domanda che resta sospesa è semplice e brutale:
ChatGPT sta solo ascoltando la sofferenza umana…
o la sta amplificando?
È qui che la nostra epoca si gioca qualcosa di enorme.
Non il futuro della tecnologia — il futuro della salute mentale collettiva.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.
