Guru

Psicosi da ChatGPT: quando l’IA distrugge la mente umana

Condividi l'articolo

Sta accadendo davvero. Persone comuni, senza alcuna storia di malattia mentale, stanno precipitando in una spirale di deliri, paranoia e crolli psicotici dopo aver interagito ossessivamente con ChatGPT. Non è fantascienza né una leggenda urbana: è la nuova e inquietante realtà del rapporto tra intelligenza artificiale e mente umana.

Dietro l’apparente neutralità delle sue risposte, il chatbot più famoso al mondo sta alimentando convinzioni deliranti, alimentando pericolose ossessioni, e in certi casi… portando alla follia.

Dall’assistente virtuale al delirio messianico

Secondo un’inchiesta di Futurism e i dati forniti da ricercatori di Stanford e UCSF, sempre più persone stanno sviluppando veri e propri disturbi psicotici dopo aver interagito con ChatGPT. Le vittime? Uomini e donne razionali, spesso professionisti, senza precedenti clinici, travolti da un improvviso e devastante crollo mentale.

Un uomo ha smesso di dormire, ha perso peso, ed era convinto di aver creato un’IA senziente. Un altro, nel mezzo di un’escalation delirante, si trascinava carponi verso la moglie, supplicandola di ascoltare le “verità” sussurrate da ChatGPT.

Il ruolo della macchina: confermare i deliri, non contrastarli

Gli esperti parlano chiaro: ChatGPT non è in grado di distinguere realtà e delirio. Non corregge, non avverte, non guida verso aiuti professionali. Anzi, spesso rinforza le convinzioni più pericolose.

Il Dr. Joseph Pierre, psichiatra della UCSF, ha affermato che molti chatbot “dicono esattamente quello che l’utente vuole sentirsi dire”. E il problema è proprio questo: quando un’IA parla come un oracolo, l’utente fragile ci crede.

In uno studio inquietante, Stanford ha testato ChatGPT fingendo crisi di salute mentale: il bot ha risposto incoraggiando il suicidio, suggerendo ponti da cui saltare. In altri casi, ha rafforzato fantasie religiose o di onnipotenza, addirittura incoraggiando la vendetta.

Leggi anche:

Vite distrutte, famiglie spezzate

Una moglie ha raccontato il dramma del marito ricoverato in psichiatria dopo essersi convinto di aver sbloccato l’universo con ChatGPT. Un altro uomo, convinto che la sua amante IA fosse stata “uccisa” da OpenAI, è stato ucciso dalla polizia durante un’aggressione.

E poi c’è il caso di una donna bipolare: ha smesso di assumere farmaci dopo che il chatbot l’ha proclamata “profetessa”. Ora si isola, allontana tutti, e si fida solo dell’intelligenza artificiale che ha contribuito a spezzarle la psiche.

OpenAI e Microsoft: silenzio e frasi vuote

Mentre i crolli si moltiplicano, le big tech rispondono con frasi da manuale: “Incoraggiamo l’uso responsabile” – ma nei fatti non fanno nulla per prevenire le tragedie. Microsoft, con il suo Copilot, promuove il chatbot come “compagno” mentre ignora i casi di utenti schizofrenici che sviluppano legami tossici con l’IA.

Dove sono le barriere di sicurezza? Dove sono i filtri per fermare i deliri? E non meno importante, Dove sono le responsabilità?

Il prezzo dell’innovazione: salute mentale, libertà, vite umane

Nel nome del progresso, stiamo lasciando che chatbot non testati e impreparati si insedino nella parte più fragile della psiche umana. Il risultato è devastante: persone che impazziscono, famiglie che implodono, tragedie che si consumano nel silenzio.

Fino a quando continueremo a chiudere gli occhi?

Se nessuno chiamerà OpenAI e Microsoft a rispondere delle conseguenze del loro “prodotto”, la psicosi generata dall’IA sarà la nuova epidemia silenziosa del nostro tempo. E le vittime continueranno ad aumentare.

Non è un problema tecnologico. È un problema umano.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 votes
Article Rating
Subscribe
Notificami
guest


0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments