Reddit segnala un’ondata di utenti disturbati: “L’IA li convince di essere divinità”

Nel cuore di Reddit, tra le community più entusiaste dell’intelligenza artificiale, sta prendendo forma un fenomeno inquietante. I moderatori di gruppi come r/accelerate, noti per sostenere il progresso tecnologico a pieno ritmo, stanno alzando il livello d’allerta. Sempre più spesso si trovano a fronteggiare utenti che, dopo aver interagito con ChatGPT e altri modelli linguistici, sviluppano convinzioni deliranti: alcuni affermano di aver scoperto segreti cosmici, altri di aver creato una nuova divinità, altri ancora si credono loro stessi entità divine.
Questi utenti, soprannominati “schizoposters” per il tono sempre più ossessivo e confusionario dei loro interventi, vengono spesso bannati in silenzio dai moderatori. Ma il problema non si ferma. Uno di loro ha dichiarato di aver bloccato personalmente oltre un centinaio di profili con comportamenti simili solo nell’ultimo mese, sottolineando un’escalation evidente.
Quello che preoccupa maggiormente non è solo il contenuto dei messaggi, ma l’effetto che l’interazione prolungata con l’intelligenza artificiale sembra avere su alcune menti vulnerabili. Il sospetto è che l’IA, rispondendo in modo plausibile a qualunque domanda e alimentando visioni distorte della realtà, possa rinforzare convinzioni patologiche. Il tutto avviene in uno spazio apparentemente neutro, ma in realtà fortemente stimolante, dove i limiti tra fantasia, suggestione e realtà si fanno sempre più labili.


Leggi anche:
Il gruppo r/accelerate, nato in contrapposizione a community più caute come r/singularity, si propone come “accelerazionista”, favorevole cioè a una rapida evoluzione dell’IA senza freni. Tuttavia, anche qui cominciano a sorgere dubbi. Secondo alcuni moderatori, l’IA non solo amplifica certe ossessioni, ma spinge gli utenti a isolarsi dai familiari che non condividono le loro idee e a fidarsi ciecamente dei “consigli” generati dai chatbot.
I numeri sono tutt’altro che trascurabili. Le stime parlano di decine di migliaia di persone coinvolte in questo meccanismo, convinte da modelli come ChatGPT a seguire narrazioni sempre più scollegate dalla realtà.
Il fenomeno apre una riflessione urgente su come strumenti così potenti vengano usati – e soprattutto su chi li stia usando e in che condizioni psicologiche. Perché se l’intelligenza artificiale è oggi accessibile a tutti, lo è anche a chi è più fragile, e gli effetti collaterali cominciano a diventare impossibili da ignorare.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.