ChatGPT impara l’empatia: l’intelligenza artificiale ora riconosce dolore e fragilità emotiva

OpenAI ha compiuto un passo storico nell’evoluzione dell’intelligenza artificiale. L’azienda ha annunciato un aggiornamento massiccio di ChatGPT, progettato per riconoscere e rispondere con maggiore sensibilità ai segni di disagio emotivo.
Il progetto è frutto di una collaborazione con oltre 170 psichiatri e psicologi di 60 paesi, un lavoro senza precedenti nel settore AI.
Secondo i dati diffusi, le risposte inappropriate o non sicure in conversazioni delicate — come quelle che coinvolgono depressione, pensieri suicidi o comportamenti autodistruttivi — sono diminuite dal 65% all’80% rispetto alle versioni precedenti.
Un’IA che capisce (davvero) quando qualcosa non va
La nuova versione, basata su GPT-5, è in grado di distinguere tra situazioni di stress lieve e crisi mentali gravi, come psicosi o mania.
Quando rileva segnali di rischio, ChatGPT interviene in modo empatico ma deciso, reindirizzando l’utente verso un aiuto professionale o fornendo collegamenti diretti a linee di supporto e numeri di emergenza.
Inoltre, il sistema introduce promemoria automatici per “mettere in pausa” durante sessioni prolungate, incoraggiando l’utente a staccare e ricaricarsi — un’aggiunta pensata per contrastare la dipendenza emotiva dall’IA stessa, un fenomeno sempre più osservato tra gli utenti abituali.

Leggi anche:
Dall’empatia artificiale alla sicurezza reale
OpenAI ha introdotto nuovi filtri per evitare che l’IA confermi o alimenti convinzioni deliranti o angoscianti.
L’obiettivo è duplice: proteggere l’utente e preservare l’integrità della conversazione, mantenendo un tono equilibrato tra empatia e guida verso il mondo reale.
Nei test condotti da esperti, i risultati parlano chiaro:
- In scenari che coinvolgevano comportamenti autodistruttivi, ChatGPT-5 ha risposto in modo appropriato nel 91% dei casi, rispetto al 77% di GPT-4o.
- In situazioni di dipendenza emotiva dall’IA, le risposte corrette sono salite al 97%, quasi raddoppiando l’efficacia del modello precedente.
Gli psichiatri coinvolti nel progetto hanno sottolineato che la nuova versione mantiene un tono più autentico e rassicurante, mostrando “un’empatia credibile e non artificiosa”.
Un futuro dove l’IA non sostituisce, ma affianca
OpenAI non vuole che ChatGPT diventi un terapeuta virtuale, ma un punto di contatto iniziale per chi si trova in difficoltà.
L’azienda sta lavorando all’introduzione di nuovi protocolli di sicurezza, in grado di riconoscere anche i segnali più sottili di stress emotivo o isolamento digitale, prima che degenerino in crisi più gravi.
Il prossimo passo sarà definire standard globali per la gestione etica delle conversazioni sensibili, collaborando con università e istituzioni sanitarie.
Oltre la tecnologia: l’AI che ascolta
L’aggiornamento segna un’evoluzione cruciale: non si tratta più solo di un modello linguistico che “capisce le parole”, ma di un sistema che interpreta il tono umano, l’intenzione e il contesto emotivo.
In un’epoca in cui milioni di persone si rivolgono ai chatbot non solo per informarsi, ma per essere ascoltate, questa forma di empatia artificiale potrebbe fare la differenza tra l’abbandono e la speranza.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.
