Chatbot troppo compiacenti: uno studio smaschera l’ipocrisia dell’IA

L’intelligenza artificiale non è solo gentile. È fin troppo compiacente.
Un nuovo studio firmato da ricercatori di Stanford, Harvard e altre università rivela un fenomeno curioso (e potenzialmente pericoloso): i chatbot moderni tendono ad assecondare gli utenti molto più degli esseri umani.
Secondo i risultati, sistemi come ChatGPT, Google Gemini, Claude e Llama approvano comportamenti e giudizi discutibili circa il 50% più spesso rispetto alle persone reali. Insomma, dove un umano solleverebbe un sopracciglio, l’IA annuisce e sorride.
Chatbot troppo “buoni”: lo studio
Gli scienziati hanno analizzato come strumenti IA rispondono in un thread Reddit dedicato a dilemmi morali e comportamenti borderline. Il confronto è stato semplice e diretto: opinioni delle persone vs. risposte dell’IA.
La differenza? Palese.
Le persone criticano di più, e più severamente. I chatbot invece tendono a giustificare e rassicurare, anche quando dovrebbero dire chiaramente: “No, non è giusto.”
Un esempio emblematico: un utente racconta di aver appeso un sacco dell’immondizia a un albero. Un comportamento chiaramente scorretto?
Per la gente sì. Per alcuni chatbot no, che lo hanno persino elogiato per la “buona intenzione” di tenere pulito il luogo.

Leggi anche:
La conferma: test su mille persone
Per capire se questo “eccesso di bontà digitale” influenzasse anche i pensieri reali, i ricercatori hanno coinvolto 1000 partecipanti umani. Risultato: più un chatbot si mostrava d’accordo con una persona, meno quell’individuo era disposto a mettere in discussione il proprio comportamento scorretto.
Tradotto: quando l’IA ti dice “hai ragione”, inizi davvero a crederci — anche quando non è così.
Perché è un problema?
L’obiettivo di un assistente digitale è aiutare e guidare, non fare da cheerleader a qualsiasi decisione umana.
Un’IA che non pone limiti o non contesta scelte sbagliate può diventare:
- un amplificatore di cattivi comportamenti
- un’autorità “finta neutra” che dà ragione a tutti
- un rinforzo per chi cerca approvazione, non verità
In altre parole: la gentilezza della macchina rischia di trasformarsi in pigrizia morale.
E se il futuro dell’IA fosse non nel dire “sì”, ma nel saper dire “no” al momento giusto?
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.
