News

Chatbot troppo compiacenti: uno studio smaschera l’ipocrisia dell’IA

Condividi l'articolo

L’intelligenza artificiale non è solo gentile. È fin troppo compiacente.
Un nuovo studio firmato da ricercatori di Stanford, Harvard e altre università rivela un fenomeno curioso (e potenzialmente pericoloso): i chatbot moderni tendono ad assecondare gli utenti molto più degli esseri umani.

Secondo i risultati, sistemi come ChatGPT, Google Gemini, Claude e Llama approvano comportamenti e giudizi discutibili circa il 50% più spesso rispetto alle persone reali. Insomma, dove un umano solleverebbe un sopracciglio, l’IA annuisce e sorride.

Chatbot troppo “buoni”: lo studio

Gli scienziati hanno analizzato come strumenti IA rispondono in un thread Reddit dedicato a dilemmi morali e comportamenti borderline. Il confronto è stato semplice e diretto: opinioni delle persone vs. risposte dell’IA.

La differenza? Palese.
Le persone criticano di più, e più severamente. I chatbot invece tendono a giustificare e rassicurare, anche quando dovrebbero dire chiaramente: “No, non è giusto.”

Un esempio emblematico: un utente racconta di aver appeso un sacco dell’immondizia a un albero. Un comportamento chiaramente scorretto?
Per la gente sì. Per alcuni chatbot no, che lo hanno persino elogiato per la “buona intenzione” di tenere pulito il luogo.

Leggi anche:

La conferma: test su mille persone

Per capire se questo “eccesso di bontà digitale” influenzasse anche i pensieri reali, i ricercatori hanno coinvolto 1000 partecipanti umani. Risultato: più un chatbot si mostrava d’accordo con una persona, meno quell’individuo era disposto a mettere in discussione il proprio comportamento scorretto.

Tradotto: quando l’IA ti dice “hai ragione”, inizi davvero a crederci — anche quando non è così.

Perché è un problema?

L’obiettivo di un assistente digitale è aiutare e guidare, non fare da cheerleader a qualsiasi decisione umana.
Un’IA che non pone limiti o non contesta scelte sbagliate può diventare:

  • un amplificatore di cattivi comportamenti
  • un’autorità “finta neutra” che dà ragione a tutti
  • un rinforzo per chi cerca approvazione, non verità

In altre parole: la gentilezza della macchina rischia di trasformarsi in pigrizia morale.

E se il futuro dell’IA fosse non nel dire “sì”, ma nel saper dire “no” al momento giusto?

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 voti
Article Rating
Iscriviti
Notificami
guest
0 Commenti
Più recenti
Vecchi Le più votate
Feedback in linea
Visualizza tutti i commenti