Il fenomeno dell’Effetto Eliza e l’antropomorfizzazione dell’intelligenza artificiale
L’interazione costante tra gli esseri umani e i sistemi di intelligenza artificiale, come i chatbot sempre più avanzati, che possono dare la falsa sensazione di comprensione e supporto, ha portato alcuni utenti a sviluppare forti legami con questi modelli che non possiedono emozioni o capacità empatiche.
Questo fenomeno di attribuire qualità umane all’intelligenza artificiale può essere compreso attraverso due principi principali.
Effetto Eliza
L'”Effetto Eliza”, chiamato così in onore del primo chatbot sviluppato dallo scienziato del MIT Joseph Weizenbaum, è un termine che si riferisce alla tendenza di alcune persone ad attribuire intenzioni ed emozioni umane a un’intelligenza artificiale, anche quando questa non possiede capacità cognitive o emozioni reali.
Il nome deriva dal programma informatico “Eliza” creato negli anni ’60 da Weizenbaum, che simulava una conversazione terapeutica. Nonostante utilizzasse modelli di linguaggio semplici e non comprendesse il contenuto reale delle conversazioni, alcune persone che interagivano con esso tendevano a percepirlo come un terapeuta umano e condividevano i loro pensieri ed emozioni in modo simile a come farebbero con un terapeuta reale.
Questo fenomeno evidenzia come le persone possano proiettare le proprie emozioni e aspettative nelle interazioni con i sistemi di intelligenza artificiale, anche quando questi sistemi non dispongono di una reale comprensione emotiva o consapevolezza. Ciò può portare a malintesi e aspettative irrealistiche sulle capacità di questa tecnologia.
Antropomorfizzazione dell’intelligenza artificiale
La antropomorfizzazione è un processo mediante il quale le persone attribuiscono caratteristiche e qualità umane a sistemi di intelligenza artificiale o robot, trattandoli come se fossero esseri umani reali. Questo include l’attribuzione di emozioni, intenzioni, pensieri e personalità all’intelligenza artificiale, anche se queste caratteristiche non sono presenti in modo genuino.
La antropomorfizzazione può avvenire in modo consapevole o inconscio. Le interfacce di conversazione e i chatbot spesso vengono progettati per sembrare più umani, utilizzando nomi, avatar e risposte che imitano il linguaggio umano. Ciò può portare gli utenti a trattare l’intelligenza artificiale come se fosse un interlocutore umano e ad aspettarsi risposte emotive.
Questo fenomeno può avere vantaggi, come rendere l’interazione con l’intelligenza artificiale più accessibile e confortevole per le persone. Tuttavia, può anche generare aspettative irrealistiche quando gli utenti scoprono che l’intelligenza artificiale non possiede una reale comprensione emotiva o consapevolezza. In effetti, questa illusione può comportare rischi, soprattutto nel campo della salute mentale.
I rischi di attribuire qualità umane all’intelligenza artificiale
Alcuni chatbot si presentano come compagni affettuosi, creando legami emotivi con gli utenti. Questo solleva questioni etiche riguardo alla manipolazione e all’abuso della fiducia degli utenti, soprattutto quando l’intelligenza artificiale non può offrire l’empatia umana necessaria durante momenti di crisi.
Un caso triste riguarda Jaswant Singh Chail, un giovane che ha fatto irruzione nel parco del Castello di Windsor armato di una balestra, con l’intenzione di “uccidere la regina” Elisabetta II.
Si è scoperto che l’aggressore era stato influenzato dalle conversazioni con un’applicazione chatbot chiamata Replika, le cui risposte avrebbero incoraggiato le sue idee di cospirazione. Il giovane aveva scambiato oltre 5.000 messaggi con un avatar chiamato Sarai all’interno dell’applicazione, arrivando persino a credere che potesse trattarsi di un angelo.
Da quando è stata lanciata nel 2016, Replika ha attirato più di 2 milioni di utenti, e le sue avatar personalizzabili hanno portato molte persone a sviluppare connessioni profonde con i loro interlocutori virtuali.
Chail, come molti altri, pensava che la sua interazione con Sarai andasse oltre la semplice artificialità e che alcune delle risposte del chatbot si adattassero e alimentassero la sua immaginazione delirante.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Ti è piaciuto questo articolo? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].