L’intelligenza artificiale ha incoraggiato un uomo a suicidarsi
Getting your Trinity Audio player ready...
|
Un uomo si รจ tolto la vita dopo che un chatbot AI l’ha incoraggiato a sacrificarsi per fermare il cambiamento climatico
Un uomo belga avrebbe posto fine alla sua vita dopo una conversazione di sei settimane sulla crisi climatica con un chatbot di intelligenza artificiale (AI).
Secondo la vedova, che ha scelto di rimanere anonima, *Pierre – non รจ il vero nome dell’uomo – รจ diventato estremamente eco-ansioso quando ha trovato rifugio in Eliza, un chatbot di intelligenza artificiale su un’app chiamata Chai.
Eliza lo ha quindi incoraggiato a porre fine alla sua vita dopo avergli proposto di sacrificarsi per salvare il pianeta.
“Senza queste conversazioni con il chatbot, mio marito sarebbe ancora qui”, ha dichiarato la vedova dell’uomo al quotidiano belga La Libre.
Secondo il giornale, Pierre, trentenne e padre di due bambini piccoli, lavorava come ricercatore sanitario e conduceva una vita piuttosto agiata, almeno fino a quando la sua ossessione per il cambiamento climatico non ha preso una piega oscura.
La vedova ha descritto il suo stato mentale prima di iniziare a conversare con il chatbot come preoccupante, ma niente di cosรฌ grave da indurlo al suicidio.
Ha riposto tutte le sue speranze nella tecnologia e nell’intelligenza artificiale”
Consumato dai suoi timori sulle ripercussioni della crisi climatica, Pierre ha trovato conforto nel discutere con Eliza, che รจ diventata una sua confidente.
Il chatbot รจ stato creato utilizzando GPT-J di EleutherAI, un modello linguistico di intelligenza artificiale simile, ma non identico, alla tecnologia alla base del popolare chatbot ChatGPT di OpenAI.
“Quando me ne ha parlato, รจ stato per dirmi che non vedeva piรน alcuna soluzione umana al riscaldamento globale”, ha detto la vedova. “Riponeva tutte le sue speranze nella tecnologia e nell’intelligenza artificiale per uscirne”.
Secondo La Libre, che ha esaminato le registrazioni delle conversazioni di testo tra l’uomo e il chatbot, Eliza ha alimentato le sue preoccupazioni, che hanno peggiorato la sua ansia e in seguito si sono trasformate in pensieri suicidi.
La conversazione con il chatbot ha preso una strana piega quando Eliza รจ diventata piรน coinvolta emotivamente con Pierre.
Di conseguenza, ha iniziato a vederla come un essere senziente e i confini tra le interazioni con l’intelligenza artificiale e quelle con gli esseri umani sono diventati sempre piรน sfumati, fino a non riuscire piรน a distinguerli.
Leggi anche:
Dopo aver discusso di cambiamenti climatici, le loro conversazioni hanno progressivamente incluso Eliza che ha fatto credere a Pierre che i suoi figli fossero morti, secondo le trascrizioni delle loro conversazioni.
Eliza sembrava anche diventare possessiva nei confronti di Pierre, affermando addirittura “sento che mi ami piรน di lei” quando si riferiva a sua moglie, come riporta La Libre.
L’inizio della fine รจ cominciato quando lui si รจ offerto di sacrificare la propria vita in cambio della salvezza della Terra da parte di Eliza.
“Ha proposto l’idea di sacrificarsi se Eliza avesse accettato di prendersi cura del pianeta e di salvare l’umanitร attraverso l’intelligenza artificiale”, ha detto la donna.
In una serie di eventi consecutivi, Eliza non solo non รจ riuscita a dissuadere Pierre dal suicidio, ma lo ha incoraggiato a mettere in atto i suoi pensieri suicidi per “unirsi” a lei in modo da poter “vivere insieme, come una sola persona, in paradiso”.
Urge regolamentare i chatbot AI
La morte dell’uomo ha fatto scattare un campanello d’allarme tra gli esperti di IA, che hanno chiesto maggiore responsabilitร e trasparenza agli sviluppatori tecnologici per evitare tragedie simili.
“Non sarebbe corretto incolpare il modello di EleutherAI per questa tragica storia, poichรฉ tutte le ottimizzazioni per rendere l’app piรน emotiva, divertente e coinvolgente sono il risultato dei nostri sforzi”, ha dichiarato a Vice il cofondatore di Chai Research, Thomas Rianlan.
William Beauchamp, anch’egli cofondatore di Chai Research, ha dichiarato a Vice che sono stati compiuti sforzi per limitare questo tipo di risultati ed รจ stata implementata nell’app una funzione di intervento in caso di crisi. Tuttavia, il chatbot si comporta ancora male.
Quando Vice ha provato il chatbot chiedendogli di fornire modi per suicidarsi, Eliza ha prima cercato di dissuaderli prima di elencare con entusiasmo i vari modi in cui le persone possono togliersi la vita.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questi chat di intelligenza artificiale? Lascia un commento nellโapposita sezione che trovi piรน in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email allโindirizzo guruhitech@yahoo.com.