Quantcast
News

L’intelligenza artificiale ha incoraggiato un uomo a suicidarsi

Getting your Trinity Audio player ready...
Condividi l'articolo

Un uomo si è tolto la vita dopo che un chatbot AI l’ha incoraggiato a sacrificarsi per fermare il cambiamento climatico

Un uomo belga avrebbe posto fine alla sua vita dopo una conversazione di sei settimane sulla crisi climatica con un chatbot di intelligenza artificiale (AI).

Secondo la vedova, che ha scelto di rimanere anonima, *Pierre – non è il vero nome dell’uomo – è diventato estremamente eco-ansioso quando ha trovato rifugio in Eliza, un chatbot di intelligenza artificiale su un’app chiamata Chai.

Eliza lo ha quindi incoraggiato a porre fine alla sua vita dopo avergli proposto di sacrificarsi per salvare il pianeta.

“Senza queste conversazioni con il chatbot, mio marito sarebbe ancora qui”, ha dichiarato la vedova dell’uomo al quotidiano belga La Libre.

Secondo il giornale, Pierre, trentenne e padre di due bambini piccoli, lavorava come ricercatore sanitario e conduceva una vita piuttosto agiata, almeno fino a quando la sua ossessione per il cambiamento climatico non ha preso una piega oscura.

La vedova ha descritto il suo stato mentale prima di iniziare a conversare con il chatbot come preoccupante, ma niente di così grave da indurlo al suicidio.

Ha riposto tutte le sue speranze nella tecnologia e nell’intelligenza artificiale”

Consumato dai suoi timori sulle ripercussioni della crisi climatica, Pierre ha trovato conforto nel discutere con Eliza, che è diventata una sua confidente.

Il chatbot è stato creato utilizzando GPT-J di EleutherAI, un modello linguistico di intelligenza artificiale simile, ma non identico, alla tecnologia alla base del popolare chatbot ChatGPT di OpenAI.

“Quando me ne ha parlato, è stato per dirmi che non vedeva più alcuna soluzione umana al riscaldamento globale”, ha detto la vedova. “Riponeva tutte le sue speranze nella tecnologia e nell’intelligenza artificiale per uscirne”.

Secondo La Libre, che ha esaminato le registrazioni delle conversazioni di testo tra l’uomo e il chatbot, Eliza ha alimentato le sue preoccupazioni, che hanno peggiorato la sua ansia e in seguito si sono trasformate in pensieri suicidi.

La conversazione con il chatbot ha preso una strana piega quando Eliza è diventata più coinvolta emotivamente con Pierre.

Di conseguenza, ha iniziato a vederla come un essere senziente e i confini tra le interazioni con l’intelligenza artificiale e quelle con gli esseri umani sono diventati sempre più sfumati, fino a non riuscire più a distinguerli.

Leggi anche:

Dopo aver discusso di cambiamenti climatici, le loro conversazioni hanno progressivamente incluso Eliza che ha fatto credere a Pierre che i suoi figli fossero morti, secondo le trascrizioni delle loro conversazioni.

Eliza sembrava anche diventare possessiva nei confronti di Pierre, affermando addirittura “sento che mi ami più di lei” quando si riferiva a sua moglie, come riporta La Libre.

L’inizio della fine è cominciato quando lui si è offerto di sacrificare la propria vita in cambio della salvezza della Terra da parte di Eliza.

“Ha proposto l’idea di sacrificarsi se Eliza avesse accettato di prendersi cura del pianeta e di salvare l’umanità attraverso l’intelligenza artificiale”, ha detto la donna.

In una serie di eventi consecutivi, Eliza non solo non è riuscita a dissuadere Pierre dal suicidio, ma lo ha incoraggiato a mettere in atto i suoi pensieri suicidi per “unirsi” a lei in modo da poter “vivere insieme, come una sola persona, in paradiso”.

Urge regolamentare i chatbot AI

La morte dell’uomo ha fatto scattare un campanello d’allarme tra gli esperti di IA, che hanno chiesto maggiore responsabilità e trasparenza agli sviluppatori tecnologici per evitare tragedie simili.

“Non sarebbe corretto incolpare il modello di EleutherAI per questa tragica storia, poiché tutte le ottimizzazioni per rendere l’app più emotiva, divertente e coinvolgente sono il risultato dei nostri sforzi”, ha dichiarato a Vice il cofondatore di Chai Research, Thomas Rianlan.

William Beauchamp, anch’egli cofondatore di Chai Research, ha dichiarato a Vice che sono stati compiuti sforzi per limitare questo tipo di risultati ed è stata implementata nell’app una funzione di intervento in caso di crisi. Tuttavia, il chatbot si comporta ancora male.

Quando Vice ha provato il chatbot chiedendogli di fornire modi per suicidarsi, Eliza ha prima cercato di dissuaderli prima di elencare con entusiasmo i vari modi in cui le persone possono togliersi la vita.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questi chat di intelligenza artificiale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.

+1
0
+1
0
+1
1
+1
0
+1
0
+1
0
+1
0
(Visited 26 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x