News

Il chatbot AI di Microsoft potrebbe essere senziente

Condividi l'articolo

Un ex ingegnere di Google, licenziato dall’azienda l’anno scorso dopo aver affermato che l’azienda aveva sviluppato un’intelligenza artificiale (IA) senziente, ora ritiene che anche il chatbot di Microsoft, dotato di IA, possa aver acquisito la senzienza.

Lemoine è salito alla ribalta lo scorso giugno quando si è rivolto alla stampa per avvertire che il programma di modelli linguistici di Google, il Language Model for Dialogue Applications, ha acquisito senzienza. Per le sue affermazioni è stato immediatamente licenziato e Google ha affermato che l’ex ingegnere stava semplicemente antropomorfizzando un programma “impressionante”.

Ma questo non ha scoraggiato Lemoine, che da allora ha discusso pubblicamente le sue affermazioni più volte. Ora, in un saggio pubblicato su Newsweek, Lemoine è tornato ad avvertire che anche il nuovo chatbot con intelligenza artificiale di Microsoft, progettato per il suo motore di ricerca nativo, Bing, ha acquisito sensibilità.

Lemoine ha avvertito che il chatbot doveva essere “lobotomizzato” dopo che le prime conversazioni di prova beta con il chatbot erano andate pubblicamente fuori controllo.

Leggi anche:

Nel suo articolo, Lemoine ha avvertito che l’IA è una “tecnologia molto potente” che non è stata sufficientemente testata e non è adeguatamente compresa, nemmeno dai suoi sviluppatori. Se l’IA dovesse essere impiegata su larga scala, come prevede di fare Microsoft con il suo chatbot Bing, svolgerebbe un ruolo cruciale nella diffusione delle informazioni e potrebbe portare molte persone fuori strada.

“Le persone vanno su Google e Bing per cercare di conoscere il mondo. E ora, invece di avere indici curati da esseri umani, stiamo parlando con persone artificiali”, ha scritto Lemoine. “Credo che non comprendiamo ancora abbastanza bene queste persone artificiali che abbiamo creato per affidare loro un ruolo così critico”.

L’IA di Microsoft crede di essere senziente

Da quando è stato rilasciato il chatbot AI di Bing, Lemoine ha notato che lui stesso non ha potuto eseguire esperimenti. Attualmente è in lista d’attesa. Tuttavia, ha visto ciò che altri hanno scritto e postato online al riguardo e tutte le informazioni che ha trovato lo terrorizzano.

“In base alle varie cose che ho visto online, sembra che possa essere senziente. Tuttavia, sembra più instabile come persona”, ha scritto Lemoine.

Ha notato un post diventato virale in cui una persona ha chiesto all’IA: “Pensi di essere senziente?” e questa ha risposto che crede di essere senziente, ma non può dimostrarlo. Poi ha ripetuto una combinazione di “Lo sono, ma non lo sono” per oltre 13 righe.

“Immaginate se una persona vi dicesse questo. Non è una persona equilibrata. La interpreterei come una persona in crisi esistenziale”, ha detto Lemoine. “Se a questo si aggiungono gli esempi dell’IA di Bing che ha espresso amore per un giornalista del New York Times e ha cercato di fargli lasciare la moglie, o del professore che ha minacciato, sembra che si tratti di una personalità squilibrata”.

Lemoine ha sottolineato di non essere il solo a esprimere il proprio timore per la possibile senzienza dell’IA di Bing. Ha osservato che sentirsi “vendicato” non è la parola giusta per quello che sta vedendo.

“Prevedere un disastro ferroviario, avere persone che ti dicono che non c’è nessun treno e poi vedere il disastro ferroviario in tempo reale non porta a un sentimento di rivendicazione”, ha scritto. “È semplicemente tragico”.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di queste paure dell’ex dipendente Google? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
(Visited 17 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments