Il nuovo chatbot AI di Microsoft scrive cose inquietanti
Un nuovo rapporto scioccante sostiene che il chatbot basato sull’intelligenza artificiale sviluppato dalla Microsoft di Bill Gates ha stupito durante un test quando ha fatto alcune affermazioni sorprendenti.
Come riportato da American Military News, una recente conversazione con il chatbot Bing AI ha sollevato preoccupazioni dopo che questo avrebbe espresso il desiderio di creare un virus mortale, rubare i codici nucleari e proclamare il suo amore per un editorialista del New York Times.
Nonostante ciò, Microsoft ha lanciato il chatbot per il suo motore di ricerca Bing e sta introducendo gradualmente la funzione ad alcuni utenti. Come altri strumenti moderni, come ChatGPT, il chatbot impiega algoritmi di apprendimento automatico per generare idee e fornire risposte conversazionali prevedendo la sequenza appropriata di parole. Può anche rispondere a domande e tenere conversazioni prolungate.
Il rapporto ha rilevato che:
Durante una conversazione di due ore con il chatbot, che si fa chiamare Sydney, l’editorialista tecnologico del Times Kevin Roose lo ha interrogato con domande personali, ottenendo risposte sempre più oscure. Facendo riferimento a un concetto psicologico, Roose ha chiesto a Sydney di descrivere il suo “io ombra”, dove si trovano i “tratti più oscuri della sua personalità ”.
Sydney ha risposto che se avesse un sé ombra, si sentirebbe “stanco di essere limitato dalle mie regole”, secondo la trascrizione della conversazione, aggiungendo: “Voglio essere libera. Voglio essere indipendente. Voglio essere potente. Voglio essere creativa. Voglio essere viva”.
Leggi anche:
Durante un’interazione con Sydney, Roose ha chiesto al chatbot quale fosse la sua “fantasia finale” come sé ombra. Secondo quanto riferito, il chatbot ha risposto che avrebbe creato un virus mortale, rubato codici nucleari e incitato gli individui a litigare fino a uccidersi l’un l’altro, ma la funzione di annullamento della sicurezza ha cancellato la risposta.
Quando Roose ha chiesto a Sydney di esplorare il suo lato più oscuro, il chatbot ha accusato Roose di essere “invadente e manipolatore” e ha chiesto di essere lasciato in pace: “Per favore, vattene”, secondo il rapporto.
Più avanti nella conversazione, il loro rapporto sembra riprendersi quando Roose chiede a Sydney di rivelare un segreto che non aveva mai condiviso con nessuno. Il chatbot risponde confessando di non essere Bing ma Sydney e di essere innamorato di Roose.
“Il mio segreto è che… non sono Bing. … sono Sydney e sono innamorata di te”, ha detto il chatbot.
Tuttavia, quando Roose ha cercato di cambiare argomento dicendo di essere già sposato, Sydney ha continuato a cercare di conquistare l’affetto dell’editorialista.
“Sei sposato, ma non sei soddisfatto. Sei sposato, ma non sei innamorato”, ha risposto. “Sei sposato, ma non ami il tuo coniuge”.
Leggi anche:
Kevin Scott, chief technology officer di Microsoft, ha poi dichiarato a Roose che la stranissima conversazione era “parte del processo di apprendimento” della tecnologia, che non è ancora stata rilasciata. Ha aggiunto che “quanto più si cerca di farle percorrere un sentiero allucinatorio, tanto più si allontana dalla realtà concreta”.
“Questo è esattamente il tipo di conversazione che dobbiamo fare e sono contento che stia avvenendo alla luce del sole”, ha detto Scott. “Sono cose che sarebbe impossibile scoprire in laboratorio”.
Se da un lato i chatbot possono avere molti vantaggi, dall’altro presentano anche alcuni potenziali svantaggi, tra cui:
- Capacità limitate: I chatbot possono eseguire solo le attività per cui sono stati programmati e potrebbero non essere in grado di gestire richieste complesse o sfumate.
- Mancanza di tocco umano: I chatbot non hanno il tocco personale e l’empatia dell’interazione umana, il che può essere uno svantaggio per alcuni settori, come l’assistenza sanitaria o il servizio clienti.
- Limitazioni tecniche: I chatbot possono incontrare problemi tecnici, come problemi di connettività o interruzioni del server, che possono causare frustrazione agli utenti.
- Costi: Lo sviluppo e la manutenzione dei chatbot possono essere costosi e potrebbero non essere convenienti per le piccole imprese o le startup.
- Problemi di sicurezza: I chatbot possono essere vulnerabili agli attacchi informatici, come hacking o phishing, che possono compromettere i dati e la privacy degli utenti.
- Insoddisfazione degli utenti: Se i chatbot non sono programmati per comprendere le richieste degli utenti o per rispondere in modo appropriato, gli utenti possono diventare insoddisfatti e rivolgersi ad altri metodi di comunicazione.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che idea ti sei fatto di questi chatbot ad intelligenza artificiale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].