L’IA generativa di Amazon si è rivelata del tutto inaffidabile
Presenta “gravi allucinazioni” e diffonde dati riservati
Secondo indiscrezioni interne trapelate, il nascente assistente AI generativo di Amazon, Q, sta lottando contro inesattezze fattuali e problemi di privacy.
Il chatbot è stato recentemente annunciato dalla divisione cloud computing di Amazon e sarà rivolto alle aziende. Un post sul blog aziendale afferma che è stato creato per aiutare i dipendenti a scrivere e-mail, risolvere problemi, codificare, ricercare e riassumere report e fornirà agli utenti risposte utili relative solo ai contenuti a cui “ciascun utente è autorizzato ad accedere”.
È stato promosso come un’offerta più sicura e protetta rispetto a ChatGPT. Tuttavia, i documenti trapelati mostrano che non è all’altezza degli standard, sperimentando “gravi allucinazioni” e perdendo dati riservati.
Secondo Platformer, che ha ottenuto i documenti trapelati, un incidente è stato segnalato come “sev 2“. Questa designazione è riservata agli eventi ritenuti sufficientemente gravi da chiamare gli ingegneri Amazon durante la notte e farli lavorare durante il fine settimana per correggerli. La pubblicazione ha rivelato che lo strumento ha fatto trapelare funzionalità non rilasciate e condiviso le posizioni dei data center di Amazon Web Services.
Leggi anche:
Un dipendente ha scritto nel canale Slack dell’azienda che Q potrebbe fornire consigli così pessimi da poter “potenzialmente indurre incidenti cardiaci in Legal”.
Un documento interno che fa riferimento alle risposte sbagliate e alle allucinazioni dell’assistente AI ha osservato: “Amazon Q può allucinare e restituire risposte dannose o inappropriate. Ad esempio, Amazon Q potrebbe restituire informazioni di sicurezza obsolete che potrebbero mettere a rischio gli account dei clienti”.
Questi sono problemi molto preoccupanti per un chatbot che l’azienda sta orientando verso le aziende che probabilmente avranno problemi di protezione dei dati e conformità. Inoltre, non promette nulla di buono per l’azienda nella sua ricerca per dimostrare che non sta rimanendo indietro rispetto ai suoi concorrenti nella sfera dell’IA, come OpenAI e Microsoft.
Amazon ha negato che Q abbia fatto trapelare informazioni riservate. Un portavoce dell’azienda ha osservato: “Alcuni dipendenti condividono feedback tramite canali interni e sistemi di ticketing, che è una pratica standard in Amazon. Nessun problema di sicurezza è stato identificato come risultato di quel feedback.
L’azienda ha affermato di essersi interessata allo sviluppo di Q in risposta a molte aziende che hanno vietato l’utilizzo di assistenti AI per motivi di privacy e sicurezza. È stato essenzialmente costruito per fungere da alternativa più privata e sicura, e queste perdite indicano che non stanno raggiungendo i loro obiettivi con questo progetto.
I chatbot AI sono inclini alle allucinazioni
Q è lungi dall’essere l’unico chatbot AI generativo a riscontrare problemi importanti come le allucinazioni, termine dato alla tendenza dei modelli AI a presentare informazioni inaccurate come fatti. Tuttavia, gli esperti suggeriscono che questa caratterizzazione non è accurata poiché questi modelli linguistici sono addestrati per fornire risposte plausibili alle richieste degli utenti piuttosto che quelle corrette. Per quanto riguarda i modelli, qualsiasi risposta che suoni plausibile è accettabile, sia essa fattuale o meno.
Sebbene alcune aziende abbiano preso provvedimenti per tenere sotto controllo queste allucinazioni in una certa misura, alcuni informatici ritengono che questo sia un problema che semplicemente non può essere risolto.
Quando Google ha svelato il suo concorrente ChatGPT Bard, ha fornito una risposta sbagliata a una domanda sul telescopio spaziale James Webb durante una demo pubblica. In un altro incidente di alto profilo, il sito di notizie tecnologiche CNET ha dovuto emettere correzioni dopo che un articolo scritto utilizzando uno strumento di intelligenza artificiale ha fornito consigli finanziari altamente inaccurati ai lettori. In un’altra occasione, un avvocato di New York si è cacciato nei guai dopo aver utilizzato ChatGPT per condurre ricerche legali e ha presentato un riassunto con una serie di casi inventati dal chatbot.
Ci sono così tanti modi in cui fare affidamento su questa tecnologia può andare male, in particolare quando le persone usano le risposte dei chatbot per prendere decisioni sulla propria salute, le finanze, chi votare e altri argomenti sensibili.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.