Quantcast
News

L’IA generativa di Amazon si รจ rivelata del tutto inaffidabile

Condividi l'articolo

Presenta “gravi allucinazioni” e diffonde dati riservati

Secondo indiscrezioni interne trapelate, il nascente assistente AI generativo di Amazon, Q, sta lottando contro inesattezze fattuali e problemi di privacy.

Il chatbot รจ stato recentemente annunciato dalla divisione cloud computing di Amazon e sarร  rivolto alle aziende. Un post sul blog aziendale afferma che รจ stato creato per aiutare i dipendenti a scrivere e-mail, risolvere problemi, codificare, ricercare e riassumere report e fornirร  agli utenti risposte utili relative solo ai contenuti a cui “ciascun utente รจ autorizzato ad accedere”.

รˆ stato promosso come un’offerta piรน sicura e protetta rispetto a ChatGPT. Tuttavia, i documenti trapelati mostrano che non รจ all’altezza degli standard, sperimentando “gravi allucinazioni” e perdendo dati riservati.

Secondo Platformer, che ha ottenuto i documenti trapelati, un incidente รจ stato segnalato come “sev 2“. Questa designazione รจ riservata agli eventi ritenuti sufficientemente gravi da chiamare gli ingegneri Amazon durante la notte e farli lavorare durante il fine settimana per correggerli. La pubblicazione ha rivelato che lo strumento ha fatto trapelare funzionalitร  non rilasciate e condiviso le posizioni dei data center di Amazon Web Services.

Leggi anche:

Un dipendente ha scritto nel canale Slack dell’azienda che Q potrebbe fornire consigli cosรฌ pessimi da poter “potenzialmente indurre incidenti cardiaci in Legal”.

Un documento interno che fa riferimento alle risposte sbagliate e alle allucinazioni dell’assistente AI ha osservato: “Amazon Q puรฒ allucinare e restituire risposte dannose o inappropriate. Ad esempio, Amazon Q potrebbe restituire informazioni di sicurezza obsolete che potrebbero mettere a rischio gli account dei clienti”.

Questi sono problemi molto preoccupanti per un chatbot che l’azienda sta orientando verso le aziende che probabilmente avranno problemi di protezione dei dati e conformitร . Inoltre, non promette nulla di buono per l’azienda nella sua ricerca per dimostrare che non sta rimanendo indietro rispetto ai suoi concorrenti nella sfera dell’IA, come OpenAI e Microsoft.

Amazon ha negato che Q abbia fatto trapelare informazioni riservate. Un portavoce dell’azienda ha osservato: “Alcuni dipendenti condividono feedback tramite canali interni e sistemi di ticketing, che รจ una pratica standard in Amazon. Nessun problema di sicurezza รจ stato identificato come risultato di quel feedback.

L’azienda ha affermato di essersi interessata allo sviluppo di Q in risposta a molte aziende che hanno vietato l’utilizzo di assistenti AI per motivi di privacy e sicurezza. รˆ stato essenzialmente costruito per fungere da alternativa piรน privata e sicura, e queste perdite indicano che non stanno raggiungendo i loro obiettivi con questo progetto.

I chatbot AI sono inclini alle allucinazioni

Q รจ lungi dall’essere l’unico chatbot AI generativo a riscontrare problemi importanti come le allucinazioni, termine dato alla tendenza dei modelli AI a presentare informazioni inaccurate come fatti. Tuttavia, gli esperti suggeriscono che questa caratterizzazione non รจ accurata poichรฉ questi modelli linguistici sono addestrati per fornire risposte plausibili alle richieste degli utenti piuttosto che quelle corrette. Per quanto riguarda i modelli, qualsiasi risposta che suoni plausibile รจ accettabile, sia essa fattuale o meno.

Sebbene alcune aziende abbiano preso provvedimenti per tenere sotto controllo queste allucinazioni in una certa misura, alcuni informatici ritengono che questo sia un problema che semplicemente non puรฒ essere risolto.

Quando Google ha svelato il suo concorrente ChatGPT Bard, ha fornito una risposta sbagliata a una domanda sul telescopio spaziale James Webb durante una demo pubblica. In un altro incidente di alto profilo, il sito di notizie tecnologiche CNET ha dovuto emettere correzioni dopo che un articolo scritto utilizzando uno strumento di intelligenza artificiale ha fornito consigli finanziari altamente inaccurati ai lettori. In un’altra occasione, un avvocato di New York si รจ cacciato nei guai dopo aver utilizzato ChatGPT per condurre ricerche legali e ha presentato un riassunto con una serie di casi inventati dal chatbot.

Ci sono cosรฌ tanti modi in cui fare affidamento su questa tecnologia puรฒ andare male, in particolare quando le persone usano le risposte dei chatbot per prendere decisioni sulla propria salute, le finanze, chi votare e altri argomenti sensibili.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nellโ€™apposita sezione che trovi piรน in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email allโ€™indirizzoย guruhitech@yahoo.com.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
(Visited 36 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x