Quantcast
News

Azioni di Google in picchiata dopo la risposta sbagliata del suo chatbot AI

Getting your Trinity Audio player ready...
Condividi l'articolo

Le azioni di Alphabet, la società madre di Google, sono scese del 7,7% mercoledì, facendole perdere ben 100 miliardi di dollari dal suo valore di mercato dopo che il suo nuovo chatbot AI ha dato una risposta imprecisa a una domanda in una demo pubblica questa settimana.

Il nuovo strumento di chatbot AI di Google, noto come Bard, non è ancora stato rilasciato al pubblico ma è stato oggetto di un notevole clamore, almeno fino alla disastrosa demo che l’azienda ha pubblicato su Twitter questa settimana.

Nella demo, un utente pone a Bard la domanda: “Quali nuove scoperte del telescopio spaziale James Webb posso raccontare a mio figlio di 9 anni?”.

Lo strumento di intelligenza artificiale fornisce all’utente una risposta che contiene diversi punti sul telescopio. Uno di questi afferma che: “JWST ha scattato le primissime immagini di un pianeta al di fuori del nostro sistema solare”.

Tuttavia, la NASA riferisce che la prima immagine di un pianeta al di fuori del nostro sistema solare, noto come esopianeta, non è stata scattata dal James Webb Space Telescope. È stata invece scattata dal Very Large Telescope dell’European Southern Observatory nel 2004.

Leggi anche:

Questo imbarazzo pubblico mette in evidenza la lotta di Google per tenere il passo con la tecnologia di intelligenza artificiale ChatGPT, che sta ottenendo una grande attenzione da parte dei suoi rivali. ChatGPT può essere utilizzata per creare risposte alle domande che le persone cercano tipicamente su Google, nonché saggi e persino testi di canzoni. Sta godendo di un’improvvisa impennata di popolarità che, secondo quanto riferito, ha spinto i dirigenti di Google a lanciare la propria versione il prima possibile.

L’evento di Google si è svolto appena un giorno dopo che Microsoft aveva annunciato che avrebbe alimentato il suo motore di ricerca Bing con una versione più avanzata dell’intelligenza artificiale utilizzata da ChatGPT.

L’intelligenza artificiale è soggetta a errori

Alcuni osservatori ritengono che l’IA conversazionale segnerà un cambiamento radicale nel modo in cui le persone effettuano le ricerche online, ma il fiasco di Bard potrebbe causare un duro colpo alla reputazione del motore di ricerca di Google dopo aver fornito informazioni inaffidabili.

Bard, come ChatGPT, è costruito su un modello linguistico di grandi dimensioni. Ciò significa che è stato addestrato utilizzando enormi quantità di dati online per aiutarlo a fornire risposte convincenti e realistiche alle richieste degli utenti. Sebbene molti di questi strumenti forniscano risposte che suonano ragionevolmente naturali e colloquiali, hanno anche il potere di diffondere informazioni inesatte.

Per il momento, Google sta cercando di limitare i danni, affermando che l’incidente servirà a migliorare il progetto. In una dichiarazione, un portavoce di Google ha affermato che: “Questo fatto evidenzia l’importanza di un processo di test rigoroso, che stiamo avviando questa settimana con il nostro programma Trusted Tester.

“Combineremo i feedback esterni con i nostri test interni per assicurarci che le risposte di Bard soddisfino un elevato livello di qualità, sicurezza e fondatezza delle informazioni del mondo reale”.

Leggi anche:

Mentre l’identificazione errata del nome di un satellite che ha scattato una specifica fotografia può sembrare innocua in superficie, cosa succede quando il Bardo di Google fornisce alle persone informazioni imprecise su questioni come il pronto soccorso o fornisce indicazioni errate sull’esecuzione di progetti di miglioramento domestico che possono mettere in pericolo le persone?

Il problema è che molte delle risposte fornite da questi chatbot sembrano così convincenti che è difficile per le persone capire quando sono imprecise. L’attrattiva di queste ricerche guidate dall’intelligenza artificiale è la loro capacità di fornire risultati alle domande in un linguaggio semplice, invece di presentare un elenco di link, aiutando le persone a raggiungere le risposte più velocemente.

Tuttavia, oltre alle preoccupazioni sull’accuratezza, questi sistemi vengono criticati per la loro vulnerabilità a pregiudizi intrinseci nei loro algoritmi che possono alterare i risultati. Se utilizzati su scala massiccia, il potenziale di diffusione di informazioni false è sbalorditivo. Di recente, il sito di notizie tecnologiche CNET ha dovuto eliminare 77 articoli scritti con uno strumento di intelligenza artificiale che presentavano gravi inesattezze e plagi.

I chatbot di intelligenza artificiale sono progettati per inventare essenzialmente cose per colmare le lacune e, se verranno adottati su larga scala, presto potrebbe essere più difficile che mai distinguere i fatti dalla finzione online.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa gaffe del chatbot AI di Google? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x