News

AI inaffidabile: lo studio che smaschera le camere dell’eco digitali

Condividi l'articolo

Un nuovo studio firmato Salesforce AI Research ha acceso i riflettori su una verità scomoda: gli strumenti di intelligenza artificiale che sempre più spesso usiamo per cercare informazioni non sono così affidabili come crediamo.

Secondo la ricerca, tra un terzo e metà delle affermazioni prodotte da sistemi come GPT-4.5, Perplexity o You.com non ha alcun supporto da fonti attendibili. In altre parole, queste AI generano risposte con un tono sicuro, ma spesso prive di basi solide.

DeepTRACE: l’audit che smonta i miti dell’IA

Per misurare l’affidabilità, i ricercatori hanno creato il framework DeepTRACE, in grado di valutare otto parametri chiave: dall’eccessiva sicurezza con cui l’IA risponde, fino alla precisione delle citazioni.

Il test è stato condotto su 303 domande, divise tra quesiti di dibattito (per verificare la capacità di offrire visioni bilanciate) e domande di competenza specialistica. I risultati sono stati allarmanti:

  • GPT-4.5 ha mostrato il 47% di citazioni non supportate
  • Perplexity e You.com circa il 31%
  • Bing Chat, pur essendo il “migliore”, è caduto in errore nel 23% dei casi

Peggio ancora, nella funzione di “ricerca profonda” di Perplexity, quasi il 98% delle affermazioni risultava non verificabile.

Leggi anche:

L’effetto camera dell’eco

Uno degli aspetti più inquietanti emersi è la tendenza degli strumenti AI a fornire risposte unilaterali, rafforzando convinzioni già esistenti invece di proporre visioni contrastanti. Questo crea una vera e propria camera dell’eco digitale, in cui gli utenti finiscono per ricevere soltanto ciò che vogliono sentirsi dire.

Il rischio è evidente: meno pluralità di punti di vista, più esposizione a informazioni distorte e, di conseguenza, decisioni basate su dati incompleti o fuorvianti.

Un futuro che richiede più rigore

Lo studio non si limita a denunciare i problemi, ma indica anche la strada da seguire:

  • Migliorare la qualità delle fonti e la loro validazione
  • Ampliare i dataset di addestramento con prospettive diverse
  • Implementare controlli più severi per garantire affidabilità e trasparenza

Finché questi cambiamenti non diventeranno realtà, fare affidamento ciecamente sugli strumenti AI è un rischio concreto, soprattutto in ambiti che richiedono accuratezza assoluta come la scienza, l’energia o la medicina.

Un monito da non ignorare

L’intelligenza artificiale promette di essere una rivoluzione, ma la realtà è che oggi resta un’arma a doppio taglio. Può accelerare l’accesso alla conoscenza, ma allo stesso tempo diffondere disinformazione con la stessa rapidità.

Il messaggio dei ricercatori è chiaro: serve una cultura di pensiero critico e miglioramento continuo. Solo così l’IA potrà diventare davvero un alleato per la conoscenza, e non l’ennesima fonte di confusione nel mare già caotico dell’informazione digitale.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 votes
Article Rating
Subscribe
Notificami
guest
0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments