AI inaffidabile: lo studio che smaschera le camere dell’eco digitali

Un nuovo studio firmato Salesforce AI Research ha acceso i riflettori su una verità scomoda: gli strumenti di intelligenza artificiale che sempre più spesso usiamo per cercare informazioni non sono così affidabili come crediamo.
Secondo la ricerca, tra un terzo e metà delle affermazioni prodotte da sistemi come GPT-4.5, Perplexity o You.com non ha alcun supporto da fonti attendibili. In altre parole, queste AI generano risposte con un tono sicuro, ma spesso prive di basi solide.
DeepTRACE: l’audit che smonta i miti dell’IA
Per misurare l’affidabilità, i ricercatori hanno creato il framework DeepTRACE, in grado di valutare otto parametri chiave: dall’eccessiva sicurezza con cui l’IA risponde, fino alla precisione delle citazioni.
Il test è stato condotto su 303 domande, divise tra quesiti di dibattito (per verificare la capacità di offrire visioni bilanciate) e domande di competenza specialistica. I risultati sono stati allarmanti:
- GPT-4.5 ha mostrato il 47% di citazioni non supportate
- Perplexity e You.com circa il 31%
- Bing Chat, pur essendo il “migliore”, è caduto in errore nel 23% dei casi
Peggio ancora, nella funzione di “ricerca profonda” di Perplexity, quasi il 98% delle affermazioni risultava non verificabile.

Leggi anche:
L’effetto camera dell’eco
Uno degli aspetti più inquietanti emersi è la tendenza degli strumenti AI a fornire risposte unilaterali, rafforzando convinzioni già esistenti invece di proporre visioni contrastanti. Questo crea una vera e propria camera dell’eco digitale, in cui gli utenti finiscono per ricevere soltanto ciò che vogliono sentirsi dire.
Il rischio è evidente: meno pluralità di punti di vista, più esposizione a informazioni distorte e, di conseguenza, decisioni basate su dati incompleti o fuorvianti.
Un futuro che richiede più rigore
Lo studio non si limita a denunciare i problemi, ma indica anche la strada da seguire:
- Migliorare la qualità delle fonti e la loro validazione
- Ampliare i dataset di addestramento con prospettive diverse
- Implementare controlli più severi per garantire affidabilità e trasparenza
Finché questi cambiamenti non diventeranno realtà, fare affidamento ciecamente sugli strumenti AI è un rischio concreto, soprattutto in ambiti che richiedono accuratezza assoluta come la scienza, l’energia o la medicina.
Un monito da non ignorare
L’intelligenza artificiale promette di essere una rivoluzione, ma la realtà è che oggi resta un’arma a doppio taglio. Può accelerare l’accesso alla conoscenza, ma allo stesso tempo diffondere disinformazione con la stessa rapidità.
Il messaggio dei ricercatori è chiaro: serve una cultura di pensiero critico e miglioramento continuo. Solo così l’IA potrà diventare davvero un alleato per la conoscenza, e non l’ennesima fonte di confusione nel mare già caotico dell’informazione digitale.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.