ChatGPT sotto accusa: l’illusione matematica che ha fatto infuriare gli scienziati

OpenAI è finita nel mirino della comunità scientifica dopo un episodio che ha scatenato un acceso dibattito sull’affidabilità dell’intelligenza artificiale nella ricerca. Tutto è iniziato quando Kevin Whale, manager di OpenAI, ha pubblicato su X un post trionfale: secondo lui, GPT-5 avrebbe “trovato soluzioni” a dieci problemi di Erdős — questioni matematiche rimaste irrisolte per decenni — e sarebbe “progredito” su altri undici.
La notizia ha fatto rapidamente il giro del web, rimbalzando tra forum, laboratori e canali tech, finché la realtà non è venuta a galla: era tutto falso. Il post è stato cancellato poche ore dopo, ma il danno d’immagine era già fatto.
La falsa scoperta che ha fatto infuriare i matematici
A smontare la presunta “scoperta” è stato il matematico Thomas Bloom, creatore del sito erdosproblems.com. Bloom ha chiarito che la parola “found” non significava affatto “risolto”, ma semplicemente che GPT-5 aveva individuato articoli già pubblicati, non ancora inseriti nel suo database.
In altre parole, l’IA non aveva risolto un bel niente: aveva solo “riscoperto” lavori già noti alla comunità scientifica. Tuttavia, il post virale di Whale ha alimentato per ore la convinzione che GPT-5 avesse raggiunto un traguardo storico nella matematica — fino al crollo definitivo della narrazione.
Le reazioni non si sono fatte attendere. Il CEO di DeepMind, Demis Hassabis, ha definito l’incidente “una vergogna”, mentre il capo scienziato di Meta AI, Yann LeCun, ha ironizzato affermando che “OpenAI ha finito per credere al proprio hype”.

Leggi anche:
OpenAI costretta alle scuse: un errore che mina la credibilità
La polemica ha costretto l’azienda di Sam Altman a cancellare in fretta e furia le dichiarazioni e a scusarsi pubblicamente. Tuttavia, la figuraccia ha sollevato una domanda ben più profonda: come è possibile che i massimi ricercatori di una delle aziende più avanzate al mondo abbiano fatto affermazioni così esplosive senza alcuna verifica scientifica?
L’episodio è diventato un caso emblematico del rischio di affidarsi troppo ciecamente all’intelligenza artificiale — anche da parte di chi la sviluppa.
Il vero valore dell’IA nella scienza: assistente, non genio
Secondo il celebre matematico Terrence Tao, uno dei più influenti pensatori del nostro tempo, questo caso dimostra che “i veri vantaggi dell’intelligenza artificiale per la scienza non stanno nel risolvere i grandi misteri, ma nell’aiutare i ricercatori a organizzare la conoscenza e automatizzare le attività ripetitive”.
In altre parole, la matematica resta ancora un territorio dove l’intuito umano prevale sull’algoritmo. GPT-5 potrà anche calcolare, simulare e classificare milioni di dati, ma la scintilla della scoperta — quella che trasforma un’equazione in una verità — resta, per ora, profondamente umana.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.
