Analizziamo con rigore quanto è successo e soprattutto cosa ci insegna, non da fan né da detrattore, ma da Technologist che guarda il sistema con occhio clinico.
L’episodio di partenza è semplice nella sua clamorosa goffaggine. Un tweet (poi cancellato) di Kevin Weil, VP di OpenAI per la scienza, affermava che GPT-5 avrebbe trovato soluzioni per 10 problemi di Erdős che erano considerati “non risolti”, e avrebbe fatto progressi su altri 11.

Il claim è esploso come fuoco d’artificio, perché promettere che un modello generativo abbia fatto progressi su congetture matematiche storiche è affermazione da titoli fantascientifici.Ma subito è scattata la reazione:
Thomas Bloom, curatore del sito erdosproblems.com, ha risposto che quell’annuncio era «una drammatica distorsione». Spiegava che nei suoi elenchi un problema è “open” semplicemente quando lui personalmente non è a conoscenza di una pubblicazione che ne dia soluzione non che il problema sia effettivamente irrisolto dalla comunità matematica.
In altre parole, GPT-5 non ha scoperto nulla di nuovo: ha trovato riferimenti a soluzioni già note, che Bloom non aveva indicizzato. A questo punto entrano in scena le “grandi firme” del mondo IA: Yann LeCun (Meta) commenta “Hoisted by their own GPTards” (una battuta pungente su “essere impiccati con le proprie munizioni”) riferendosi al paradosso di un annuncio che si ritorce contro chi lo fa.
Demis Hassabis (DeepMind) non usa giri di parole: «this is embarrassing». Il circuito del fango mediatico è servito.Più tardi, Sebastien Bubeck che aveva partecipato alla promozione di quegli annunci ammette che il modello ha “solo trovato soluzioni nella letteratura” e non ha derivato nulla di nuovo. Ma minimizza: “so che è difficile cercare letteratura” tentativo di salvare il salvabile.
Questa serie di mosse e contromosse è istruttiva. Prendo la lente tecnologica e strategica per evidenziare quattro insegnamenti che un CTO (o chiunque viva nel crinale dell’innovazione) deve assorbire.
Primo: la promessa conta tanto quanto la capacità reale. Se annunci che GPT-5 risolve problemi “non risolti”, crei un’aspettativa assurda e inviti la scrutiny matematica. Quando la realtà è “ha trovato un vecchio articolo che tu non conoscevi”, il rimbalzo è distruttivo per credibilità. In quell’annuncio c’era l’effetto “headline spaziale” che offusca il fatto che il bilancio dell’output è modesto.
Secondo: le precisioni contano nelle affermazioni scientifiche. Dire “trovato soluzioni a problemi non risolti” implica produzione originale. Dire “ha localizzato riferimenti a soluzioni esistenti” è ben altra cosa. La differenza è epistemica, ed è la linea che separa clamore e rigore. OpenAI ha scavalcato quella linea. L’errore è in comunicazione più che in tecnologia — ma è fatale in un ambito che pretende “scoperte”.
Terzo: il ruolo attuale delle LLM / dei modelli generativi è più da assistente che da scopritore. Il vero guadagno non è nel generare nuove congetture (almeno non oggi), ma nel aiutare umani a esplorare letteratura, collegamenti nascosti, insight marginali. Questo non è poco, ma non giustifica claims da “modello scientifico autonomo”. Già Terence Tao ha indicato che l’utilità più plausibile delle IA matematiche è accelerare compiti sistematici, non inventare nuove branche del teorema.
Quarto: la comunità è un arbitro severo e rapido. In un’era in cui le affermazioni vengono decostruite in ore, la vigilanza peer matematica, ingegneristica, etica è attiva. Un claim mal formulato è smontato in minuti da chi ha dominio del dominio. Se vuoi provocare, bene se vuoi mantenere autorità, non puoi abusare dell’iperbole.Dunque, l’episodio è meno una “vittoria dell’algoritmo” che un’“autogiustificazione abilmente costruita e prontamente smontata”.
È la versione IA del “presentismo tecnologico” che recita come se ogni passo fosse scoperta epocale. Ti ricorda qualcosa della storia delle startup: hype, pivot, retract, rinse, repeat.Per chi sviluppa tecnologia per chi deve comunicare al board, agli investitori, al pubblico tecnico questo episodio è monito: non lasciare che il marketing preceda la verifica tecnica, non dichiarare ciò che non puoi supportare con prove, non confondere l’assistente con l’innovatore.
Quando la prossima generazione (ipotetica GPT-6) raggiungerà veramente zone inedite della matematica, l’ecosistema saprà distinguere l’annuncio che ha fondamento da quello che è solo un tweet ben composto. Vuoi che provi a stimare che probabilità reali ci siano che GPT-5 o focene future possano generare veri teoremi originali nei prossimi 5-10 anni?