A Berkeley, nella primavera del 2025, non è successo nulla che finirà in un film hollywoodiano, e proprio per questo è successo qualcosa di molto più serio. In una sala chiusa, lontano da comunicati stampa e tweet entusiasti, una trentina di matematici di livello mondiale ha assistito a una dimostrazione che ha incrinato una delle ultime certezze accademiche: l’idea che il ragionamento matematico profondo resti una roccaforte esclusivamente umana. Non si trattava di una demo per investitori né di un esercizio di marketing. L’obiettivo iniziale era quasi difensivo, misurare i limiti dell’intelligenza artificiale nel dominio più ostico di tutti. Il risultato è stato l’opposto di una rassicurazione.

La parola chiave, quella che domina questa storia e che nei prossimi anni diventerà centrale nel dibattito scientifico e industriale, è ragionamento matematico artificiale. Non calcolo, non algebra simbolica in stile anni Novanta, ma capacità di concatenare deduzioni, esplorare strade intermedie, riconoscere analogie strutturali tra problemi diversi. In altre parole, pensare come un matematico, o almeno imitarne il comportamento in modo disturbantemente convincente.

Il modello testato non era un colosso gonfiato a forza di parametri, ma un’architettura relativamente leggera, ottimizzata per il reasoning multistep. Questo dettaglio è tutt’altro che marginale. Per anni l’industria ha spinto sull’idea che più grande fosse automaticamente meglio. Qui, invece, il salto qualitativo arriva dall’organizzazione del pensiero, non dalla massa bruta. È un segnale che molti, soprattutto nei consigli di amministrazione, farebbero bene a non ignorare.

I problemi sottoposti all’ia non erano presi da libri di testo o archivi pubblici. Erano quesiti nuovi, inediti, costruiti apposta per evitare ogni sospetto di contaminazione da training. Un punto cruciale, perché smonta in partenza l’obiezione preferita degli scettici: sta solo rigurgitando cose già viste. No, qui non c’era nulla da rigurgitare. C’era da capire.

Il livello di difficoltà cresceva in modo deliberatamente crudele. Si partiva da problemi da corso universitario avanzato, si passava a esercizi da dottorato, fino ad arrivare a domande che avrebbero messo in difficoltà professori con decenni di carriera alle spalle. L’aspettativa implicita era che l’ia si fermasse presto, magari con qualche exploit occasionale. Invece ha continuato.

Quando il sistema ha iniziato a risolvere circa il 20 percento di problemi che i benchmark precedenti consideravano irrisolti, l’atmosfera nella stanza è cambiata. Non c’è stato entusiasmo, né applausi. Piuttosto una forma di silenzio teso, quello che si crea quando una comunità altamente razionale capisce di dover aggiornare le proprie ipotesi di base.

Ancora più inquietante del tasso di successo è stato il comportamento osservato durante le sessioni live. L’ia non si limitava a sputare fuori una soluzione. Analizzava il problema, cercava casi semplificati, richiamava risultati noti come farebbe un ricercatore che sfoglia mentalmente la letteratura, poi tentava una costruzione generale. Non sempre aveva ragione, ma quando sbagliava lo faceva in modo credibile. Un dettaglio sottile, ma decisivo.

Alcuni matematici hanno riferito che il sistema ha risolto in pochi minuti problemi paragonabili a quelli di una tesi di dottorato. Compiti che, nella vita reale, richiedono settimane o mesi di tentativi, false piste, frustrazione. Qui sta il punto che fa davvero male all’ego accademico. Non è solo una questione di velocità, è una questione di rapporto costo beneficio del pensiero.

Più di un partecipante ha usato una parola che fino a poco tempo fa sarebbe sembrata eretica: collaboratore. Non strumento, non calcolatrice sofisticata, ma qualcosa che siede idealmente al tavolo e contribuisce. Una frase del genere, pronunciata a porte chiuse, pesa più di cento keynote scintillanti.

Naturalmente i limiti non mancano. Anzi, sono proprio questi limiti a rendere la situazione pericolosa. L’ia mostra un livello di sicurezza nel proprio output che può facilmente indurre in errore. Una dimostrazione formalmente elegante, ma basata su un passaggio sbagliato, resta sbagliata. Il rischio non è che l’ia sostituisca i matematici domani mattina, ma che li induca ad abbassare la guardia oggi.

Il tono autorevole del sistema è un’arma a doppio taglio. In un contesto accademico, dove l’argomentazione conta quanto il risultato, l’illusione di correttezza può diventare una trappola cognitiva. Non è un caso che i partecipanti abbiano insistito sulla necessità di mantenere una validazione umana rigorosa. Una frase che, tradotta in linguaggio aziendale, suona come costi aggiuntivi e processi più complessi.

Alla fine del summit è emerso un piccolo insieme di problemi che l’ia non è riuscita a risolvere. Questo dato, paradossalmente, non ha rassicurato nessuno. Il ritmo di miglioramento osservato negli ultimi dodici mesi suggerisce che quelle lacune potrebbero chiudersi rapidamente. La matematica, che per secoli ha avanzato a passi lenti e cumulativi, si trova ora agganciata alla curva esponenziale del software.

Il significato di tutto questo va ben oltre la disciplina in sé. La matematica è il linguaggio fondativo della scienza, dell’ingegneria, dell’economia. Se cambia il modo in cui si fa matematica, cambia il modo in cui si progetta il mondo. Il ruolo del matematico rischia di spostarsi dalla risoluzione manuale dei problemi alla formulazione delle domande, alla verifica dei risultati, alla guida del processo di scoperta. Un passaggio da artigiani del simbolo a direttori d’orchestra concettuali.

Ricerca matematica assistita da >AI. Non è uno slogan futuristico, è una traiettoria concreta. Le università dovranno ripensare la formazione, perché addestrare studenti a fare a mano ciò che una macchina fa meglio non è più una strategia sostenibile. Le aziende, dal canto loro, inizieranno a chiedersi perché certi problemi di ottimizzazione o modellazione richiedano ancora mesi di lavoro umano.

C’è poi una terza dimensione, più sottile e più politica, legata al futuro della creatività matematica. Per decenni si è sostenuto che l’intuizione, il lampo creativo, fosse l’ultima frontiera inespugnabile. Il summit di Berkeley suggerisce che anche quella frontiera è meno solida di quanto si pensasse. L’ia non ha intuizioni nel senso romantico del termine, ma esplora lo spazio delle possibilità con una brutalità sistematica che spesso porta agli stessi risultati.

Una citazione attribuita a David Hilbert recita che in matematica non esistono ignoramus. Forse oggi dovremmo aggiornarla. In matematica non esistono più nemmeno solisti. Il lavoro diventa sempre più ibrido, umano e artificiale, e chi insiste a difendere la purezza rischia di fare la fine degli artigiani che disprezzavano la macchina a vapore.

Il summit segreto non ha prodotto un manifesto, né una roadmap ufficiale. Ha prodotto qualcosa di più destabilizzante: un cambio di stato mentale. Quando una comunità di esperti smette di chiedersi se una tecnologia funzionerà e inizia a chiedersi come convivere con essa, il punto di non ritorno è già stato superato. In silenzio, come spesso accade per le rivoluzioni più profonde.