La domanda circola nei consigli di amministrazione, nei desk finanziari e nei corridoi dei grandi data center. L’intelligenza artificiale sta diventando una bolla ipertrofica di silicio e debito oppure siamo solo all’inizio di una curva che farà sembrare ingenuo tutto ciò che abbiamo visto finora. Nell’ultima intervista al Financial Times, Mustafa Suleyman, oggi CEO di Microsoft AI, non usa mezze misure. Quella che molti chiamano overspending, per lui è semplice matematica del progresso. Quindici anni hanno prodotto un incremento di un trilione di volte nella potenza di calcolo dedicata all’addestramento dei modelli. Nei prossimi tre anni, dice, ne arriverà un altro di mille volte. Non un miglioramento incrementale, ma un salto di scala che rende ridicole le discussioni sul ritorno a breve termine.
Il punto chiave è che il compute non è più una variabile tecnica. È una leva geopolitica, industriale e cognitiva. Chi continua a ragionare come se l’AI fosse un software elegante che gira su infrastrutture standard non ha capito la partita. L’addestramento dei modelli di frontiera è ormai una forma di manifattura pesante. Si investe come si investiva nell’acciaio o nell’energia nucleare, con l’aggravante che il prodotto finale non è un oggetto ma una capacità cognitiva generalizzabile. Suleyman lo dice senza girarci intorno. Se continui a spingere compute, dati e algoritmi, ottieni sistemi che programmano meglio della maggioranza degli sviluppatori umani. Non è una previsione futuristica, è già pratica quotidiana. Anche i creatori storici di sistemi come Linux lo ammettono apertamente, segno che l’AI non è più un giocattolo per startup ma uno strumento di lavoro per l’élite tecnica globale.
In questo scenario Microsoft gioca una partita più complessa di quanto appaia nei comunicati ufficiali. L’estensione dell’accordo con OpenAI fino al 2032 non è una dichiarazione di dipendenza eterna, ma una copertura strategica. Suleyman è esplicito. L’obiettivo è l’autosufficienza. Costruire modelli di frontiera interni, controllare l’intera catena del valore cognitivo, arrivare a quella che definisce professional grade AGI. Una formula ambigua quanto potente. Non l’AGI da fantascienza, non l’entità senziente che chiede diritti, ma un sistema capace di svolgere compiti professionali complessi con affidabilità superiore a quella umana media.
La timeline che propone è volutamente destabilizzante. Nel giro di dodici o diciotto mesi, gran parte del lavoro white collar sarà eseguibile da sistemi di intelligenza artificiale. Non eliminato, non annullato, ma delegabile. Analisi, reportistica, progettazione, coding, supporto decisionale. Nel giro di due o tre anni, parla di agenti coordinati in grado di gestire sistemi complessi, flussi industriali, reti informative, processi aziendali end to end. Chi legge queste frasi come hype da conferenza tech commette un errore strategico. Suleyman non è un evangelista esterno. È un operatore che ha accesso ai numeri, ai modelli e ai colli di bottiglia reali.
Il vero punto di rottura, però, non è la velocità dell’evoluzione tecnica. È la filosofia che la accompagna. Suleyman introduce un concetto che suona quasi anacronistico nel lessico iper tecnocratico della Silicon Valley. Superintelligenza umanista. Un’idea semplice e radicale allo stesso tempo. L’AI deve restare sotto controllo umano. Niente diritti per i modelli. Nessuna deriva verso il welfare algoritmico. Nessun antropomorfismo istituzionalizzato. L’AI come strumento amplificatore, non come soggetto morale. In un’epoca in cui una parte del dibattito sembra più interessata alla possibile sofferenza dei modelli che a quella degli esseri umani impattati dalla trasformazione economica, questa posizione è tutt’altro che banale.
Il dato che colpisce di più, quasi nascosto tra le righe, riguarda l’uso reale. Circa il venti per cento delle query su Copilot riguarda già oggi ambiti medici. Non ricerche superficiali, ma supporto clinico, interpretazione di dati, sintesi di letteratura scientifica. Microsoft sta spingendo apertamente verso quella che Suleyman chiama medical superintelligence. Sistemi in grado di superare panel di medici esperti nella diagnosi e nella scelta terapeutica. Qui la retorica dell’overspending evapora. Se il costo marginale di salvare vite o ridurre errori clinici passa attraverso miliardi in data center, il conto economico assume una dimensione etica oltre che finanziaria.
Naturalmente questo non significa che il rischio sia nullo. La corsa al compute crea concentrazione di potere, barriere all’ingresso, dipendenze infrastrutturali che ricordano più l’energia che il software. Ma il punto centrale dell’intervista è un altro. Il vero conflitto non è tra AGI concorrenti. È tra modelli di governance. Velocità contro sicurezza. Autonomia contro controllo. Centralizzazione contro responsabilità. La tecnologia corre comunque. La scelta politica e industriale riguarda chi tiene il volante.
Suleyman, con il suo passato da cofondatore di DeepMind e ora architetto dell’AI strategy di Microsoft, incarna una nuova figura di leader tecnologico. Meno ossessionato dall’eleganza teorica e più dalla gestione del rischio sistemico. Quando parla di autosufficienza, non parla solo di modelli. Parla di sovranità cognitiva aziendale. In un mondo in cui l’intelligenza diventa una commodity strategica, dipendere da un fornitore esterno equivale a esternalizzare una parte della propria capacità decisionale.
C’è anche un messaggio implicito per i mercati. I multipli attuali, le spese in conto capitale apparentemente fuori scala, le valutazioni che fanno tremare gli analisti tradizionali non sono necessariamente segnali di follia collettiva. Potrebbero essere l’equivalente moderno delle ferrovie nell’Ottocento o di internet negli anni Novanta. Chi giudica con i parametri del trimestre rischia di perdere la traiettoria del decennio.
L’elemento più interessante resta la tensione tra controllo e potenza. Parlare di superintelligenza umanista in un contesto di agenti autonomi e sistemi auto coordinati sembra quasi una contraddizione. Eppure è lì che si giocherà la partita vera. Non nella capacità di generare codice o testi migliori, ma nella definizione dei limiti operativi, delle responsabilità e delle architetture di comando. L’AI che gestisce sistemi complessi senza supervisione non è un progresso, è una fuga di responsabilità mascherata da efficienza.
Alla fine, la domanda iniziale si ribalta. Non se l’AI stia spendendo troppo, ma se il mondo stia investendo abbastanza velocemente nella capacità di governarla. Suleyman lancia una provocazione elegante e pericolosa. La tecnologia ci porterà comunque verso modelli sempre più potenti. La differenza tra un futuro amplificato e uno ingestibile non sarà decisa dal numero di GPU, ma da chi stabilisce le regole di ingaggio. In questa corsa non vince chi arriva primo. Vince chi resta al comando quando la velocità diventa ingestibile.