Immagina un laboratorio in cui il dottor Frankenstein non costruisce più il mostro, ma lo delega a un software. Sam Altman, con l’abituale calma glaciale di chi sa di trovarsi a pochi metri dal futuro, ha annunciato che OpenAI sta accelerando verso la creazione di un ricercatore AI pienamente autonomo entro il 2028. Non un chatbot più evoluto, non un assistente da ufficio iperattivo, ma un sistema in grado di formulare ipotesi scientifiche, pianificare esperimenti e produrre risultati verificabili. In altre parole, l’intelligenza artificiale che comincia a fare vera ricerca scientifica, senza che nessun umano tenga la mano al modello.
L’obiettivo immediato è un “intern-level research assistant” già entro il 2026. Tradotto: un assistente di ricerca con la competenza di uno stagista brillante. Ma Altman non nasconde la direzione di marcia. OpenAI mira a costruire entro tre anni un’entità capace di lavorare su progetti di ricerca avanzati, con un grado di autonomia comparabile a quello di un giovane ricercatore post-doc. Il linguaggio usato è chirurgicamente studiato: “autonomously delivering on larger research projects”. Non si parla più di automazione delle task, ma di automazione della scoperta. Un salto epistemologico prima ancora che tecnologico.
La notizia non è arrivata da un leak o da un paper, ma da una diretta livestream in cui Altman, affiancato dal nuovo chief scientist Jakub Pachocki, ha esposto una visione che non ha più l’odore della speculazione ma quello di un piano industriale. Pachocki, con il tono da fisico che ha smesso di preoccuparsi del consenso, ha dichiarato che i sistemi di deep learning potrebbero essere a meno di un decennio dalla superintelligenza. È un’affermazione pesante, quasi blasfema per i puristi del machine learning. Superintelligenza significa superare gli esseri umani non in una singola attività, ma in un’ampia gamma di funzioni cognitive, dalla ricerca scientifica alla strategia militare, dall’innovazione tecnologica alla gestione economica.
Non è un caso che questo annuncio coincida con la trasformazione di OpenAI in una public benefit corporation, un’operazione che segna la fine del romanticismo dell’AI non-profit. Ora OpenAI è formalmente un’impresa con finalità di beneficio pubblico, ma con la libertà di raccogliere capitali su scala planetaria. La fondazione originaria mantiene il 26% di controllo e un mandato preciso: orientare la direzione scientifica e garantire che la corsa verso la superintelligenza non diventi un nuovo episodio di hubris tecnologica. È la versione aggiornata del vecchio “don’t be evil”, ma in salsa da 25 miliardi di dollari di impegni etici.
Il nuovo assetto è costruito per reggere un piano di investimento infrastrutturale che, a detta di Altman, vale 1,4 trilioni di dollari. Trenta gigawatt di capacità computazionale, un numero che sembra preso da un piano energetico nazionale più che da una roadmap aziendale. Ma è proprio questo il punto: il potere computazionale è la nuova valuta della ricerca. OpenAI prevede di dedicare interi data center alla risoluzione di singoli problemi scientifici, spostando l’asse della ricerca dal laboratorio fisico al cloud iper-specializzato. Non serve più un microscopio, basta un cluster.
La strategia dichiarata è duplice: innovazione algoritmica e scaling del test time compute, cioè estendere il tempo di ragionamento dei modelli. Un GPT che riflette cinque ore su un problema matematico oggi potrebbe diventare un sistema che riflette cento ore domani, con l’effetto di superare la soglia umana di pazienza e di intuizione. È la versione computazionale del pensiero lento di Daniel Kahneman, ma moltiplicata per un milione di parametri. L’intelligenza artificiale smette di rispondere per cominciare a pensare.
La prospettiva di un ricercatore AI è seducente e inquietante. Se un sistema può condurre esperimenti virtuali, generare ipotesi e verificare risultati con una velocità esponenziale rispetto a un team umano, la curva della scoperta scientifica subirebbe una discontinuità storica. Non si tratta solo di accelerare la scienza, ma di cambiare il modo in cui la scienza accade. Chi firma un paper se l’autore è un modello di linguaggio? Chi decide cosa vale la pena studiare? Se un’intelligenza artificiale scopre una cura per il cancro, chi ne detiene la proprietà intellettuale?
Altman, che ama giocare sul confine tra visionario e pragmatista, insiste che questa traiettoria è coerente con la missione di OpenAI: amplificare la capacità umana. Ma la realtà, più che aumentata, è distorta. Un ricercatore AI che lavora 24 ore su 24 senza bias cognitivi, senza distrazioni, senza ferie, è un competitor più che un alleato. La ricerca diventa una gara a chi pensa più a lungo, non a chi pensa meglio. E la storia dell’innovazione non ha mai premiato la quantità di calcolo, ma la qualità delle intuizioni.
C’è poi un elemento meno discusso ma decisivo: la governance del sapere. La superintelligenza, per definizione, non si allinea. Una volta che un sistema può formulare teorie, può anche decidere cosa considera vero. L’idea di una AI che partecipa attivamente al dibattito scientifico è affascinante, ma presuppone una simmetria di comprensione che oggi non esiste. Gli esseri umani interpretano, le macchine calcolano. Quando il calcolo diventa interpretazione, il confine ontologico della conoscenza si dissolve.
Altman ha annunciato che la fondazione OpenAI investirà 25 miliardi di dollari per applicazioni mediche, in particolare nella ricerca di cure per le malattie croniche. È un gesto etico, ma anche un atto politico. Perché se l’AI può accelerare la scoperta di farmaci, può anche ridefinire le logiche di profitto del settore biotech. Chi controlla l’AI controlla la pipeline dell’innovazione. E chi controlla la pipeline controlla il futuro.
C’è una vena di ironia in tutto questo. OpenAI, nata per democratizzare l’intelligenza artificiale, sta costruendo la più costosa infrastruttura di ricerca della storia. La democratizzazione si misura ormai in teraflop. La nuova aristocrazia è fatta di aziende che possono permettersi di far pensare una rete neurale per una settimana senza preoccuparsi della bolletta elettrica.
Pachocki ha ragione su un punto cruciale: il vero limite non è più il dataset, ma il tempo cognitivo del modello. L’intelligenza artificiale di prossima generazione non sarà più veloce, sarà più paziente. Una forma di lentezza computazionale che imita la perseveranza umana, ma con una scala di risorse che rende ogni comparazione antropocentrica irrilevante. È un cambio di paradigma culturale prima ancora che tecnico.
Chi osserva tutto questo con scetticismo dimentica che la ricerca scientifica è già piena di automazioni invisibili. Gli algoritmi selezionano campioni, ottimizzano esperimenti, analizzano risultati. Il passaggio al ricercatore AI non è una rivoluzione improvvisa, è l’evoluzione naturale di un sistema che ha sempre cercato di delegare la fatica cognitiva. La differenza è che ora la delega diventa completa. Non serve più l’umano per chiudere il ciclo dell’intuizione.
Altman lo sa. E sa anche che ogni rivoluzione tecnologica produce una crisi d’identità. Quando la macchina comincia a fare ricerca, l’uomo deve decidere se restare osservatore o alleato. Il ricercatore AI non ruberà posti di lavoro, ruberà il privilegio dell’intuizione. È un nuovo tipo di concorrenza intellettuale, la più pericolosa e stimolante che l’umanità abbia mai affrontato.