Il governo britannico, attraverso ARIA, ha deciso di forzare la mano e finanziare una nuova generazione di sistemi capaci di progettare, eseguire e analizzare esperimenti scientifici con un intervento umano ridotto all’osso. Non un assistente. Non un copilota. Un agente che chiude l’intero ciclo della ricerca. Ipotesi, esperimento, fallimento, iterazione. Ripeti. Senza pause caffè, senza ego accademico, senza comitati di revisione interni.

ARIA definisce un AI scientist in modo sorprendentemente sobrio. È un sistema che gestisce un loop di ricerca completo. Gli umani pongono la domanda iniziale, l’AI fa il resto. In pratica significa tradurre un’intuizione scientifica in un protocollo sperimentale, eseguirlo in un laboratorio automatizzato, leggere i risultati, capire se sono spazzatura o segnale e decidere cosa fare dopo. È la parte noiosa, ripetitiva e devastante in termini di tempo che oggi rallenta la scienza più di qualsiasi mancanza di idee. Qui non si parla di scrivere paper più in fretta, ma di produrre dati più in fretta. E chiunque abbia mai fatto ricerca vera sa che i dati sono il collo di bottiglia, non la narrativa.

Il programma ARIA è costruito con una logica che ricorda più una venture firm che un’agenzia pubblica tradizionale. Dodici progetti selezionati su duecentoquarantacinque proposte. Un tasso di selezione che farebbe impallidire molte call europee. Talmente tante proposte valide che ARIA ha raddoppiato il budget iniziale, segnale raro di lucidità istituzionale. Ogni team riceve circa mezzo milione di sterline per nove mesi. Nove mesi. Non cinque anni. Non una lifetime accademica. Alla fine devono dimostrare risultati scientifici nuovi, non promesse, non demo, non benchmark autoreferenziali.

I progetti finanziati raccontano bene dove siamo davvero con l’agentic AI applicata alla ricerca autonoma. C’è una startup che lavora su un nano-scienziato artificiale per scoprire nuovi metodi di produzione di quantum dots, un ambito dove le variabili sono molte più delle pubblicazioni disponibili. C’è un robot chimico all’Università di Liverpool che usa modelli vision language per capire quando un esperimento sta andando storto e correggerlo, come farebbe un dottorando esperto ma senza l’ansia da scadenza. C’è una startup londinese che progetta esperimenti per le batterie e li fa eseguire in laboratori completamente automatizzati oltreoceano. Qui il messaggio è chiaro. Il luogo fisico del laboratorio conta sempre meno. Conta la capacità di orchestrare macchine, dati e decisioni.

ARIA ha scelto deliberatamente di non costruire un grande programma monolitico. Niente cattedrali tecnologiche, niente roadmap decennali scritte prima che la tecnologia abbia deciso cosa vuole diventare. L’approccio è quello degli sprint esplorativi. Piccoli finanziamenti, tempi stretti, aspettative brutalmente chiare. Vogliamo capire cosa può fare oggi un AI scientist, non cosa potrebbe fare in teoria con un budget infinito e hardware magico. È un modo elegante per ammettere che nessuno ha ancora un modello mentale stabile di come sarà la scienza quando diventa software.

I limiti sono evidenti e ARIA non li nasconde. Questi sistemi sono fragili. Perdono il filo, interpretano male gli obiettivi, a volte dichiarano vittoria troppo presto. Chi lavora con agentic AI lo sa. L’autonomia continua è ancora un miraggio. La capacità di inventare nuovi strumenti, non solo di usare quelli esistenti, è embrionale. E soprattutto manca ancora una robustezza operativa che permetta settimane di lavoro senza supervisione umana. Ma qui sta il punto che molti commentatori perdono. Anche un ricercatore umano è fragile, incoerente e soggetto a errori sistematici. La differenza è che scala male.

L’AI scientist scala. Non perché sia più intelligente, ma perché è instancabile e replicabile. Una volta che un loop di ricerca funziona, puoi clonarlo. Puoi far girare cento esperimenti in parallelo. Puoi esplorare spazi di ipotesi che oggi vengono scartati non perché improbabili, ma perché costosi in termini di tempo umano. La ricerca autonoma non sostituisce la creatività umana. La moltiplica. O meglio, libera la creatività da una palude di esecuzione manuale che la sta soffocando da decenni.

Il vero motivo per cui questa iniziativa conta non è tecnologico, ma strategico. Se la scienza inizia a operare a velocità macchina, chi controlla l’infrastruttura di ricerca controlla l’innovazione. Non è un caso che il Regno Unito stia investendo qui, con una struttura come ARIA che può permettersi di fallire velocemente. La posta in gioco non è solo scoprire nuovi materiali o molecole, ma definire lo standard operativo della scienza del prossimo decennio. Chi arriva tardi non recupera con una riforma ministeriale o un nuovo bando europeo.

C’è anche un aspetto più sottile che merita attenzione. L’AI scientist cambia il rapporto tra teoria ed esperimento. Storicamente l’esperimento era il collo di bottiglia fisico che limitava la fantasia teorica. Ora rischia di diventare l’opposto. L’AI può generare e testare ipotesi più velocemente di quanto gli umani riescano a comprenderle a fondo. Questo crea una tensione nuova, quasi filosofica. Cosa significa capire un fenomeno se la scoperta è stata fatta da un sistema che nessun individuo umano può seguire passo dopo passo? È una domanda che oggi sembra accademica, ma domani sarà regolatoria.

ARIA sta facendo quello che molte istituzioni europee evitano. Sta accettando l’incertezza come costo necessario per restare rilevanti. Sta trattando l’AI scientist non come un progetto IT, ma come un cambio di paradigma della pratica scientifica. La ricerca autonoma non è una moda. È la conseguenza logica di decenni di automazione parziale finalmente collegata da sistemi agentici capaci di prendere decisioni. Chi pensa che sia solo un altro hype probabilmente non ha mai passato notti in laboratorio aspettando che una macchina finisca un ciclo.

Il punto finale, quello che davvero dovrebbe inquietare, è che questo è solo l’inizio. Oggi l’AI scientist usa strumenti esistenti. Domani inizierà a progettarne di nuovi. Oggi è fragile. Domani sarà noiosa, stabile, affidabile. Ed è proprio lì che diventerà davvero pericolosa per lo status quo. Non perché distruggerà la scienza, ma perché la renderà troppo veloce per i suoi rituali attuali. Il Regno Unito lo ha capito. Altri stanno ancora discutendo linee guida. E come spesso accade, mentre si discute, qualcuno sta già facendo esperimenti. A velocità macchina.

More: https://www.aria.org.uk/