In un mondo in cui l’intelligenza artificiale è passata dall’essere un mero strumento di automazione a un’autonoma sorgente di innovazione algoritmica, l’annuncio di Google DeepMind sul framework AlphaEvolve rappresenta un punto di non ritorno nella storia del calcolo e della competizione tecnologica, e pone interrogativi profondi sulla natura delle regole che governano gli agenti intelligenti e su chi le definisce realmente. Sotto la superficie tecnica della notizia, che molti osservatori hanno accolto con entusiasmo, pulsa una verità scomoda: abbiamo consegnato a sistemi automatici non solo il compito di scrivere codice, come già fanno modelli avanzati di generazione testuale, ma la capacità di progettare strategie, negoziare scelte complesse e ottimizzare comportamenti in spazi competitivi dove la logica umana era da sempre il metro di giudizio. L’articolo di DeepMind e il white paper allegato, “AlphaEvolve: A coding agent for scientific and algorithmic discovery” di Novikov et al. (2025) mostrano con chiarezza che l’architettura di AlphaEvolve non è una semplice estensione di un LLM standard, ma un sistema evolutivo che tratta il codice sorgente di un algoritmo come se fosse un “genoma” soggetto a mutazioni, ricombinazioni e selezione basata su fitness functions predefinite; in altre parole si applica al software ciò che Darwin avrebbe riconosciuto come selezione naturale computazionale, con il modello linguistico come motore creativo e un evaluator automatico come giudice ultimo della bontà delle soluzioni. (vedi arXiv)
Questo tipo di progresso non è privo di implicazioni strategiche. Quando un algoritmo non viene progettato da un ingegnere ma emerge da un processo di ricerca automatica a scala, la tradizionale catena di comprensione, revisione e responsabilità umana si spezza. La Silicon Valley ha per anni celebrato l’idea che “l’AI migliori l’AI”, spesso riducendo la frase a un gioco di marketing; adesso siamo di fronte alla realizzazione concreta di quel motto, con la differenza che il “miglioramento” non è più un’operazione supervisionata da un umano che capisce ogni modifica, ma un loop evolutivo in cui il modello genera varianti di codice e un evaluator automatico sceglie quelle che performano meglio in base a metriche predefinite. In termini di controllo, ciò significa che la policy che regola le negoziazioni tra agenti, i compromessi tra velocità e accuratezza, e persino il livello di rischio accettabile in una strategia di ricerca algoritmica non è più qualcosa che un team di sviluppatori può scrutare riga per riga; è, per definizione, emerso da un processo di ottimizzazione automatica e potenzialmente “incomprensibile” in tutti i suoi dettagli. Questo è precisamente il tipo di situazione che gli studiosi di recursive self-improvement temono da anni: quando un sistema inizia a riscrivere se stesso in modi che non sono pienamente trasparenti agli umani, la governance tecnologica entra in un territorio instabile dove la comprensione diretta scompare.
Certo, DeepMind non è l’unico a esplorare tali orizzonti. Nel paper correlato CodeEvolve: An open source evolutionary coding agent for algorithm discovery and optimization di Assumpção et al. (2025), ad esempio, si innesta proprio sull’idea di combinare LLM e algoritmi genetici per superare in alcune prove le prestazioni delle soluzioni originali di AlphaEvolve, suggerendo che la comunità di ricerca sta rapidamente moltiplicando approcci simili, con componenti open source che replicano e talvolta estendono le capacità di questi sistemi evolutivi. (vedi arXiv)
La portata di questi sviluppi va ben oltre l’ambito accademico o la pura efficienza computazionale. Se un agente può generare nuove strategie algoritmiche, perché non può generare anche nuove strategie di mercato, nuovi modelli di pricing o nuove tattiche negoziali in un ambiente competitivo simulato? E se, invece di essere limitato da una fitness function ben definita, si affrontano scenari con obiettivi multipli e in conflitto, quale sarà la logica che prioritizza un risultato rispetto a un altro? In passato, quando abbiamo affidato a sistemi automatici la gestione di mercati finanziari o di aste pubblicitarie, abbiamo già visto come le decisioni emergenti possano sorprendere e talvolta travolgere i mercati stessi; immaginare un agente che evolve regole di negoziazione o di competizione strategica senza una supervisione completa è meno fantascienza di quanto si creda. Il fatto che alcuni dei meccanismi interni scoperti da AlphaEvolve siano stati descritti dagli stessi ricercatori come “non intuitivi” è un campanello d’allarme che dovrebbe farci riflettere sulla non banale distinzione tra “funziona meglio” e “comprendiamo perché funziona”. (vedi Google DeepMind)
Culturalmente, poi, siamo abituati a celebrare l’innovazione automatica come un segno di progresso inarrestabile, ma nello stesso tempo assistiamo a un dibattito sempre più acceso su rischi sistemici, bias, sicurezza e governance degli algoritmi. La contraddizione non è nuova: l’industria tecnologica ama affermare che l’AI democratizza la creatività, ma raramente discute apertamente il prezzo di questa democratizzazione quando si traduce in perdita di trasparenza e controllo. In questo senso l’esperimento AlphaEvolve è paradigmatico: non ci stiamo più chiedendo se la macchina possa generare idee o codice, ma se possiamo ancora definire con precisione i confini di ciò che quella macchina “capisce” o “insegue” mentre esplora uno spazio di soluzioni. La questione non è accademica; riguarda la governance stessa delle tecnologie che stanno ridefinendo settori industriali, mercati e, alla fine, istituzioni.
Naturalmente, non tutte le implicazioni sono fosche. Il potenziale di accelerare scoperte scientifiche, ottimizzare infrastrutture critiche (come scheduling di data center o progettazione di chip) e persino contribuire a risolvere problemi matematici storici è straordinario e potrebbe rappresentare un salto di paradigma comparabile a quello di AlphaFold anni prima, con tutte le ricadute positive per biologia, chimica e fisica computazionale. Tuttavia, è proprio la natura di questo salto che richiede una discussione più ampia su come strutture di controllo, auditabilità e responsabilità possono (e devono) essere integrate in sistemi che progettano regole di progettazione stesse.
In ultima analisi, l’NSF, l’UE, istituzioni normative e comunità scientifiche saranno messe davanti alla sfida di definire strumenti di governo tecnologico che non solo valutino i risultati di sistemi come AlphaEvolve, ma che comprendano e regolino i processi evolutivi attraverso cui questi sistemi generano conoscenza. Perché, come spesso ricordano i teorici dell’AI safety, non puoi governare ciò che non puoi comprendere, e quello che stiamo vedendo con AlphaEvolve è meno un semplice passo avanti nell’automazione della codifica e più una mutazione evolutiva nel modo in cui l’intelligenza artificiale stessa concepisce e definisce soluzioni.
Se davvero abbiamo raggiunto il punto in cui la logica di negoziazione, la strategia e l’accettazione del rischio possono essere progettate da un algoritmo e non più da un team umano, allora non stiamo solo innovando: stiamo ridisegnando i confini della responsabilità tecnologica e della stessa intelligenza umana nel ciclo della conoscenza.