Ethereum e intelligenza artificiale stanno finalmente smettendo di ignorarsi. Non perché sia improvvisamente di moda, ma perché qualcuno con sufficiente capitale simbolico ha deciso di dire ad alta voce ciò che molti pensano sottovoce. La corsa all’AGI è un frame sbagliato. Non tecnicamente sbagliato. Culturalmente tossico. Strategicamente miope. Vitalik Buterin non sta opponendo resistenza al progresso, come farebbe un luddista in ritardo di due secoli. Sta facendo qualcosa di più pericoloso per l’establishment dell’AI: sta ridefinendo il terreno di gioco.

Dire “lavoriamo sull’AGI” è come dire “lavoriamo sulla finanza” o “lavoriamo sul computing”. Una frase che non significa nulla, se non una cosa molto precisa. Vincere. Essere in cima. Arrivare primi. Il resto è rumore di fondo. È la Silicon Valley nel suo stato più puro, quello da accelerazione cieca, funding round, benchmark gonfiati e tweet trionfalistici. Ma è proprio qui che Ethereum e l’intelligenza artificiale iniziano a parlare la stessa lingua. Non quella dell’hype, ma quella delle infrastrutture che non esplodono quando qualcuno preme il pulsante sbagliato.

Ethereum non nasce per essere veloce. Nasce per essere verificabile. Non nasce per essere efficiente. Nasce per essere antifragile. Non nasce per dominare. Nasce per non dover fidarsi di nessuno. Applicare questa filosofia all’intelligenza artificiale non è un esercizio teorico, è una necessità sistemica. Perché l’AI, soprattutto quella agentica, non è un prodotto. È un attore economico. E gli attori economici senza regole chiare producono esattamente ciò che la storia ci ha già mostrato più volte: concentrazione di potere, asimmetrie informative, esternalità negative.

Quando Buterin parla di rifiutare la “race to AGI”, non sta proponendo una decrescita felice dell’AI. Sta proponendo di cambiare obiettivo. Non costruire dèi digitali più grandi, ma sistemi che mantengano gli umani rilevanti. Non modelli sempre più opachi, ma infrastrutture verificabili. Non piattaforme chiuse che gestiscono tutto, ma protocolli aperti che nessuno controlla davvero. È una distinzione sottile, ma è la stessa che separa un sistema finanziario resiliente da un castello di leverage.

Ethereum e intelligenza artificiale condividono un problema strutturale. La fiducia. Nell’AI oggi ci fidiamo perché non abbiamo alternative. Usiamo modelli remoti, chiusi, con API che promettono molto e spiegano poco. Non sappiamo cosa succede ai nostri dati. Non sappiamo se le risposte sono riproducibili. Non sappiamo se due chiamate diverse allo stesso servizio producono lo stesso risultato per motivi tecnici o economici. In pratica stiamo costruendo l’economia cognitiva del futuro su una serie di “trust me bro” industriali. Un dettaglio che dovrebbe inquietare chiunque abbia letto almeno una riga di storia delle infrastrutture.

Qui entra in gioco l’idea di usare Ethereum come layer economico e di coordinamento per l’intelligenza artificiale. Non come blockchain universale dove tutto deve finire on-chain, ma come fondazione di fiducia minimale. Pagamenti verificabili. Depositi programmabili. Dispute risolte da codice. Reputazione legata a stake e non a slide di marketing. In altre parole, ciò che serve quando gli agenti AI iniziano a parlare tra loro, negoziare servizi, scambiarsi valore e prendere decisioni che hanno effetti reali.

L’idea che Ethereum possa diventare il layer di settlement per le interazioni AI-to-AI non è fantascienza. È un’estensione logica. Gli agenti autonomi non possono firmare contratti legali, ma possono firmare transazioni. Non possono andare in tribunale, ma possono essere slashed. Non possono essere incarcerati, ma possono perdere reputazione e capitale. È un modello di governance freddo, impersonale, ma straordinariamente efficace se progettato bene. E soprattutto è neutrale. Nessuna big tech decide chi può partecipare. Nessun gatekeeper controlla l’accesso.

La parte più interessante del discorso di Buterin non è nemmeno quella economica. È quella epistemologica. L’idea di riportare l’AI verso un paradigma “don’t trust, verify”. Local LLM che girano sul dispositivo dell’utente. Assistenti che propongono azioni ma non le eseguono senza conferma. Sistemi che producono attestazioni verificabili, magari via TEE o prove crittografiche, invece di output magici. In un’epoca in cui l’AI viene venduta come oracolo, questa è quasi un’eresia. Ed è proprio per questo che è rilevante.

Ethereum e intelligenza artificiale qui si incontrano sul terreno più scomodo per il mercato. La privacy. Pagamenti zero knowledge per chiamare API AI senza creare un profilo comportamentale permanente. Identità pseudonime che accumulano reputazione senza essere tracciabili come individui. Modelli di compliance incorporati nel protocollo invece che demandati a policy aziendali riscrivibili ogni trimestre. È un approccio che non fa felici i dipartimenti legali delle big platform, ma che storicamente produce ecosistemi più robusti.

Chi sostiene che tutto questo rallenti l’innovazione non ha capito nulla dell’innovazione sistemica. Le ferrovie non sono state un freno al commercio. I protocolli internet non hanno rallentato il web. Le regole contabili non hanno ucciso il capitalismo. Hanno solo reso il sistema abbastanza stabile da crescere senza collassare su se stesso. L’AI oggi è in una fase pre-ferroviaria. Tutti costruiscono locomotive, nessuno posa i binari. Buterin sta parlando di binari.

Il conflitto culturale con la visione di Sam Altman è evidente. Da una parte l’idea che qualcuno sappia come costruire l’AGI e che basti accelerare abbastanza. Dall’altra l’idea che nessuno sappia davvero dove stiamo andando e che quindi servano meccanismi di controllo distribuiti, verificabili e resistenti agli abusi. È la differenza tra ingegneria e governance. Tra laboratorio e società. Tra demo e mondo reale.

Ethereum non diventerà il cervello dell’AI. Non è il suo compito. Ma può diventare il sistema nervoso che ne coordina i movimenti. Il layer dove gli agenti si incontrano, si pagano, litigano, vengono puniti o premiati. Il posto dove le regole sono scritte prima e non negoziate dopo. In un futuro di economie agentiche, questo conta più di un altro punto percentuale di accuracy.

Chi oggi parla di ethereum e intelligenza artificiale come se fosse una moda passeggera sta ripetendo lo stesso errore di chi nel 2015 diceva che la blockchain serviva solo per speculare su token. Le infrastrutture noiose sono quelle che sopravvivono. Quelle che non promettono miracoli, ma riducono i danni quando qualcosa va storto. L’AI farà cose straordinarie. Ma senza guardrail farà anche disastri spettacolari. E la storia insegna che i disastri non colpiscono mai chi li ha progettati, ma chi ci vive dentro.

Forse il punto non è chiedersi se l’AI sia il futuro di Ethereum. La domanda giusta è se vogliamo che il futuro dell’AI abbia almeno un’infrastruttura che non dipenda dalla buona volontà di cinque CEO e da qualche comitato etico interno. Ethereum non è una soluzione magica. Ma è una risposta adulta a una domanda che l’industria dell’intelligenza artificiale continua ostinatamente a evitare. Chi governa quando le macchine iniziano a decidere. E soprattutto, chi verifica.

Post su https://x.com/VitalikButerin/status/2020963864175657102