Nella sala degli Atti parlamentari del Senato, un luogo dove la retorica politica spesso supera la fisica, l’intervento di Antonio Baldassarra ha avuto il pregio raro di ricordare un dettaglio quasi imbarazzante nella conversazione globale sull’intelligenza artificiale: l’AI non vive nel cloud, vive nelle centrali elettriche. L’immaginario tecnologico contemporaneo, alimentato dalla liturgia della Silicon Valley, ama rappresentare l’intelligenza artificiale come una forma quasi eterea di intelligenza diffusa, un’entità matematica sospesa tra algoritmi e dati. La realtà, come spesso accade quando si esce dalla narrazione marketing, è molto meno poetica e decisamente più industriale. Ogni risposta generata da un modello linguistico, ogni immagine sintetica, ogni riga di codice prodotta da un assistente AI implica calcolo, raffreddamento, alimentazione elettrica e infrastrutture di dimensioni crescenti. Il cloud, per usare una formula che negli ambienti tecnologici più cinici circola da anni, è semplicemente il computer di qualcun altro. E quel computer consuma energia. Molta più energia di quanto il dibattito pubblico sembri disposto ad ammettere.

Il riferimento evocato da Baldassarra a Alan Turing introduce una dimensione curiosamente filosofica alla questione. Nel suo celebre saggio del 1950, Computing Machinery and Intelligence, Turing suggeriva che le macchine potessero un giorno simulare l’intelligenza umana. Tuttavia il dibattito contemporaneo sembra avere dimenticato una parte implicita di quella intuizione: la simulazione dell’intelligenza richiede risorse materiali. L’idea dell’effetto farfalla, oggi spesso associata alla teoria del caos, viene utilizzata da Baldassarra per spiegare un fenomeno sociotecnologico sorprendente. Quando un numero sufficiente di attori economici, politici e mediatici si convince che una tecnologia rappresenti il futuro inevitabile, l’ecosistema intero si riorganizza per renderla inevitabile. In altre parole, la previsione diventa politica industriale, e la politica industriale diventa infrastruttura.

La competizione globale sull’intelligenza artificiale non è, in realtà, una gara puramente algoritmica. Sotto la superficie dei benchmark e delle demo virali si nasconde una competizione molto più concreta tra modelli geopolitici. Gli Stati Uniti, fedeli alla loro tradizione tecnologica, stanno replicando la logica della corsa allo spazio. La priorità è arrivare primi. Nel lessico contemporaneo questo obiettivo prende il nome di AGI, o Artificial General Intelligence, una sorta di Santo Graal computazionale che promette macchine capaci di svolgere qualsiasi compito cognitivo umano. La cosa curiosa, osservata con una certa ironia da molti economisti tecnologici, è che nessuno sa davvero cosa accadrà quando questa soglia verrà raggiunta. L’AGI potrebbe trasformare l’economia globale oppure rivelarsi un curioso esercizio accademico estremamente costoso. Tuttavia la dinamica competitiva, tipica delle innovazioni di frontiera, rende la domanda quasi irrilevante. Se esiste la possibilità che qualcuno arrivi primo, tutti devono correre.

La Cina, nel frattempo, sta seguendo una traiettoria completamente diversa. Piuttosto che inseguire la gloria teorica dell’intelligenza artificiale generale, Pechino ha puntato su una strategia che potremmo definire di capillarità tecnologica. L’obiettivo non è costruire l’AI più sofisticata del mondo, ma integrarla ovunque: logistica, industria manifatturiera, pubblica amministrazione, sistemi di pagamento, sicurezza urbana. In altre parole, la Cina sta giocando una partita di diffusione sistemica, mentre gli Stati Uniti stanno giocando una partita di primato scientifico. Nel mezzo, l’Europa osserva. Con eleganza accademica, certo, ma con una sorprendente timidezza industriale.

Il paradosso europeo emerge con particolare chiarezza quando si analizza la geografia dei data center. Il continente produce una quantità considerevole di ricerca accademica nel campo dell’intelligenza artificiale. Università e centri di ricerca europei pubblicano articoli di altissimo livello, spesso fondamentali per l’evoluzione della disciplina. Tuttavia la maggior parte delle infrastrutture computazionali che alimentano l’economia dell’AI appartiene a grandi aziende extraeuropee. Il risultato è un modello economico che ricorda curiosamente la logica delle colonie industriali del XIX secolo. L’Europa contribuisce con talento, energia e spazio fisico; il valore economico finale viene catturato altrove.

Il nodo energetico sollevato da Baldassarra introduce una dimensione quasi brutale nel dibattito. Una ricerca tradizionale su un motore web richiede circa 0,34 wattora. La stessa operazione eseguita attraverso un sistema di intelligenza artificiale generativa può arrivare a 7 wattora. Il salto non è incrementale, è strutturale. Moltiplicato per miliardi di query quotidiane, questo differenziale energetico produce una pressione enorme sulle reti elettriche nazionali. Il fenomeno è già visibile negli Stati Uniti, dove i grandi operatori tecnologici stanno negoziando direttamente con compagnie energetiche e governi statali per costruire nuove centrali dedicate ai data center.

In Italia la questione assume contorni quasi surreali. Attualmente operano circa centocinquanta data center che consumano complessivamente mezzo gigawatt di potenza. Le richieste di connessione alla rete presentate a Terna superano i cinquanta gigawatt. Il numero, per chi ha familiarità con le infrastrutture energetiche, è quasi fantascientifico. Significa ripensare la topologia dell’intera rete elettrica nazionale. Significa decidere se alimentare quartieri residenziali, fabbriche e mobilità elettrica oppure giganteschi cluster di GPU progettati per addestrare modelli linguistici.

Il paradosso economico che emerge da queste cifre merita attenzione. L’economia dei dati italiana vale oggi circa sessanta miliardi di euro, poco meno del tre per cento del PIL. Le proiezioni indicano una crescita potenziale del 241 per cento entro il 2030. Tuttavia il fabbisogno energetico associato potrebbe aumentare di quasi il 7 96per cento. Un modello di business che peggiora la propria efficienza man mano che cresce rappresenta un’anomalia nella storia dell’industria tecnologica. Il principio economico classico suggerisce che le tecnologie digitali dovrebbero beneficiare di economie di scala sempre più efficienti. L’intelligenza artificiale, almeno nella sua incarnazione attuale basata su modelli giganteschi, sembra invece invertire questa logica.

Alcuni osservatori cominciano a sospettare che il settore stia attraversando una fase simile a quella delle prime ferrovie nel XIX secolo. Enormi investimenti infrastrutturali precedono la definizione di modelli di business realmente sostenibili. La differenza, nel caso dell’AI, è che il costo energetico rappresenta una variabile sistemica che coinvolge intere economie nazionali. Non sorprende quindi che sempre più startup stiano cercando di sviluppare architetture computazionali radicalmente più efficienti. Chip neuromorfici, acceleratori ottici, sistemi di calcolo a bassissimo consumo. Alcune giovani aziende sostengono di poter ottenere prestazioni equivalenti ai leader di mercato con appena un decimo dell’energia.

Il rischio, implicitamente evocato da Baldassarra, è quello di costruire oggi infrastrutture gigantesche che potrebbero risultare tecnologicamente obsolete nel giro di pochi anni. La storia dell’informatica è piena di cicli simili. Nel 1977 il presidente di Digital Equipment Corporation dichiarò che non esisteva motivo per cui qualcuno avrebbe voluto un computer a casa. Pochi anni dopo nacque l’industria dei personal computer. L’evoluzione tecnologica raramente segue traiettorie lineari.

Il punto forse più politico dell’intervento riguarda la sovranità digitale. Circa il settanta per cento della spesa IT della pubblica amministrazione europea finisce nelle casse di aziende extraeuropee. In termini economici significa che una parte significativa del denaro pubblico europeo finanzia infrastrutture tecnologiche e proprietà intellettuale localizzate altrove. Il fenomeno non è necessariamente illegittimo, ma solleva una domanda strategica: può un continente mantenere autonomia tecnologica se delega sistematicamente l’infrastruttura digitale a fornitori esterni?

La questione dei data center di prossimità proposta da Baldassarra si inserisce esattamente in questa riflessione. Portare infrastrutture computazionali più vicine agli utenti significa ridurre latenza, migliorare sicurezza e mantenere una parte maggiore del valore economico all’interno del territorio. Significa anche ripensare la sostenibilità tecnica delle infrastrutture. Il tema dell’acqua, spesso ignorato nel dibattito sull’intelligenza artificiale, è emblematico. Molti grandi data center utilizzano sistemi di raffreddamento che richiedono enormi quantità di acqua. In un’epoca di crescente stress idrico globale, l’idea di raffreddare algoritmi con risorse idriche diventa improvvisamente meno elegante.

Una curiosità storica rende la questione ancora più interessante. Negli anni Sessanta, quando i primi mainframe dominavano l’informatica aziendale, il consumo energetico dei computer era talmente elevato da richiedere stanze climatizzate e sistemi elettrici dedicati. L’invenzione del microprocessore trasformò radicalmente l’equazione energetica dell’informatica, rendendo il calcolo progressivamente più efficiente. L’intelligenza artificiale contemporanea sembra avere riportato il settore indietro di mezzo secolo, almeno dal punto di vista energetico. Le macchine diventano più intelligenti, ma anche più affamate.

Un’osservazione ironica circola tra alcuni analisti della Silicon Valley. L’AI generativa promette di scrivere articoli, produrre immagini, generare codice e forse un giorno persino romanzi. Tuttavia ogni poesia prodotta da un modello linguistico richiede l’energia sufficiente per alimentare una lampadina per diversi minuti. Il romanticismo tecnologico incontra la termodinamica.

Il dibattito europeo sull’intelligenza artificiale tende spesso a concentrarsi su regolamentazione e etica, temi indubbiamente importanti. Tuttavia l’intervento di Baldassarra suggerisce che la vera questione potrebbe essere molto più semplice e molto più brutale. Chi possiede l’infrastruttura possiede l’economia digitale. Chi controlla l’energia controlla l’infrastruttura. Chi controlla entrambe le cose controlla il futuro tecnologico.

In altre parole, la rivoluzione dell’intelligenza artificiale potrebbe rivelarsi meno simile alla nascita di Internet e più simile alla costruzione delle reti elettriche del XX secolo. Una trasformazione industriale gigantesca, costosa, lenta e profondamente politica. Chi continua a descriverla come un semplice software probabilmente non ha mai visitato un data center. Oppure, più realisticamente, preferisce non pensarci troppo.

Rivista.AI ringrazia Dario Denni