Altman, le mucche e il mito dell’energia pulita dell’AI

Quando Sam Altman parla di AI e sostenibilità, non si limita a fare il classico discorso da CEO. La sua ultima sparata a New Delhi sembra uscita da un manuale di retorica per minimizzare l’impatto ambientale: “Le preoccupazioni sull’acqua per ChatGPT sono totalmente false”, ha detto, ridendo quasi di chi osa mettere in dubbio la leggenda del modello efficiente. E subito dopo: “Non è un problema per la singola query, ma per l’energia totale, sì, dobbiamo correre verso nucleare, solare, eolico.” Traduzione: la responsabilità è del sistema energetico globale, non dei miei server.

La metafora con le mucche e il buco dell’ozono (RICORDATE?) non è casuale. Entrambe le narrazioni seguono lo stesso schema: un impatto complesso e distribuito viene banalizzato e trasferito a un argomento più “gestibile” per la percezione pubblica. Nel caso bovino, il metano è ridotto a slogan, e l’AI diventa un esercizio di confronto filosofico tra il consumo energetico di una query e quello di un essere umano lungo tutta la vita. Una trovata narrativa geniale, perché trasforma ogni critica in un problema “globale e inevitabile” piuttosto che locale e misurabile.

Tecnicamente, l’affermazione che “non consumiamo più acqua” per raffreddare i data center ha basi reali solo se limitiamo l’analisi ad alcune infrastrutture iperspecializzate. La verità è che i data center rimangono assettati di energia e raffreddamento, e la loro impronta idrica ed elettrica non è nulla di trascurabile. Evaporative cooling, circuiti chiusi, immersion cooling: ogni tecnica riduce alcuni rischi e ne aumenta altri. La realtà è un mosaico complesso, e il pubblico medio non vede il mosaico, vede solo la frase ad effetto.

Altman prova poi la mossa finale: spostare il paragone al livello sistemico. “Addestrare un umano richiede 20 anni di vita, cibo, evoluzione di miliardi di individui prima che tu possa porre una domanda intelligente”, ha detto. Ecco il twist filosofico: se compariamo l’AI a un cervello umano, la sua efficienza per singola inferenza diventa quasi perfetta. Peccato che un modello AI non mangi, non respiri, non interagisca con predatori o malattie. Non esiste un equivalente diretto in termini biologici; è un’analogia con più appeal retorico che scientifico.

Il confronto tra training e inference resta cruciale. La singola query di ChatGPT è relativamente efficiente, sì. Ma il training dei modelli di ultima generazione è un mostro di consumo energetico: milioni di GPU-hours, raffreddamento intensivo, supply chain globale, aggiornamenti continui. La curva di efficienza marginale migliora, ma il consumo totale aumenta. Altman lo ammette solo di sfuggita: “è giusto preoccuparsi del consumo totale.” Tradotto, significa: il sistema scalabile dell’AI consuma come una città media, e la narrativa filosofica non cambia i numeri reali.

Le implicazioni sono industriali e geopolitiche. L’AI non è un gadget, è infrastruttura critica globale. La proposta implicita di Altman non è verde per convinzione morale, ma per necessità strategica: nucleare, solare, eolico. Senza un cambio radicale della base energetica mondiale, il boom AI diventa un problema politico-economico serio. Prezzi elettrici in aumento, tensioni sulle reti, regolatori che iniziano a monitorare cluster e hyperscaler. Il mito dell’efficienza di singola query non salva nessuno.

Il fascino della sparata è mediatico: ridere delle critiche sull’acqua, confrontare query e vita umana, suggerire soluzioni energetiche globali. La narrativa funziona per i giornali, gli investitori e il pubblico tecnologico, ma nasconde il vero nodo: l’AI sta diventando un consumatore sistemico, non episodico, e l’ottimizzazione retorica non cambia la curva di domanda elettrica mondiale.

La nuova amministrazione Trump ha appena cancellato le restrizioni introdotte da Biden su mercurio e altri inquinanti tossici provenienti dalle centrali elettriche. La mossa abroga i Mercury and Air Toxics Standards proprio mentre la domanda di elettricità negli Stati Uniti cresce con l’espansione dei data center per l’intelligenza artificiale. Le centrali a carbone, responsabili di circa metà delle emissioni di mercurio nel paese, tornano a essere al centro del dibattito sanitario: il mercurio è un neurotossico noto per provocare malformazioni congenite e difficoltà di apprendimento nei bambini, oltre a compromettere reni e sistema nervoso. La deregulation punta a facilitare la costruzione rapida di nuove infrastrutture energetiche e data center, ma lo fa aumentando l’inquinamento proprio mentre le esigenze elettriche crescono per la digitalizzazione, la manifattura interna e la diffusione dei veicoli elettrici.

Se vogliamo davvero parlare di impatto ambientale, occorre spostare la lente da “quanta acqua per query” a “quanto sistema infrastrutturale serve per supportare miliardi di query quotidiane”. Qui l’analogia con le mucche diventa profetica: entrambi i casi mostrano come la narrazione e la percezione pubblica possano deviare dal dato reale. La differenza è che, nel caso dell’AI, la narrativa la costruisce il CEO in prima persona, con un sorriso e un tweet.