Parlare di intelligenza artificiale e ambiente oggi significa camminare su un terreno minato di allarmismi e semplificazioni. Google ha deciso di affrontare questa narrativa con numeri concreti, pubblicando uno studio dettagliato sull’impatto energetico del modello Gemini. Sorprendentemente, una singola richiesta di testo consuma solo 0.24 wattora, circa quanto guardare la TV per nove secondi, emette 0.03 grammi di CO₂, l’equivalente di un’email, e utilizza 0.26 millilitri d’acqua, cinque gocce per intenderci. Numeri che contraddicono la vulgata di consumi da data center da fantascienza, spesso citata senza considerare CPU per routing, macchine inattive e sistemi di raffreddamento.
Google non ha scelto scorciatoie: lo studio considera l’intero ecosistema infrastrutturale, un approccio che chiama “più onesto e completo”. Efficienza e innovazione giocano un ruolo decisivo: Gemini ha ridotto il consumo energetico di 33 volte e l’impronta carbonica di 44 volte nell’ultimo anno grazie a ottimizzazioni software, hardware e acquisti di energia rinnovabile, senza tagliare le prestazioni. Ma qui arriva la nota dolente: non esistono standard globali condivisi. A seconda dei parametri, le stime possono variare di un fattore 100, generando confusione, allarmi e titoli catastrofisti che dominano l’informazione mainstream.
Il quadro diventa più complesso se osserviamo le emissioni complessive di Google. Il Financial Times documenta un aumento del 50% negli ultimi cinque anni, trainato dall’espansione dei servizi AI. I data center, già noti per consumare il 7-10% dell’elettricità globale dei centri dati, sono al centro del dibattito. Un articolo del maggio 2025 ammonisce: “Non sappiamo ancora quanto energia consumi davvero l’AI”, sottolineando che ogni query, ogni immagine generata, incrementa la pressione energetica globale. Le previsioni parlano di un raddoppio dei consumi entro il 2030 a oltre 945 TWh, mentre le big tech vengono criticate per tentativi di riscrivere le regole del net zero, mascherando impatti reali tramite consumo di energia rinnovabile locale.
Il Wall Street Journal adotta un approccio simile, più sfumato, riconoscendo l’impegno di Google nel comunicare il costo ambientale delle proprie AI. Però evidenzia un aumento del 51% delle emissioni dal 2019, legato ai carichi AI. Citando dati impressionanti: “Un data center AI può consumare quanto 100.000 famiglie”. Previsioni audaci parlano di un 12% del fabbisogno elettrico statunitense reclamato dall’AI entro il 2028. WSJ nota possibili soluzioni tecnologiche, come chip più efficienti rispetto a Nvidia, ma critica l’omissione di dettagli nello studio, definendolo potenzialmente fuorviante.
La percezione pubblica riflette scetticismo e polarizzazione. Su Reddit, in r/environment, un utente commenta: “I numeri sono sorprendentemente piccoli – 0.24 Wh per query, con il 58% dai chip AI”, ma ricorda che l’intera infrastruttura amplifica l’impatto. In r/technology si discute del consumo 10 volte superiore delle AI summaries rispetto a una normale ricerca. Un redditor osserva: “Preoccupa la sostenibilità, con AI che consuma fino a quattro volte più acqua del previsto”. Dall’altra parte, in r/aiwars, qualcuno difende l’AI: “Genera immagini con meno risorse di un artista digitale”, mentre su ChatGPT si evidenzia un consumo 25 volte superiore rispetto a Google Search, alimentando dibattiti etici.
Il caso Google mostra che l’AI non è l’apocalisse energetica che molti dipingono, ma nemmeno innocua. I numeri di Gemini sono reali, misurabili e ottimizzati, ma l’espansione incontrollata dei data center e l’assenza di standard globali mettono in discussione ogni affermazione ottimistica. Il tema non è solo energetico: il vero problema è la trasparenza e la governance dei sistemi AI, capaci di cambiare il panorama economico, ambientale e sociale più velocemente di quanto la narrativa pubblica possa adattarsi.
Curiosamente, questa dinamica riflette una tensione sistemica: da un lato la rivoluzione AI promette efficienza e ottimizzazione, dall’altro rischia di alimentare illusioni di sostenibilità. La soluzione non è semplicemente ridurre i numeri per query o investire in energia rinnovabile locale, ma adottare standard condivisi, audit indipendenti e metriche coerenti. L’AI, nel frattempo, cresce, scala, genera dati e immagini a velocità vertiginosa, e ogni decisione tecnologica diventa un atto politico, economico e ambientale.
Reddit diventa così un microcosmo di dibattito pubblico: chi difende l’efficienza, chi mette in guardia dagli eccessi e chi ironicamente sottolinea che, nonostante tutto, 0.26 millilitri d’acqua a query sembrano più una curiosità da bar che un vero impatto ecologico. L’ironia del dato scientifico si scontra con la narrativa emotiva, creando una tensione permanente tra realtà e percezione. Non è questione di catastrofismo, ma di responsabilità: il futuro energetico dell’AI si decide oggi, tra ottimizzazioni hardware, scelte di sourcing elettrico e limiti imposti dalla società, prima che i titoli dei giornali lo decidano per noi.
Lo studio Google smonta miti, ma i segnali del FT e del WSJ avvertono: l’AI scalabile non è neutra. Il dibattito pubblico, amplificato da social e forum, riflette in tempo reale preoccupazioni e contraddizioni. Non basta dire che l’AI consuma poco per query: il vero impatto emerge nella somma delle query, delle generazioni di immagini e dei modelli che girano in parallelo nei data center globali. Servono standard, audit e metriche globali, ma soprattutto consapevolezza che l’efficienza per singola query non salva automaticamente il pianeta.
Chi guarda il report Gemini potrebbe sorridere di fronte a cinque gocce d’acqua per query, mentre gli addetti ai lavori osservano l’orizzonte: se il numero di query cresce esponenzialmente, ogni goccia diventa un oceano. Google ha ridotto emissioni e consumo per query, ma il pianeta non valuta i miglioramenti relativi: guarda solo i totali. La lezione è chiara per ogni CTO, CEO o policy maker: ottimizzare l’AI non basta, bisogna governarla. Il mito dell’AI divoratrice di energia è stato in parte smontato, ma la sfida di trasparenza, standardizzazione e sostenibilità rimane aperta, e non certo per gli ipocriti o i distratti.