L’intelligenza artificiale è idrovora. Non nel senso metafisico, ma molto concreto: ogni parola che leggi, ogni domanda che fai a ChatGPT, ogni linea di codice predetta da un LLM brucia corrente e assorbe acqua. Non solo silicio e matematica, ma infrastruttura fisica e risorse naturali, come ogni altra tecnologia della storia.

Sam Altman, CEO di OpenAI e oracolo involontario dell’era post-digitale, ha recentemente pubblicato un post dove tenta di rassicurare (o distrarre?) l’opinione pubblica con un dato apparentemente innocuo: “una query media di ChatGPT consuma circa 0.000085 galloni d’acqua, ovvero circa un quindicesimo di cucchiaino”. Messa così, l’IA sembra meno un mostro energetico e più una tisana tiepida.

Ma se l’energia è invisibile e l’acqua evapora in fretta, i numeri non mentono. O forse sì, ma con molto stile. Altman accompagna questa goccia con un’altra unità comparativa: 0.34 wattora per ogni query, ovvero quanto un forno elettrico per un secondo, o una lampadina LED per due minuti. Un calcolo da PR, più che da ingegnere, infiocchettato con una sentenza finale degna di Silicon Valley: “il costo dell’intelligenza dovrebbe convergere a quello dell’elettricità”.

Elegante. Eppure, fuori dalle righe levigate del blog, la realtà sembra un po’ più rovente.

Dietro ogni parola predetta da un modello come GPT-4, c’è una rete neurale con miliardi di parametri, ospitata in datacenter che pompano energia e acqua come polmoni artificiali. Questi impianti non solo calcolano incessantemente, ma devono essere raffreddati. Costantemente. Altrimenti si sciolgono. Letteralmente. E il raffreddamento, nei casi più comuni, implica evaporazione d’acqua o impianti di refrigerazione che gridano vendetta ecologica.

Un’inchiesta del Washington Post, con l’aiuto di ricercatori indipendenti, ha calcolato che generare una semplice email di 100 parole con GPT-4 può consumare abbastanza acqua da riempire una bottiglietta. Non un quindicesimo di cucchiaino, quindi, ma qualcosa di più vicino a una dose da picnic. E il dato è variabile: dipende dal tipo di data center, dalla sua ubicazione (i climi secchi peggiorano la situazione), dall’ora del giorno e persino dal fornitore energetico.

La realtà che Altman non menziona — o forse preferisce edulcorare — è che il settore AI sta emergendo come uno dei maggiori consumatori energetici del XXI secolo. Uno studio pubblicato nel 2024 ha previsto che l’AI potrebbe superare il mining di Bitcoin come principale assorbitore di elettricità digitale entro la fine dell’anno. Il che è tutto dire, considerando che il Bitcoin, per anni, è stato il capro espiatorio prediletto della green economy.

Ma non è solo una questione di consumo. È il paradosso etico e politico della nuova Intelligenza a essere sospetto. Da un lato, si promette un’epoca di efficienza e dematerializzazione — meno carta, meno viaggi, meno errori umani. Dall’altro, si costruiscono server farm che divorano energia come centrali industriali, gestite da oligopoli che decidono unilateralmente il futuro cognitivo dell’umanità.

C’è un non detto nel messaggio di Altman, e risiede proprio nella sua frase più seducente: “il costo dell’intelligenza dovrebbe convergere a quello dell’elettricità”. A prima vista suona utopico, quasi marxiano: abbattere il costo della conoscenza, democratizzarla, renderla accessibile come l’illuminazione pubblica. Ma dietro quella convergenza c’è una trasformazione radicale del significato stesso di “intelligenza”.

Se il pensiero umano si misura in kilowattora, allora ogni opinione ha un prezzo. Ogni dubbio, una bolletta. E ogni idea, un impatto ambientale. In un futuro dominato da modelli linguistici sempre più affamati, chi potrà permettersi di “pensare” dieci volte al secondo? E chi verrà zittito perché il suo consumo è diventato eccessivo?

Altman sa bene che la narrazione è tutto. Dire che ChatGPT consuma “un quindicesimo di cucchiaino d’acqua” è una trovata geniale, da storyteller della tecnocrazia. Ma funziona solo se il pubblico non fa domande. Per esempio: quante richieste riceve ChatGPT ogni giorno? Decine di milioni? Centinaia? In tal caso, il cucchiaino diventa un lago. Ogni giorno.

Una curiosità: già nel 2023 Google aveva pubblicamente ammesso che i suoi modelli AI stavano causando un’impennata nei consumi idrici delle sue server farm, soprattutto in Arizona, dove l’acqua è scarsa e preziosa. C’è qualcosa di poeticamente dissonante nel fatto che il progresso dell’AI dipenda dall’evaporazione dell’acqua in uno dei deserti più aridi degli Stati Uniti.

Chiariamo un punto fondamentale: non si tratta di demonizzare l’intelligenza artificiale. Anzi. Il problema è l’ipocrisia con cui viene presentata. L’AI è potente, utile, rivoluzionaria. Ma anche insostenibile, se non affrontata con onestà e trasparenza. L’industria tech ha già vissuto fasi simili — dalla bolla dotcom ai data breach di Facebook. Ogni volta, la retorica della meraviglia ha preceduto il conto da pagare.

Il Greenwashing cognitivo, ovvero dipingere l’AI come un’entità immateriale e virtuosa, è solo l’ultima variante della vecchia truffa: vendere il futuro senza includere le spese di spedizione.

E allora viene da chiedersi: quanto costa davvero un pensiero? E chi ha il diritto di calcolarne il prezzo?

Forse è il momento di tornare a una forma di pensiero che non evapora. Una riflessione che non abbia bisogno di una server farm in Iowa. Magari più lenta, certo. Ma forse anche più vera.