Nel 1999, bastava una home page con un contatore di visite e un paio di banner animati per ottenere una valutazione da miliardi. I capitalisti di ventura si esaltavano per ogni clic, e nessuno osava chiedere “ma dove sono i profitti?”. Ora, a venticinque anni di distanza, abbiamo trovato il nuovo incantesimo magico: i token.

I token dell’IA stanno diventando la valuta di riferimento nei salotti dorati della Silicon Valley, lo stendardo da sventolare in ogni investor pitch, l’incenso da bruciare nei templi della produttività futura. Se ai tempi della dot-com economy erano i “pageviews”, oggi sono i “trilioni di token elaborati”. È cambiata la metrica, ma non il rito.

Un token, tecnicamente, è una frazione linguistica, un brandello di parola. Ma nel contesto dell’IA, è molto di più: è l’unità atomica del pensiero algoritmico, l’elettrone dell’intelligenza sintetica. “Token >> dazi!!”, proclama Coatue, come se avesse appena riscritto le leggi dell’economia globale con un’equazione da Silicon Valley. Philippe Laffont lo dice chiaramente: non sono l’inflazione o il debito a guidare i mercati oggi, ma l’appetito bulimico per elaborare token.

È il tipo di affermazione che un hedge fund manager può permettersi di fare quando ha 54 miliardi di dollari sotto gestione e una sedia prenotata nei consigli di amministrazione delle startup più trendy della West Coast.

In questo nuovo culto dell’intelligenza artificiale, ogni trilione di token è un’offerta votiva. Microsoft ne ha macinati 100 trilioni nel primo trimestre, Google ne ha digeriti 480 trilioni solo ad aprile. Together AI, che nessuno al di fuori della ristretta cerchia degli addetti ai lavori conosceva fino a ieri, è ora celebrata come una nuova divinità tokenizzata: 24 trilioni l’anno, sei volte di più rispetto a sei mesi fa. Qualcuno prenda nota per il Guinness.

È un paradosso degno di Orwell: più l’IA diventa efficiente, più token consuma. Ed è qui che entra in scena il Paradosso di Jevons, resuscitato dai venture capitalist per giustificare la corsa all’hardware, alla cloud e ai modelli sempre più costosi. In teoria, se qualcosa diventa più economico, se ne dovrebbe usare meno. Ma in realtà – e qui i finanzieri brillano nel mascherare una banale osservazione empirica come illuminazione macroeconomica – se l’elaborazione di token costa meno, allora tutti inizieranno a elaborarne molti di più. E quindi? Quindi i ricavi saliranno, ovviamente, e avanti con gli investimenti.

Jensen Huang di Nvidia, ormai una sorta di Dalai Lama del deep learning con GPU in pelle nera, paragona i token all’elettricità. E se i chip sono le centrali, i token sono i kilowattora di un mondo digitale in piena industrializzazione. Ogni volta che un modello LLM risponde a una domanda, crea un riassunto, genera un codice, si consuma una frazione di questo nuovo carburante.

Curioso, però: mentre la domanda di token esplode, il loro valore monetario unitario sta crollando. Il prezzo per milione di token è sceso, e continuerà a scendere. Le aziende lo sanno, ma come nei giorni gloriosi del web 1.0, la logica è che prima si conquista il territorio, poi si monetizza. Forse. Ma chi vende l’energia – leggasi Nvidia e i suoi cloni – incassa subito. A valle, chi costruisce le app, spera.

Il vero colpo di scena arriva però da Riyadh, dove Humain, startup sponsorizzata dal fondo sovrano saudita (quello da 900 miliardi, per intenderci), ha avuto l’illuminazione definitiva: se oggi esportano petrolio, domani esporteranno token. La proposta è affascinante nella sua follia: trasformare il deserto in una miniera di intelligenza artificiale, alimentata dal sole e venduta sotto forma di calcolo. Non più barili, ma trilioni.

Sembra una battuta da Silicon Valley, e invece è una strategia geopolitica. Perché chi controlla l’energia oggi, controlla i dati domani. E chi controlla i dati, controlla la narrazione. È questo che seduce gli investitori: il sogno di possedere la nuova OPEC del calcolo.

Naturalmente, ci sono dei problemi. Non tutti i token sono creati uguali. Alcuni modelli sono più “affamati”, altri più frugali. Alcuni usano token per pensare, altri per confondere. E poi c’è il problema dell’overfitting semantico: se il mercato inizia a contare solo token, si rischia di ignorare il contesto, l’efficacia, l’impatto reale. Ma a chi importa, se la curva è esponenziale?

Le conference call diventano liturgie. Satya Nadella parla di token come un prete della produttività. Sundar Pichai recita numeri astronomici come fossero versetti. Brad Gerstner di Altimeter non si contiene: “volume parabolico” è la nuova killer feature. Tomasz Tunguz su Medium scrive che “i dubbi sulla domanda insaziabile sono stati spazzati via”, come se avesse assistito all’apparizione della Madonna nel dashboard di Azure.

Siamo tornati, insomma, nel regno della fede. Dove un nuovo metro misura tutto, e la sua crescita esponenziale diventa profezia. I token sono i nuovi clic, solo più veloci, più piccoli, più numerosi. E forse altrettanto ingannevoli.

Ma in fondo, come disse una volta Marc Andreessen, “il software sta mangiando il mondo”. Nessuno disse che avrebbe digerito bene.