L’era dell’intelligenza artificiale illimitata, quella dove si lasciava Claude Code a macinare prompt nel background come un criceto iperproduttivo, sta per chiudere i battenti. Anthropic, che fino a ieri sembrava la vestale del fair use, ha annunciato l’introduzione di nuovi limiti settimanali all’uso del suo modello di punta, Claude Opus 4, a partire dal 28 agosto. Colpiti saranno gli utenti paganti dei piani da 20, 100 e 200 dollari al mese. L’obiettivo dichiarato? Frenare la “domanda senza precedenti” e mettere un freno a quelli che usano Claude come un cluster privato di compute gratuito. L’obiettivo non dichiarato? Tagliare i super-user che stavano trasformando una promessa di AI sempre disponibile in un buco nero finanziario.
In un mondo dove tutti vogliono l’intelligenza artificiale sempre accesa ma nessuno vuole pagarla quanto costa davvero, il conto inizia ad arrivare. Anthropic lo presenta con toni rassicuranti, da servizio clienti della Silicon Valley: meno del 5% degli utenti sarà impattato, i limiti sono ragionevoli, ci saranno opzioni di acquisto extra. Ma la verità, come sempre, è nascosta nella matematica: il piano Pro da 20 dollari offrirà circa 40–80 ore settimanali di accesso a Claude Sonnet 4, mentre il piano Max da 200 dollari permetterà tra le 240 e le 480 ore di Sonnet 4 e da 24 a 40 ore di Opus 4. Una proporzione ben lontana dal “20 volte più uso” promesso nei mesi scorsi. O stanno misurando in token e non lo dicono, o il marketing ha preso il sopravvento sulla fisica.
Nel frattempo, il perché di questi limiti non è difficile da intuire. Claude Code ha registrato almeno sette interruzioni (parziali o totali) solo nell’ultimo mese. Non a caso. Alcuni utenti, probabilmente bot o agenzie di sviluppo con poca etica e molti task, stavano letteralmente spremendo Claude giorno e notte, come un agente sotto contratto. Account condivisi, accessi rivenduti, script automatici che dialogano con il modello H24. Se sei una startup che costruisce su Claude, potresti anche non aver avuto accesso quando ti serviva. Ed è lì che nasce la vera frizione. Non tra Anthropic e i power-user, ma tra Anthropic e l’affidabilità del proprio servizio.
Tutto ciò avviene in un contesto di scarsità: GPU introvabili, data center in cantiere, e una corsa folle a far quadrare i conti dell’AI generativa. Gli stessi problemi li hanno avuti Cursor, Replit e Anysphere, che negli ultimi mesi hanno dovuto rivedere i piani di pricing per arginare gli utenti “abusanti”. Solo che, come ogni editto affrettato, le correzioni di rotta hanno generato rabbia, confusione e accuse di scarsa trasparenza. Anysphere, per esempio, ha dovuto fare marcia indietro dopo che alcuni utenti del piano Pro avevano scoperto che stavano pagando più del previsto per il loro uso “non standard”.
Il punto è semplice ma scomodo: costruire prodotti AI con una UX fluida, economicamente sostenibili e scalabili è ancora un’utopia. Gli utenti si sono abituati a un’intelligenza artificiale che sembra magica, gratuita, sempre disponibile. Ma dietro ogni prompt ci sono centri dati che bruciano kilowatt, modelli che assorbono RAM come spugne e GPU che costano più di una Tesla. Finché si trattava di demo, andava bene. Ora che si parla di tool professionali e business continuity, le regole stanno cambiando.
Anthropic, con la mossa dei limiti settimanali, sta tentando di prevenire l’effetto “collapse by scale” che ha affossato decine di tool promettenti. Sta anche mettendo dei paletti a un fenomeno inquietante: la rivendita di accessi AI. Alcuni utenti acquistavano un singolo account Max e lo rivendevano come SaaS parallelo. Una forma di arbitraggio tecnologico che, mentre genera profitto per pochi furbi, mina le fondamenta dell’intero modello economico dell’AI-as-a-Service. È come se qualcuno comprasse Netflix Premium e ne vendesse gli accessi orari. Una violazione chiara, ma difficile da tracciare senza una stretta sui limiti di utilizzo.
Certo, il tempismo lascia pensare. Solo poche settimane fa, Anthropic aveva già introdotto silenziosamente dei limiti su Claude Code. Ora arriva la seconda stretta, stavolta comunicata con enfasi: email ai clienti, post su X, dichiarazioni a TechCrunch. Il messaggio subliminale è chiaro: stiamo perdendo soldi o performance, e dobbiamo reagire. Non si tratta solo di contenimento del carico. Si tratta di educare il mercato. Se vuoi usare Claude come un copilota 24/7, dovrai pagarlo come tale. Altrimenti, benvenuto nei limiti della shared economy dell’AI.
Dietro le dichiarazioni di facciata “La maggior parte degli utenti non noterà differenze” si cela una sfida che riguarda tutti i fornitori di modelli di intelligenza artificiale generativa. La crescente asimmetria tra il costo computazionale dei modelli e il prezzo percepito dagli utenti. Una tensione che porterà inevitabilmente a un bivio: o si razionalizza l’uso con rate limit aggressivi, oppure si introduce un modello a consumo, dove ogni millisecondo e ogni token vengono tariffati. La favola dell’intelligenza artificiale flat-rate è finita. La prossima fase sarà meno romantica e più simile alla bolletta elettrica.
Anthropic promette soluzioni future per i “long-running use case”, ma non dice quando né come. Potrebbe voler dire API personalizzate, piani enterprise con SLA garantiti, o integrazioni più strette con ambienti di sviluppo. Potrebbe anche voler dire che il modello Claude Code, oggi visto come uno strumento per tutti, diventerà presto riservato a chi ha margini veri da investirci sopra. In un certo senso, è un ritorno all’élite computazionale. La democratizzazione dell’AI è durata meno di quanto si sperasse.
La lezione è doppia. Da un lato, per chi sviluppa prodotti AI: attenzione a costruire feature killer che non scalano economicamente. Dall’altro, per gli utenti: godetevi finché potete la magia dell’AI a prezzo di un paio di caffè al mese. Perché nel futuro prossimo, ogni ciclo di GPU potrebbe essere fatturato. Con precisione chirurgica.