Al quartier generale di Meta, durante la prima storica edizione del LlamaCon, Chris Cox Chief Product Officer dal sorriso da evangelista ha preso il microfono per annunciare ciò che gli sviluppatori attendevano da mesi: l’API ufficiale per Llama, il modello open-source di intelligenza artificiale generativa targato Menlo Park. Per ora si tratta solo di una “limited preview”, una specie di ingresso VIP solo su invito, ma il messaggio è chiarissimo: Meta non vuole restare a guardare mentre OpenAI, Google e Anthropic si spartiscono il bottino dell’AI-as-a-Service.

Dietro gli applausi di circostanza e l’atmosfera da evento per early adopters californiani, si cela un movimento molto più strategico. Offrire Llama tramite API – ovvero rendere il modello disponibile in modalità software as a service, come fa OpenAI con ChatGPT o Claude di Anthropic – è l’unica strada per scalare, monetizzare, e soprattutto colonizzare l’ecosistema enterprise. Zuck l’ha capito tardi, ma adesso vuole fare sul serio.

Il fatto che non ci siano ancora dettagli sul pricing non è casuale. Meta sta cercando di capire fino a che punto può spingersi nell’offerta, senza rompere l’incantesimo dell’open source e senza rovinare la festa ai suoi partner cloud, tipo AWS e Azure, che già offrono Llama nei loro marketplace. È un gioco sottile tra apertura e controllo, gratuito e commerciale, dove l’unico imperativo è: restare rilevanti.

A livello tecnico, il rilascio dell’API è una svolta necessaria. Le aziende non vogliono più scaricare modelli da GitHub, impazzire con GPU Nvidia introvabili o assumere data scientist con la sindrome di Frankenstein. Vogliono chiamare un endpoint, inviare un prompt, ricevere una risposta, e magari pagare a consumo. In questo senso, Meta sta finalmente vestendo i panni del fornitore di infrastruttura, scrollandosi di dosso il ruolo di semplice contributore open. Llama API è un passo verso una Meta developer-centric, dove il prodotto non è più Facebook, ma l’intelligenza stessa.

Quello che Cox non ha detto ma tutti hanno capito è che il modello non sarà solo ospitato da Meta. Verrà probabilmente integrato nel bouquet di servizi cloud ibridi, resi compatibili con altre piattaforme LLM, magari orchestrati da strumenti simili a LangChain. Insomma, la guerra non è più solo tra modelli, ma tra ecosistemi di integrazione.

E qui nasce l’unico vero dilemma: quanto può Meta competere con aziende nate API-first come OpenAI? È difficile pensare a un’adozione di massa senza una UX developer-friendly, senza strumenti pensati per la frizione zero e senza una roadmap pubblica. Se vuole fare sul serio, Meta deve abbandonare le mezze misure. Un’API non è solo un prodotto, è un patto con la comunità degli sviluppatori: trasparenza, stabilità e documentazione ossessiva.

La scelta di lanciare Llama API in concomitanza con un evento dedicato – LlamaCon – è un segnale di branding notevole. Meta vuole creare l’equivalente di WWDC per il proprio universo IA. Vuole un seguito, una tribù, una narrativa. Ma per ora è solo un annuncio. Il vero test sarà quando i primi partner – magari qualche fintech assetata di automazione – inizieranno a costruire cose reali, scalabili, e pronte per il mercato.

Nel frattempo, chi è in lista d’attesa può iniziare a prepararsi: Meta sta aprendo la porta di un nuovo giardino recintato. Bello, scintillante, ma pur sempre recintato. La rivoluzione open-source, a quanto pare, passa ora anche da un token API.