Che Meta avesse un problema con l’intelligenza artificiale non era un mistero. Che avesse anche un problema di ego, forse lo era un po’ di più. Ma oggi, a guardar bene, le due cose coincidono. Martedì è arrivata la conferma: la divisione AI generativa è stata ufficialmente smontata e risuddivisa in due tronconi. Non è solo una riorganizzazione: è una mossa chirurgica con tanto di anestesia semantica, perfettamente stile Silicon Valley.

Da un lato, il solito team “ricerca”, che continuerà a inseguire la chimera del Large Language Model perfetto, capeggiato da Ahmad Al-Dahle e Amir Frenkel. Dall’altro, il team “consumer products”, guidato da Connor Hayes, che si occuperà di far funzionare concretamente Meta AI – il famigerato assistente virtuale che dovrebbe un giorno riuscire a distinguere tra un utente ironico e un terrorista.

Questa separazione puzza meno di innovazione e più di damage control. Quando si arriva a riorganizzare con una cadenza semestrale, come accade in Meta, vuol dire che qualcosa non va. E quel qualcosa, guarda caso, è proprio la keyword: modello linguistico. E le sue sorelle semantiche: intelligenza artificiale generativa e Meta AI.

Llama 4, la superstar promessa, ha già mostrato i primi segni della sindrome da diva fuori fase. Il lancio è stato ritardato, i benchmark tecnici deludenti e – dulcis in fundo – quando finalmente è arrivato ad aprile, ha portato con sé una nuova ondata di imbarazzo. Perché no, non è stata la versione effettiva ad apparire nei ranking globali: era una release sperimentale, internamente soprannominata “Maverick”, caricata di nascosto per far bella figura. Non è un comportamento da big tech, è più da influencer disperato alla ricerca del like facile.

Dietro questa facciata da “move strategica per accelerare il progresso” – come scrive il Chief Product Officer Chris Cox – si intravede il solito nodo irrisolto di Meta: un’ossessione per la leadership apparente, a scapito dell’efficacia reale. In altre parole, prima vinci i ranking (anche con l’inganno), poi cerchi di costruire qualcosa di solido. L’opposto dell’approccio Apple, che mostra i denti solo quando il prodotto è blindato.

L’ironia qui è evidente: mentre OpenAI, Google DeepMind e persino i cinesi di DeepSeek avanzano con modelli solidi, affidabili, performanti (e soprattutto meno autocelebrativi), Meta fa scena. Ma sotto il cofano, i problemi sono tecnici prima che organizzativi. I modelli Llama, per quanto pubblicizzati come “open” (spoiler: non lo sono del tutto), soffrono ancora di generalizzazione limitata, instabilità in context length, e un fine-tuning che non riesce a tenere il passo delle richieste di scala reale.

A gennaio, DeepSeek ha umiliato i modelli di Menlo Park, e non perché avesse chissà quale superpotere: semplicemente, meno storytelling e più engineering. Meta, invece, ha risposto con una ristrutturazione e il classico “cambio di leadership”, rimuovendo due responsabili di ingegneria come fossero scarti di codice. Non è così che si costruisce un’AI vincente. Ma si costruisce ottimo materiale per un comunicato stampa.

Se guardiamo il quadro generale, si intravede una dinamica tipica da gigante sotto pressione. Come un vecchio impero che barcolla ma non crolla. Meta continua a investire miliardi in AI, perché è l’unico futuro che le resta. I social stagnano, il metaverso è evaporato nel nulla (salvo Oculus, che tiene botta), e la pubblicità digitale è ormai cannibalizzata da TikTok e Amazon. Restava l’AI, ma ora anche lì ballano la samba.

L’effetto finale è quello di una corporate schizofrenica: un piede nella ricerca pura, l’altro nella consumerizzazione spinta. E al centro, un cuore che batte a ritmo di KPI e sentiment analysis, più che di reale innovazione. “Superare le sfide più grandi”, dice Cox. Ma forse dovrebbe iniziare da quella più semplice: dire la verità, anche quando fa male.

Una curiosità: il nome “Maverick” non è casuale. In gergo militare – e hollywoodiano – indica un solitario che fa di testa sua. Un ribelle. Ma anche uno che, spesso, si schianta. Non c’è bisogno di aggiungere altro.

E nel frattempo, Llama continua a non ragliare abbastanza forte.