Sam Altman ha aperto il frigorifero dell’AI e ha trovato un altro piatto da servire prima della portata principale. Con un post su X (ex-Twitter), ha spiazzato la solita truppa di evangelisti e profeti GPT annunciando che prima dell’attesissimo GPT-5 arriveranno due modelli intermedi: O3 e O4-Mini. Uscita prevista? “Tra qualche settimana”. GPT-5? “Tra qualche mese”. Una timeline tanto flessibile quanto la RAM di un LLM con deliri d’onnipotenza.
Sotto la patina delle dichiarazioni entusiaste, si intravede però una realtà ben più concreta: anche a OpenAI stanno facendo i conti con la vecchia e sempreverde legge di Murphy applicata all’ingegneria del software. Tradotto: integrare tutto in un unico modello multimodale, che gestisca linguaggio, logica e immagini senza cambiare motore ogni tre prompt, è risultato più difficile del previsto. Un amaro riconoscimento, soprattutto per un’azienda che ha appena chiuso un round da 40 miliardi di dollari. Sì, miliardi, non milioni. La cifra più alta mai raccolta da una tech privata. E se pensavi che fosse per finanziare GPT-5, forse in parte lo è… ma anche per comprarsi tempo.
Nel frattempo la concorrenza non sta a guardare. Google con il suo Gemini 2.5 Pro ha già sparato la sua cartuccia da 1 milione di token di contesto, candidandosi come il miglior modello per ragionamento e codice. Gratis. DeepSeek R2, Grok-3 di Musk e Claude 3.7 Sonnet sono dietro l’angolo, con prezzi da discount e capacità mentali che iniziano a far sembrare GPT-4 un boomer con la calcolatrice.
O3 e O4-Mini, per ora, restano avvolti nel mistero tecnico. Nessun dato concreto, nessun whitepaper, solo l’aspettativa che riempiranno il vuoto tra GPT-4 e l’onnicomprensivo GPT-5. Più bravi a pianificare, più capaci di ricordare, più coerenti nei ragionamenti: promesse, non specifiche. Ma Altman ha insinuato un vantaggio laterale non trascurabile: questo rollout a tappe darà tempo a OpenAI per “rendere GPT-5 molto meglio di quanto pensavamo”. Il che è un elegante modo di dire: “ci siamo incasinati, ma magari ci scappa il miracolo”.
C’è però un dettaglio che sa di nota spese gonfiata in stile Silicon Valley. L’ultima versione rilasciata, O1 Pro, è entrata nel mercato a gamba tesa con una pricing che definire aggressiva è un eufemismo: $150 per milione di token in input, $600 per l’output. Rispetto a GPT-4.5 costa il doppio. Rispetto al modello O1 base? Dieci volte tanto. Per fare un confronto: DeepSeek R1 ti costa meno di $1 per milione di token. E non ti serve vendere un rene per fare un fine-tuning.
Il contesto è chiaro: OpenAI si sta muovendo in un panorama sempre più competitivo dove la leadership tecnica non è più scontata e dove l’hype deve fare i conti con la sostenibilità economica. I modelli intermedi, da soluzione tecnica si trasformano in strategia commerciale: un po’ per monetizzare l’attesa, un po’ per spegnere il brusio crescente di chi comincia a guardare altrove.
Forse GPT-5 sarà davvero il modello che unificherà linguaggio, ragionamento e immagini in un’unica mente sintetica, finalmente coerente. Ma per ora, OpenAI ci vende una promessa in due rate: O3 e O4-Mini. Il capolavoro può aspettare. Nel frattempo, la concorrenza si fa audace, e i clienti… impazienti.