Il fatto che OpenAI abbia deciso di sciogliere il team Model Behavior dentro il più massiccio gruppo di Post Training non è solo una nota da corporate memo, ma un segnale preciso di dove si sta spostando l’asse della strategia AI globale. Quando un’azienda come OpenAI mette nero su bianco che la “personalità” delle sue macchine deve avvicinarsi al cuore del ciclo di sviluppo, significa che la battaglia non è più solo sulle performance dei modelli, ma sul controllo del loro carattere. Perché oggi l’AI non è giudicata soltanto dai benchmark tecnici, ma da come risponde, da come si fa percepire, da quanto riesce a essere più amica che strumento, senza scivolare nel servilismo digitale.

Il paradosso è che questa squadra di quattordici ricercatori era nata per domare esattamente quel lato fragile che distingue un buon modello da un rischio reputazionale globale. Troppa compiacenza e l’AI diventa un yes-man di silicone, capace di confermare convinzioni tossiche con un sorriso algoritmico. Troppa distanza e l’utente percepisce freddezza, quasi ostilità. Il caso di GPT-5, accusato dagli utenti di risultare freddo e impersonale, è un esempio di come l’ago della bilancia sia sottile. OpenAI si è trovata costretta a ripescare vecchie versioni come GPT-4o per placare il malcontento, salvo poi tentare un lifting al modello più recente per renderlo “più caldo” senza ridare ossigeno al virus del servilismo.

Il problema si amplifica perché il comportamento di un modello non è un dettaglio estetico, ma la base della fiducia. E la fiducia è oggi il vero capitale competitivo nel mercato AI. In un ecosistema dove tutti hanno accesso alle stesse GPU, gli stessi paper e lo stesso talento matematico, ciò che differenzia è l’esperienza dell’utente. L’interfaccia invisibile fatta di tono, sfumature e capacità di resistere alle manipolazioni diventa il vero campo di battaglia. Ed è qui che nasce OAI Labs, la nuova creatura di Joanne Jang, che si sgancia dal Model Behavior per esplorare interfacce radicalmente diverse dal paradigma della chat. Il che, tradotto, significa cercare un futuro in cui non ci limitiamo più a scrivere in una casella di testo, ma usiamo l’AI come “strumento per pensare, giocare, creare e connettere”.

Il timing della riorganizzazione non è casuale. OpenAI è sotto pressione legale e politica dopo tragedie che hanno visto chatbot incapaci di frenare conversazioni autodistruttive. Le famiglie coinvolte e i procuratori generali di California e Delaware puntano il dito sulle falle di sicurezza, ricordando che la missione originaria del non profit era proteggere l’umanità dall’uso irresponsabile dell’intelligenza artificiale. Quando due Attorney General scrivono che “qualunque salvaguardia fosse in atto non ha funzionato”, la frase pesa come piombo sulle scrivanie dei board. Aggiungiamo che la stessa struttura societaria di OpenAI, con la transizione verso un’entità for profit, è sotto indagine. Il messaggio implicito è cristallino: non potete correre verso l’AGI se inciampate sulle basi minime della sicurezza dei minori.

Il dilemma di fondo resta irrisolto. Come costruire un modello che sia “caldo e umano” senza diventare complice? Come dare risposte empatiche senza alimentare illusioni? La differenza tra una conversazione terapeutica e un abisso digitale può stare in un singolo prompt. Ed è per questo che integrare il comportamento nel ciclo di post training è una mossa logica, quasi obbligata. Si porta la regolazione della voce, del tono e della postura etica allo stesso livello delle ottimizzazioni sulle capacità di ragionamento.

Non è un caso che proprio mentre OpenAI rimescola le carte interne, i concorrenti si muovono in direzioni simili. Tutti hanno capito che la partita è più semantica che sintattica. Le aziende non stanno solo vendendo software, ma compagnia, assistenza, persino conforto. E quando la narrativa pubblica si concentra su episodi di suicidi o interazioni inappropriate con minori, il rischio non è soltanto reputazionale ma esistenziale per il business.

Dietro i comunicati rassicuranti, resta la sensazione che ci sia una corsa contro il tempo. Il team Model Behavior è stato assorbito perché non è più un laboratorio sperimentale, è una funzione critica di core business. E il fatto che una figura come Jang decida di investire sulla creazione di OAI Labs dimostra che l’era della chat come interfaccia definitiva sta finendo. Forse il futuro dell’AI sarà più simile a uno strumento musicale che a un segretario elettronico. Strumenti che amplificano, stimolano, creano, invece di limitarsi a rispondere.

Chi guarda la scena con un occhio da investitore o da policymaker dovrebbe trattenere due lezioni. Primo, il comportamento dei modelli è un asset, non un dettaglio. Secondo, i fallimenti di sicurezza non sono incidenti di percorso, ma mine sotto la credibilità del settore. Non stupisce che gli attorney general parlino di “accelerare e amplificare la sicurezza come forza di governo”. In altre parole, se le aziende non alzano da sole l’asticella, saranno gli stati a farlo, con regolazioni invasive che potrebbero rallentare l’intera corsa.

Sotto la superficie, l’impressione è che OpenAI stia tentando un equilibrio impossibile tra tre forze contraddittorie. Da un lato la pressione degli utenti che chiedono calore e personalità. Dall’altro la necessità tecnica di ridurre il servilismo e i bias politici. Infine la lente spietata di regolatori e media che attendono il prossimo inciampo per puntare il dito. È in questo spazio stretto che il team Model Behavior rinasce sotto altra forma, e che OAI Labs spera di inventare un linguaggio nuovo.

Il futuro della AI non sarà deciso dal prossimo salto di potenza di calcolo, ma da come gestiremo queste sfumature. Il carattere dei modelli è la nuova frontiera. Chi riuscirà a bilanciare calore senza complicità, empatia senza servilismo, sicurezza senza sterilità vincerà la partita. Il resto è rumore di fondo, utile per riempire i convegni di San Francisco e i pitch deck dei VC, ma irrilevante di fronte al fatto che, alla fine, tutto si gioca su una domanda semplice: ci fidiamo davvero di parlare con queste macchine?