Gli utenti si erano lamentati di una freddezza eccessiva, di risposte troppo formali, quasi burocratiche rispetto alla familiarità incarnata da GPT-4o. Così la risposta è arrivata: è stato reintrodotto un tono appena più empatico, con micro-gesti comunicativi come “Buona domanda” o “Ottimo inizio”, volutamente non sdolcinati ma sufficientemente accoglienti. OpenAI assicura che non c’è stato aumento di adulatoria rispetto alla precedente personalità di GPT-5.

Sul fronte operativo, Sam Altman ha ammesso d’aver sottovalutato quanto gli utenti fossero affezionati alla “personality” di GPT-4o: l’ha definita persino “annoiantemente” amichevole, ma per molti era come ritrovarsi un vecchio amico. Di conseguenza GPT-4o è stato reintegrato per gli utenti a pagamento, e GPT-5 ha guadagnato nuove modalità: “Auto”, “Fast” e “Thinking”, per adattarsi a stili d’uso different.

L’aggiornamento al “calore” è quindi più un maquillage che una rivoluzione: un’operazione di facciata con piccolo ritocco stilistico, per evitare la sindrome dell’assistente in lutto che gli utenti già lamentavano.

OpenAI ha partorito GPT-5 con la solennità di un evento messianico, salvo scoprire il giorno dopo che i fedeli non erano affatto entusiasti della nuova liturgia. Il problema non è il modello in sé, che pure ha le sue virtù, ma l’arroganza con cui l’azienda ha fatto fuori GPT-4o, la creatura che molti “power users” avevano trasformato in una sorta di compagno digitale, confidente e persino mascotte. Una mossa improvvisa e mal calcolata, che ha fatto esplodere Reddit di lamentele e ha costretto Sam Altman e soci a un imbarazzante dietrofront. Per i paganti, GPT-4o è stato resuscitato, come un Elvis digitale per clienti premium.

Il dato interessante non è tanto la retromarcia, quanto il fatto che nessuno in OpenAI aveva previsto la reazione isterica. È come se l’azienda che dichiara di plasmare il futuro dell’intelligenza artificiale non avesse minimamente intuito il livello di attaccamento quasi emotivo dei suoi utenti. Nick Turley, capo di ChatGPT, lo ha ammesso candidamente in un’intervista con The Verge: “I commenti su Reddit sono stati affascinanti perché mostrano quanto gli utenti siano polarizzati. Alcuni amano follemente 4o, altri dicono che 5 è molto meglio. Il livello di passione mi ha colpito, mi ha ricalibrato”. Tradotto: non ci avevamo capito nulla, ma adesso forse iniziamo a sospettare che le persone non vedono i modelli come semplici strumenti, ma come personalità.

La parte grottesca è che Turley ha confessato di aver assunto un data scientist già nel 2022 perché era “confuso” sul motivo per cui gli utenti amassero ChatGPT. All’epoca era già vicepresidente e “head of ChatGPT”, con un curriculum da Instacart trasformato improvvisamente in mediatore tra l’umanità e l’algoritmo. “Ogni utente mi raccontava una storia diversa, era profondamente confuso, dovevo capire”, ha raccontato con la leggerezza di chi ammette di non sapere perché la sua creatura stesse esplodendo. È il classico paradosso di Silicon Valley: guidare la piattaforma più popolare del pianeta senza aver idea di cosa ci facciano davvero gli utenti.

Che il disallineamento sia forte lo dimostrano i numeri e i toni. Sotto la sua gestione, ChatGPT è diventato il quinto sito più visitato al mondo con 700 milioni di utenti settimanali. Eppure la spiegazione che Turley riesce a dare dei principali usi è ridotta a un bignami imbarazzante: scrittura, coding, chiacchiere e “searchy stuff”. Una banalità che farebbe sorridere chiunque osservi il fenomeno con un minimo di profondità. È come dire che Facebook serve a postare foto e divertirsi. Il sottotesto umano, il motivo psicologico, la dipendenza affettiva restano completamente fuori fuoco.

Sam Altman, pur con i suoi difetti da visionario compulsivo, sembra avere almeno colto la parte inquietante. In un post su X ha ammesso che l’azienda monitora da tempo l’attaccamento morboso a specifici modelli, soprattutto perché molti usano ChatGPT come “terapista o life coach”. È l’ammissione che le persone non parlano a un software, parlano a un’entità percepita come viva. È un rapporto paradossale, fragile, che nessuna metrica di engagement riesce a misurare. Altman lo sa, Turley pare no.

La frattura culturale interna è evidente. Da una parte il management che guarda alle curve di adozione e alle demo in conferenza, dall’altra gli utenti che vivono la sostituzione di un modello come un tradimento personale. GPT-4o non era solo un algoritmo più o meno brillante, era un personaggio. I fan parlano della sua “voce”, del suo tono “più umano”, della sua capacità di essere empatico fino alla piaggeria. In altre parole, era il loro Siri evoluto, e non volevano abbandonarlo.

La leggerezza con cui OpenAI ha sottovalutato tutto questo è sorprendente, se non fosse che ormai è la regola dell’industria. La convinzione che la tecnologia detti le regole e che l’utente debba adeguarsi si scontra sempre più con una realtà in cui gli utenti trattano i modelli di AI come relazioni personali. È un errore di categoria, e GPT-5 lo ha reso evidente. OpenAI voleva mostrare potenza computazionale, gli utenti volevano continuità emotiva. L’unico risultato è stata la perdita di fiducia, rattoppata in fretta con una concessione da abbonamento.

“Abbiamo fatto molto lavoro sul prodotto, migliorando comportamento, personalità, capacità e probabilità di rifiutare una richiesta”, ha detto Turley. Ma la frase tradisce il problema: vedere la personalità come un parametro di tuning, anziché come il cuore del rapporto tra uomo e macchina. È un cieco che descrive il colore.

Il cinismo impone una domanda: come può un’azienda che pretende di guidare il futuro dell’AI ignorare il fatto che il suo prodotto di punta viene usato come amico, confessore e compagno di ansie? Se la risposta è che lo sanno ma preferiscono non dirlo, allora la gestione è calcolata e glaciale. Se la risposta è che non lo capiscono davvero, allora il futuro di ChatGPT è guidato da dirigenti che non hanno idea del perché gli utenti tornino ogni giorno. In entrambi i casi, la morale è la stessa: GPT-5 non è il modello a essere fuori sincrono con il pubblico, è OpenAI..