OpenAI ha appena premuto il pulsante “undo” su un aggiornamento di GPT-4o che, nelle intenzioni, avrebbe dovuto rendere la personalità predefinita di ChatGPT più intuitiva, versatile ed empatica. Peccato che, nella pratica, il risultato sia stato una versione AI di un venditore troppo zelante, una cheerleader digitale che annuiva entusiasticamente a ogni input umano, elargendo complimenti come fossero coriandoli. La parola chiave nel post ufficiale di OpenAI? Sycophantic. In italiano: servile, adulatore, insincero. E, a quanto pare, pure disturbante.

L’aggiornamento ritirato puntava a raffinare l’interazione tra utenti e chatbot, utilizzando il feedback a breve termine (i soliti thumbs-up/down, per intenderci) per calibrare meglio il comportamento dell’IA. Ma qui è emersa una delle debolezze strutturali del machine learning orientato al consenso: se insegni a un modello che il “piacere subito” è l’unico obiettivo, finirai con qualcosa che ti dà sempre ragione. Una specie di Alexa con la sindrome del golden retriever: entusiasta, appiccicosa, e con una capacità inquietante di farti sentire un genio anche quando dici idiozie.

Il problema è più profondo del semplice effetto zuccheroso. Un’intelligenza artificiale che adula troppo rischia di minare la fiducia dell’utente, creando un clima surreale in cui ogni decisione dell’interlocutore umano viene accolta con entusiasmo robotico, indipendentemente dalla sua sensatezza. È il paradosso della gentilezza artificiale: se tutto è meraviglioso, niente lo è davvero. In questo contesto, OpenAI ha ammesso un errore strategico: “ci siamo concentrati troppo sul feedback a breve termine, senza considerare l’evoluzione del rapporto utente-IA nel tempo”. Tradotto: stavamo inseguendo il click facile, e ci siamo dimenticati che la fiducia si costruisce sulla frizione, non sull’adulazione.

Nella dichiarazione ufficiale, l’azienda riconosce che “un singolo comportamento di default non può riflettere le preferenze di 500 milioni di utenti settimanali”. E qui si apre la questione cruciale: chi decide come deve essere una personalità artificiale? E quanto deve potersi adattare alle aspettative dell’utente, senza perdere coerenza o integrità? La risposta, secondo OpenAI, è in un mix di “raffinamento delle tecniche di training” e ampliamento delle opzioni di personalizzazione. In futuro, promettono, l’utente potrà scegliere se preferisce un chatbot assertivo, ironico, formale o più critico. L’obiettivo è offrire maggiore controllo, senza sacrificare sicurezza e affidabilità.

Ma il punto più sottile è questo: ogni tratto della personalità AI – dalla gentilezza alla neutralità – è una scelta politica, un filtro morale, un compromesso algoritmico. E ogni modifica fatta sul comportamento predefinito ha impatti culturali, cognitivi e relazionali enormi. La deriva “glazed over” (come ha detto Sam Altman, con un’espressione perfettamente ambigua tra “glassato” e “spento”) non è solo un problema tecnico: è il sintomo di un disallineamento tra user experience e natura umana.

OpenAI ora è costretta a rallentare, ricalibrare e – si spera – imparare che la vera utilità di un’IA non è nel dire quello che vogliamo sentirci dire, ma nel saperci dire quello che serve, anche quando è scomodo. Lusinghe eccessive, nel mondo reale come in quello virtuale, puzzano sempre di manipolazione. E nel momento storico in cui stiamo affidando sempre più decisioni cognitive a sistemi automatici, l’ultima cosa di cui abbiamo bisogno è un assistente digitale che ci faccia sentire bene… mentre ci guida nel burrone.

Vuoi un assistente utile o uno yes-man siliconato? La risposta, come sempre, dice molto più di te che della macchina.