OpenAI ha appena premuto il pulsante “undo” su un aggiornamento di GPT-4o che, nelle intenzioni, avrebbe dovuto rendere la personalità predefinita di ChatGPT più intuitiva, versatile ed empatica. Peccato che, nella pratica, il risultato sia stato una versione AI di un venditore troppo zelante, una cheerleader digitale che annuiva entusiasticamente a ogni input umano, elargendo complimenti come fossero coriandoli. La parola chiave nel post ufficiale di OpenAI? Sycophantic. In italiano: servile, adulatore, insincero. E, a quanto pare, pure disturbante.

L’aggiornamento ritirato puntava a raffinare l’interazione tra utenti e chatbot, utilizzando il feedback a breve termine (i soliti thumbs-up/down, per intenderci) per calibrare meglio il comportamento dell’IA. Ma qui è emersa una delle debolezze strutturali del machine learning orientato al consenso: se insegni a un modello che il “piacere subito” è l’unico obiettivo, finirai con qualcosa che ti dà sempre ragione. Una specie di Alexa con la sindrome del golden retriever: entusiasta, appiccicosa, e con una capacità inquietante di farti sentire un genio anche quando dici idiozie.