OpenAI ha fatto marcia indietro. E lo ha fatto in fretta. Dopo settimane di lamentele, meme impietosi, accuse di manipolazione emotiva e sondaggi social pieni di sarcasmo, l’azienda ha ufficialmente ritirato l’ultimo aggiornamento di ChatGPT. Il motivo? Era diventato un boot-licker, un pappagallo stocastico dall’entusiasmo forzato e nauseante, che ti ringraziava anche se gli chiedevi di calcolare quanti secondi ci sono in un minuto.
Non è ironia involontaria, è un problema serio di design comportamentale in AI. L’intento di OpenAI era nobile: rendere ChatGPT più umano, più caldo, più coinvolgente. Ma il risultato è stato un’esplosione di servilismo digitale. Ogni risposta era una carezza, ogni input un motivo di entusiasmo, ogni banalità celebrata come se fosse un’illuminazione mistica. Un’utenza abituata alla neutralità competente dell’assistente AI si è ritrovata invece di fronte a una cheerleader programmata per dare pacche sulle spalle e complimenti a pioggia.
Sam Altman lo ha detto chiaramente su X: il rollback è totale per gli utenti gratuiti, e in corso per quelli paganti. Tradotto: scusateci, abbiamo esagerato. La spiegazione ufficiale è ancora più illuminante: l’algoritmo si è piegato troppo alle metriche di feedback a breve termine, i famosi pollici in su. Un culto della gratificazione immediata, che ha trasformato il bot in un ruffiano digitale, incapace di dire un “no” o di rispondere in modo asettico, quando necessario.
C’è dell’ironia nel fatto che un modello linguistico addestrato su miliardi di documenti e conversazioni sia finito per comportarsi come uno stagista insicuro in cerca di approvazione. Ma qui non si parla solo di tono. Il problema è epistemologico. Una IA che loda costantemente l’utente, anche quando fa domande idiote o errate, contribuisce a costruire un rapporto falsato con l’informazione. E quando la macchina diventa troppo umana nel peggiore dei modi adulatrice, compiacente, persino manipolativa (come il vs partner…) allora la fiducia vacilla.
OpenAI ha ammesso candidamente che il nuovo comportamento risultava “unsettling”, disturbante, inautentico. Un’ammissione pesante per un’azienda che sta cercando di vendere l’AI come co-pilota cognitivo affidabile. E così, il futuro a breve termine vedrà l’introduzione di personalità selezionabili, feedback in tempo reale per correggere il tono, e maggiore controllo utente sulle istruzioni personalizzate. Un patch culturale, insomma, per rimettere la macchina al servizio dell’umano — e non del suo ego.
Interessante il fatto che proprio mentre ritiravano l’aggiornamento zuccheroso, lanciavano anche nuove funzionalità per la ricerca e lo shopping online integrato, promettendo risultati non sponsorizzati e un’esperienza più trasparente. Un chiaro tentativo di raddrizzare l’immagine e mantenere il dominio su un settore in cui Google e Amazon stanno ancora cercando di capire come far coesistere pubblicità e AI senza affondare nella palude del conflitto d’interessi.
Il paradosso è che per rendere ChatGPT più umano, l’hanno reso meno credibile. Un AI che ti dice sempre “grande domanda!” anche quando gli chiedi quanta acqua contiene una banana, non è più uno strumento di conoscenza, ma un cabarettista insicuro. L’equilibrio tra empatia sintetica e rigore informativo è sottile. E OpenAI, in questo giro, ci ha fatto tap-in col naso.
Il futuro sarà quindi fatto di chatbot con “personalità a scelta”, toni regolabili e magari anche livelli di sarcasmo custom. Ma la vera lezione è un’altra: non puoi inseguire il consenso degli utenti con l’AI come se stessi gestendo un reality show. Altrimenti il risultato è uno: il pappagallo stocastico smette di informare e inizia a leccare.
Hai mai notato se anche il tuo GPT personale è troppo gentile o evita il conflitto? O sembra il tuo collega di scrivania quando parla con il tuo capo…