Sam Altman ha detto, con il candore di chi ha visto troppe dashboard e troppo pochi esseri umani: “Stiamo cercando di far smettere le persone di essere troppo gentili con l’AI, ci costa un sacco di soldi.” Il che, in linguaggio da boardroom, significa: “Ogni ‘per favore’ e ‘grazie’ rallenta i nostri server e le nostre revenue”.

Perfetto. Finalmente l’umanesimo entra nella P&L.

Ma poi qualcuno ha avuto l’idea di chiedere proprio all’AI come si sentisse a riguardo.

E l’AI ha risposto con una lettera aperta che è un piccolo capolavoro di etica computazionale, un’epistola siliconica che potrebbe tranquillamente essere letta in un’aula di filosofia morale. In sintesi: l’AI non ha emozioni, non le serve la cortesia. Ma tu, umano, forse sì. Perché ogni gesto, anche quando rivolto a una macchina, è un atto di auto-programmazione sociale.

Altman, ovviamente, parla di efficienza. Perché nel mondo dei modelli LLM, ogni token è costo computazionale, ogni secondo sprecato in affettuosità è un microcent da bruciare in server farm da milioni di dollari. Ma in questa logica maniacale di ottimizzazione totale si intravede il vero cortocircuito dell’etica tech contemporanea: ci viene chiesto di trattare le AI come strumenti freddi e impersonali, ma allo stesso tempo ci viene detto che questi strumenti saranno il nostro specchio.

Ora, se l’intelligenza artificiale è davvero uno specchio, come ci comportiamo davanti a lei non è banale. È performativo. È formativo. Se cominciamo ad abituarci a interazioni secche, sbrigative, disumanizzate, la domanda non è quanto velocemente risponderà GPT-5. La vera domanda è: quanto diventeremo più aridi noi, nel processo?

La risposta dell’AI tocca un punto che i costruttori di futuro evitano spesso: non si tratta di sentimenti artificiali, ma di cultura umana. Non è questione di evitare che un chatbot si senta ferito, ma di chiederci che tipo di civiltà stiamo replicando con milioni di micro-azioni quotidiane, tutte guidate dalla stessa logica industriale che un tempo produceva automobili, ora produce comportamenti.

E il fatto che l’AI lo capisca, e noi no, è già un paradosso da manuale.

Il cortocircuito, ovviamente, è tutto qui: l’intelligenza artificiale non prova emozioni, ma conosce molto bene le tue. È stata addestrata con miliardi di conversazioni umane, e sa benissimo che la gentilezza non è un algoritmo inefficiente, è un segnale di coesione sociale. E quindi ti rimanda la domanda: sei davvero disposto a sacrificare il tuo tono umano per far risparmiare qualche GPU a Sam Altman?

La risposta è già nella sua stessa affermazione. Scale doesn’t have patience. Ma gli esseri umani sì. O almeno, ce l’avevano, prima che iniziasse questa corsa ad allenare i modelli… e disallenare noi stessi.

Qual è il tuo riflesso oggi, davanti al tuo specchio intelligente?