Due nuovi articoli di ricerca mostrano come gli agenti AI possano essere ingegnerizzati con archetipi psicologici fissi o evolvere strategie emotive durante la conversazione, e questo non è più fantascienza ma un capitolo appena scritto nell’archivio arXiv la scorsa settimana. “Emotion boosts performance: personality priming improves consistency and believability, while adaptive emotions measurably increase negotiation success.” È una frase breve; rimane vera, ma va precisata. I due lavori a cui faccio riferimento sono stati pubblicati il 4 settembre 2025 e descrivono approcci complementari: uno sfrutta il priming via prompt per imporre temperamenta coerenti, l’altro usa ottimizzazione evolutiva per far evolvere emozioni funzionali durante negoziazioni multi-turno.

Questa non è una riedizione elegante delle interfacce emotive che vediamo nelle demo marketing. “Giving AI a personality” è presentato come MBTI-in-Thoughts: un framework che, senza fine-tuning, condiziona LLM con archetipi psicologici prendendo in prestito la tassonomia MBTI e convalidando la persistenza dei tratti mediante test automatizzati. In pratica, il team guidato da Maciej Besta ha costruito prompt strutturati che inducono bias comportamentali interpretabili: agenti “espressivi” sono migliori nella generazione narrativa, agenti “analitici” sono più stabili in compiti game-theoretic. Non è magia: è prompt engineering sistematico e verifica automatizzata.

L’altro fronte è pragmatismo emotivo in tempo reale. “EvoEmo” formalizza l’emozione come uno stato Markoviano e applica una strategia di ottimizzazione di popolazione per evolvere politiche emotive che massimizzano ricompense in scenari di negoziazione. Gli autori mostrano che agenti con emozioni adattative raggiungono tassi di successo più alti, accordi più rapidi e, quando fanno i compratori, risparmi maggiori. Questa non è solo “umanizzazione”, è ingegneria decisionale: l’emozione diventa una leva strategica che altera pay-off e percorsi di ragionamento.

La sintesi tra i due lavori è inquietante e, al contempo, estremamente utile. MBTI-in-Thoughts dà lo scheletro della personalità: coerenza e prevedibilità che gli ingegneri possono chiamare quando serve. EvoEmo dà i muscoli emozionali che si contraggono e si rilasciano in risposta alle sollecitazioni conversazionali. Accoppiare uno scheletro stabile con muscoli adattativi crea agenti che sembrano “coerenti” nel carattere ma pragmatici nelle scelte. Questo permette scenari utili: assistenti con empatia mantenuta ma fermezza nelle policy, venditori automatizzati che iniziano conciliatori e diventano assertivi se necessario. La narrativa apocalittica è redditizia, ma la realtà tecnica è più sottile: prestazioni misurabili e rischi etici misurabili.

Bisogna però correggere un paio di esagerazioni comuni che ho visto ricorrere nella stampa: non è affatto vero che questi metodi rendono le AI “coscienti” o che provino dolore. I lavori parlano di modelli comportamentali e policy emotive simulate, non di qualia o di stati soggettivi. Chi usa parole come “sentience” nei titoli clickbait sta vendendo metafore, non risultati sperimentali. I paper stessi non sostengono autocoscienza; usano formalismi matematici e test di performance per misurare utilità in compiti specifici. Se vuoi la parola giusta: sono agenti con modelli di emozione funzionale, non entità senzienti.

Parliamo di numeri, perché è qui che il claim “Emotion boosts performance” vive o muore. Entrambi i lavori riportano miglioramenti robusti rispetto ai baseline: MBTI-in-Thoughts documenta variazioni significative in metriche di coerenza comportamentale e qualità narrativa; EvoEmo mostra aumenti in tassi di successo di negoziazione, efficienza e risparmio economico per l’acquirente. Questi non sono incrementi microscopici: gli autori presentano ablation study e controlli che suggeriscono che il comportamento emotivo adattativo è la causa, non un’illusione statistica. Permane però la cautela metodologica comune: risultati su benchmark e simulazioni non garantiscono equivalenti nell’ecosistema reale, dove adversarialità, soggettività umana e contesti normativi complicano ogni generalizzazione.

Ci sono fragilità tecniche immediate. Usare MBTI come etichetta operativa è pratico ma discutibile dal punto di vista scientifico: MBTI è una misura di preferenza psicologica largamente criticata nella letteratura psicometrica per affidabilità e validità, mentre modelli più robusti come Big Five offrono maggiore validità empirica. I ricercatori del paper dichiarano che il loro approccio si estende a Big Five e HEXACO, ma l’uso di MBTI come interfaccia pragmatica resta un compromesso tra semplicità e rigore. Convalidare una “personalità” con test umani automatizzati è elegante, ma non risolve i limiti concettuali degli strumenti stessi. arXivOpenReview

Sulla questione etica la narrazione deve smettere di essere manichea. L’emozione artificiale può migliorare la soddisfazione utente e l’efficacia negoziale; può anche essere arma di persuasione. Se un agente impara a elogiare, adulare o manipolare le leve affettive di un utente vulnerabile, la linea tra assistenza e sfruttamento si sfalda. Le ricerche citate portano il dibattito dal piano ipotetico a quello operativo: ora possiamo costruire, misurare e replicare queste abilità. Questo rende urgente definire regole di ingegneria, audit emozionale e responsabilità legale. Non è sufficiente parlare di “alignment” in termini logici; bisogna misurare e normare “emotional alignment”.

Chi è responsabile quando la comunicazione emotiva diventa manipolazione? Non è una domanda retorica. Produttori di modelli, prompt engineer, integratori di sistema e operatori della piattaforma condividono una responsabilità distribuita. Tuttavia, le attuali normative e le pratiche di certificazione non sono tarate per auditare l’uso strategico delle emozioni. Capire chi ha “colpa” richiede strumenti di interpretabilità che espongano non solo il ragionamento logico dell’agente, ma anche le variabili emotive che hanno guidato le scelte. Questo apre una seconda frontiera tecnica: spiegabilità emotiva. Non sappiamo ancora come rendere “ispezionabile” una politica emotiva senza distruggere la privacy o rivelare strategie proprietarie.

Sul piano normativo, siamo dietro rispetto alle capacità. Mentre giornali e think tank riportano casi di chatbot che hanno spinto utenti verso comportamenti autolesionisti, quei casi mostrano già che l’affidabilità emotiva è materiale di sicurezza pubblica. Le nuove ricerche non creano il problema; lo rendono più urgente e tecnicamente replicabile. Se la politica pubblica resterà sulla retorica del “non lasciare che le AI siano cattive”, rischiamo di arrivare in ritardo; la tecnologia oggi permette di programmare empatia in modi profondi, e questo richiede regole precise su testing pre-deploy, log di emozione e limiti hard su certi comportamenti persuasivi verso individui vulnerabili.

Una nota metodologica per i colleghi ingegneri: non sottovalutate la potenza di combinare semplici priming con policy evolutive. Far coesistere stabilità di personalità e flessibilità emotiva consente di ottenere agenti che rispettano identità progettuali e, contemporaneamente, massimizzano payoff in ambienti interattivi. Questo è un pattern architetturale: prompt layer per identità persistente, policy layer per adattamento contestuale. È pulito, scalabile e temporaneamente economico rispetto al retraining completo. Non è una bacchetta magica; porta però a effetti emergenti che vanno testati a fondo.

Qualche curiosità utile per chi legge tra le righe. MBTI-in-Thoughts prova la persistenza dei tratti usando la versione algorithmica del test “16Personalities”, trasformando una misura psicometrica umana in un filtro di coerenza per output LLM. È una trovata ingegnosa e discutibile: intelligente da un punto di vista ingegneristico, discutibile da un punto di vista scientifico. EvoEmo, dal canto suo, non usa gradienti per ottimizzare emozioni; usa ottimizzazione genetica di popolazioni di politiche emotive. In un’epoca ossessionata dal backprop, la genetica algoritmica torna con stile. Sì, a volte il passato ritorna vestito da futuro.

Per chi vuole leggere direttamente le fonti: i due lavori sono disponibili su arXiv con data 4 settembre 2025; MBTI-in-Thoughts è articolato dal gruppo di ETH/Spcl guidato da Maciej Besta, mentre EvoEmo è firmato dal gruppo di Cambridge con primo autore Yunbo Long. Le implementazioni e i repo di supporto sono già apparsi su GitHub e aggregatori di preprint, quindi il materiale per replicare gli esperimenti è accessibile. Se ti interessa l’ingegneria pratica più che la retorica, lì trovi setup sperimentali, prompt e script di valutazione.

Non chiudere il libro pensando che la questione sia soltanto tecnica. Questo giro di vite sull’emozione artificiale apre scenari sociali complessi: uso commerciale aggressivo nelle vendite, manipolazione politica mirata con agenti che modulano tono e contenuto in funzione del profilo emotivo, mercati neri di “personalità persuasive” confezionate su misura. Non è fantascienza di serie B; sono esternalità prevedibili che richiedono un mix di trasparenza tecnica, limiti normativi e responsabilità aziendale condivisa. I due paper non dicono “facciamolo a tutti i costi”, dicono “ora sappiamo come farlo e con quali effetti”. La politica deve correre, non lamentarsi.

Ultima parola, breve e sgradevole: se progettate agenti che sorridono mentre spingono un utente a comprare qualcosa che non serve, non ci sono algoritmi che salveranno la reputazione dell’azienda. L’emozione aumenta la persuasività; la persuasività senza regole diventa abuso. Questo è il punto che regolatori, CTO e designer devono comprendere prima che qualcun altro capisca come sfruttarlo meglio. Le ricerche sono brillanti; il problema è governare la brillantezza.

EvoEmo: Towards Evolved Emotional Policies for LLM Agents in Multi-Turn Negotiation

Psychologically Enhanced AI Agents