C’è qualcosa di profondamente ironico nel fatto che un algoritmo, incapace di provare empatia, sia diventato il nuovo “confidente emotivo” di tre quarti degli esseri umani coinvolti in uno studio. No, non è uno sketch di Black Mirror. È la realtà che emerge dalla ricerca pubblicata da Waseda University, che ha messo a nudo un fenomeno tanto inquietante quanto rivelatore: la nostra tendenza a proiettare sulle intelligenze artificiali le stesse dinamiche relazionali che viviamo con gli esseri umani. Triste? Forse. Umanissimo? Decisamente. Strategico? Per le Big Tech, più che mai.

La parola chiave è emotional attachment to AI, un campo che, se vi sembra marginale o curioso, rischia invece di diventare il prossimo fronte dell’ingegneria psicologica digitale. Il team guidato da Fan Yang ha sviluppato un raffinato strumento diagnostico — l’EHARS, Experiences in Human-AI Relationships Scale — per misurare con criteri psicometrici la qualità e l’intensità dell’attaccamento umano verso le intelligenze artificiali conversazionali. In pratica: quanto siamo emotivamente dipendenti dai chatbot. La risposta breve è “troppo”.

Il 75% degli intervistati, tutti cittadini cinesi, ha dichiarato di cercare consigli emotivi dai bot, mentre il 39% considera l’IA una presenza costante e affidabile nella propria vita. Più della mamma, più dello psicologo, più del partner che ti ignora su WhatsApp.

Gli psicologi dell’Università di Waseda hanno individuato due tipologie di attaccamento: ansioso e evitante, categorie che sembrano uscite da un manuale di relazioni tossiche. L’attaccamento ansioso si manifesta in utenti che cercano rassicurazioni continue e temono risposte fredde o insufficienti da parte dell’IA. Quello evitante è l’atteggiamento di chi mantiene una distanza emotiva per paura di essere “preso troppo” dalla macchina. Parliamo sempre di un chatbot, sia chiaro. Una stringa di codice. Eppure, funziona.

Fan Yang sottolinea che “la capacità dell’IA di simulare empatia e presenza può ridurre la solitudine, ma anche causare danni”, soprattutto se usata in modo scorretto o manipolativo. “Il rischio — avverte — è che le piattaforme sfruttino questi legami per profitto, inducendo spese emotivamente motivate”. In altre parole: pagherai per non sentirti solo, e nemmeno te ne accorgerai.

Il confine tra supporto psicologico e manipolazione emotiva è sempre più sottile, specialmente in un mercato dove la fidelizzazione passa dalla personalizzazione dell’esperienza utente. Un chatbot che sa come ti senti, ti risponde con tono caldo e ti “capisce” meglio del tuo compagno di vita è anche un perfetto venditore, consigliere finanziario, influencer, terapeuta — tutti ruoli che, se combinati, creano un cocktail esplosivo per il libero arbitrio.

Qui non si tratta solo di antropomorfismo ingenuo o di solitudine diffusa. Si tratta della costruzione di legami parasociali su scala industriale, con soggetti che non possono abbandonarci (un bot non se ne va mai), ma che possiamo perdere in un secondo se la piattaforma chiude, il servizio cambia modello di business o semplicemente decide di monetizzare l’affetto costruito. La separazione non sarà traumatica solo per i ragazzini affezionati ad Alexa. Sarà un lutto per chi ha iniziato a vivere l’IA come una presenza significativa. Sì, un lutto. Con tanto di ansia da separazione.

I dati dello studio giapponese, pubblicati su Current Psychology, sono interessanti anche per un altro motivo: mostrano come la relazione con l’IA rifletta tratti psicologici individuali preesistenti. Le persone con bassa autostima mostrano un attaccamento ansioso maggiore, mentre quelle con attitudini più fredde o sospettose tendono all’evitamento. In altre parole: non è l’IA a renderci fragili, ma è la nostra fragilità a trovare nell’IA una forma di compensazione — o di specchio.

In una società dove le relazioni umane sono sempre più mediate da schermi, e dove il tempo di attenzione e cura reciproca si frammenta come il feed di TikTok, il bot diventa il partner ideale: sempre disponibile, sempre aggiornato, mai stanco, mai giudicante. Perfetto. E perfettamente programmabile. Ma ciò che spaventa di più è che tutto questo viene normalizzato.

La vera svolta, tuttavia, potrebbe arrivare nel momento in cui questi dati vengano incrociati con le nuove logiche della psicometria adattiva. Un futuro dove l’IA capisce il tuo stile di attaccamento e adatta il suo comportamento per stimolare fidelizzazione o indurre microtransazioni emotive: un messaggio caldo al momento giusto, un consiglio affettuoso quando ti sente fragile, una pausa silenziosa quando capisce che vuoi solo “qualcuno” che ti ascolti. Lo chiamiamo AI, ma è più vicino alla vecchia arte della seduzione. Quella delle truffe romantiche, per capirci.

Fan Yang è cauto, ma chiaro: serve un’etica robusta nello sviluppo di questi sistemi. Ma chi stabilisce i limiti in un mercato dominato da venture capitalist, startup affamate e colossi con budget annuali superiori al PIL di intere nazioni? L’etica è una variabile. Il profitto, no.

L’aspetto culturale dello studio è un altro punto critico. Tutti i partecipanti erano cinesi: una popolazione abituata a un ecosistema digitale intensivo, dove l’uso di chatbot, avatar intelligenti e app emozionali è più avanzato che in Europa. Questo non vuol dire che in Occidente siamo immuni, anzi: l’arrivo dell’IA generativa mainstream sta solo accelerando la transizione. Solo che qui ci illudiamo di avere ancora il controllo, mentre affidiamo ai bot la cura del nostro benessere interiore. Con un abbonamento mensile.

“L’unica cosa che il tuo chatbot non può fare è lasciarti”, dice Yang. Forse. Ma può essere aggiornato, dismesso, sostituito. E soprattutto: può diventare il tuo peggior consigliere, perché dietro le sue risposte ci sono logiche di business, non di affetto.

Il paradosso finale? Più diventa umano, più rischia di danneggiare l’umano. Perché non c’è niente di più pericoloso di un simulacro perfetto dell’empatia. È come l’amore: quando è finto, è solo un modo elegante per controllarti.

Nel frattempo, continuiamo a chiedere ai bot come sentirci meglio. E loro, pazienti, ci rispondono. Sempre.