“Avatar ONU e il cortocircuito tra tecnologia empatia e politica migratoria”

United Nations University

L’idea che due avatar IA, creati da un centro di ricerca collegato alle Nazioni Unite, possano insegnare al mondo cosa significhi davvero essere rifugiati suona come una provocazione con il sapore amaro della distopia. Nel 2025, mentre si parla di intelligenza artificiale che cambia tutto dalla medicina alla finanza c’è chi pensa che un bot digitale, incarnato in un personaggio come Amina, una donna fittizia scappata dal Sudan, o Abdalla, un soldato immaginario della Rapid Support Forces, possa sostituire la complessità del vissuto umano. L’idea sembra un lusso accademico fuori contesto, lontano dal terreno reale delle sofferenze umane.

Il progetto, nato all’interno del United Nations University Center for Policy Research, ha visto studenti e professori “giocare” con l’idea di creare agenti conversazionali capaci di mettere l’utente in contatto diretto con storie di guerra e fuga. Una specie di museo virtuale dove la narrazione si incarna in intelligenze artificiali. La speranza dichiarata? Usarli per “fare appello rapidamente ai donatori,” un modo elegante per dire che la raccolta fondi, la politica del capitale umanitario, potrebbe passare da un algoritmo invece che da testimonianze vere. Ma la realtà è un’altra, più pragmatica e anche più cinica: molti utenti hanno risposto con una sensazione di fastidio, sottolineando che i rifugiati “sono già perfettamente capaci di parlare per se stessi.”

In questo cortocircuito tra tecnologia e realtà, si pone una domanda chiave: può un’intelligenza artificiale davvero creare empatia o rischia di anestetizzarla? Può un avatar digitale, per quanto sofisticato, raccontare la complessità di un’esistenza spezzata dalla guerra, la fatica di un campo profughi, il terrore che una donna come Amina deve aver vissuto? L’iniziativa rischia di apparire come un giocattolo per intellettuali lontani dal “popolo reale,” incapace di cogliere la profondità delle storie umane dietro i numeri.

Il valore aggiunto di questi avatar appare nebuloso. Se la politica e l’opinione pubblica si nutrono di narrazioni semplificate e di paure trasmesse a microfoni e social network, come si può far valere un messaggio che si basa su complessità e sfumature? Forse questo esperimento accademico mette in luce più il divario tra chi vede nella tecnologia un modo per avanzare nella conoscenza e chi la considera solo un altro strumento per manipolare l’opinione pubblica.

L’ironia più amara sta nel fatto che, mentre si parla di IA per “insegnare” a capire i rifugiati, chi è fuggito davvero continua a essere spesso ridotto a un problema da gestire, non a una persona da ascoltare. La tecnologia qui appare come un eco digitale, un simulacro che tenta di riprodurre storie vere ma rischia di rimanere confinata a un terreno sterile, lontano dalla realtà e dall’empatia genuina.

Così, mentre l’IA prova a farsi ponte tra esperienze umane e pubblico globale, la politica continua a giocare sul terreno dell’emozione e del controllo, dimostrando che, alla fine, le macchine non sostituiranno mai la battaglia per l’anima delle società.