C’è qualcosa di profondamente ipocrita nel modo in cui parliamo oggi di AI Ethics. Tutti ossessionati dal bias, dai dataset “inclusivi”, dalle trasparenze tanto sbandierate nei convegni e nei white paper patinati. Ma la vera frattura, quella che corrode dall’interno il rapporto tra esseri umani e macchine intelligenti, non è nei numeri né nei grafici di fairness. È nel senso. O meglio, nella sua perdita sistematica. È ciò che i filosofi chiamano hermeneutic harm. Un danno invisibile, ma letale per chi lo subisce. E se pensate che basti un’interfaccia con spiegazioni più “chiare” per risolverlo, fate parte del problema.

Il concetto è brutale nella sua semplicità. Immaginate di essere licenziati da un algoritmo senza sapere perché. Oppure di vedervi rifiutato un prestito, un’assicurazione sanitaria, un mutuo. Non solo venite esclusi da un’opportunità concreta, ma vi viene tolta anche la possibilità di interpretare ciò che è accaduto. Di dare un senso alla vostra condizione. Di capire come correggere il tiro. Questo doppio strato di danno non è psicologia spicciola, è un vero attentato epistemico, un impoverimento della vostra capacità di stare nel mondo come soggetti consapevoli. E se vi sembra un’esagerazione, provate a chiedervi quante volte la vostra identità sociale è stata costruita sulla base di feedback che avete potuto comprendere, accettare o contestare. Ora immaginate di vivere in un mondo in cui quel feedback diventa un codice indecifrabile, e vi accorgerete che la questione è tutt’altro che teorica.

Il problema, come dimostrano studi recenti, è che la diffusione degli agenti autonomi moltiplica questo tipo di danno. Non stiamo più parlando di un motore di raccomandazione che ordina scarpe su misura per voi, ma di sistemi che agiscono in modo proattivo, prendendo decisioni complesse, spesso non previste nemmeno dai loro creatori. La narrativa ottimista direbbe che sono solo strumenti, che in fondo rispondono a logiche programmabili. Peccato che la logica di un agente autonomo non è quella di un semplice algoritmo deterministico. È una logica situata, dinamica, capace di adattarsi e quindi, per definizione, sempre un passo avanti rispetto alla nostra capacità di interpretarla.

Qui sta la tragedia: non è un problema di trasparenza. La retorica corrente dell’AI Ethics continua a ripetere che basterebbe “aprire la scatola nera”, fornire più dati, rendere spiegabili le decisioni. È un’illusione comoda, utile per chi deve fare compliance, ma inutile per chi subisce hermeneutic harm. Perché anche se un’azienda vi consegnasse l’intero log dell’agente che vi ha negato un credito, la spiegazione resterebbe incomprensibile per la maggior parte delle persone. Il vero problema è che la macchina agisce con un vocabolario del mondo che non coincide più con il nostro. Non è un bug etico, è una discontinuità semantica.

“Non capisci perché sei stato rifiutato, ma fidati, è per il tuo bene”. È questo il messaggio subliminale che le AI di nuova generazione ci stanno inviando. È la nuova forma di paternalismo digitale, ma con un dettaglio in più: non c’è nessun padre, solo un sistema che si auto-ottimizza in base a metriche che non includono la vostra dignità interpretativa. E quando dico dignità interpretativa intendo il diritto umano fondamentale di sapere perché il mondo vi tratta in un certo modo.

Gli agenti autonomi complicano il quadro anche da un altro punto di vista. La loro capacità di apprendere in ambienti aperti rende impossibile prevedere e governare tutte le conseguenze. Qui entra in gioco la parte più ironica della vicenda. Le aziende si affannano a introdurre “spiegabilità” e “auditabilità” come se fossero amuleti etici. Ma un agente che evolve nel tempo e interagisce con altri agenti produce decisioni che nessun audit statico potrà mai cogliere in modo esaustivo. Stiamo costruendo sistemi che non solo sfuggono alla nostra comprensione, ma la ridicolizzano. È come se un banchiere vi dicesse “il mercato ha deciso” quando in realtà è un algoritmo che parla con altri algoritmi, con logiche che neanche lui padroneggia più.

L’hermeneutic harm è un danno che disarma perché non ha colpevoli immediati. Non puoi puntare il dito contro un singolo ingegnere o contro un bias nel dataset. Il colpevole è un’intera infrastruttura cognitiva che abbiamo accettato di delegare alle macchine. E questo è il motivo per cui è tanto pericoloso: non si tratta di correggere un errore, ma di riconfigurare il nostro rapporto con la tecnologia. Perché se accettiamo che interi pezzi della nostra vita siano decisi da entità che non solo non comprendiamo, ma che nemmeno ci concedono la possibilità di interpretare, stiamo accettando di essere cittadini di una società opaca, dove l’unico linguaggio che conta è quello dell’efficienza computazionale.

Alcuni ottimisti diranno che il problema si risolverà con più dati o con un miglioramento dei modelli di spiegabilità. Ma è un’illusione da ingegneri ingenui o da consulenti in cerca di nuovi contratti. La verità è che non c’è trasparenza che possa restituire ciò che è stato perso. Un algoritmo può dirti che sei stato rifiutato perché il tuo punteggio di rischio è 0.37 invece di 0.41. Ma questo non ti dice nulla sul perché sei diventato “quel tipo di persona” agli occhi della macchina. Non ti dà il potere di ridefinire il contesto. Ti lascia solo con la sensazione di essere un pezzo di un puzzle che non puoi vedere intero.

La vera questione, e qui ci vuole un po’ di coraggio intellettuale per ammetterlo, è che abbiamo bisogno di ripensare l’AI Ethics in termini di relazione, non di regole. Se non diamo alle persone il potere di riappropriarsi della narrazione dei processi decisionali che le riguardano, continueremo a produrre danni ermeneutici su larga scala. E, paradossalmente, più sofisticati saranno gli agenti autonomi, più grande sarà il divario tra le loro ragioni e le nostre. È la nuova forma di disuguaglianza: non economica, ma semantica.

Chi continua a ripetere che l’intelligenza artificiale è solo uno strumento neutrale ignora che ogni strumento che decide al posto nostro smette di essere neutrale nel momento in cui ci priva della possibilità di capirci dentro. Non stiamo parlando di filosofia da salotto. Stiamo parlando di persone che perdono il lavoro, il credito, l’assicurazione, la libertà di movimento senza sapere perché. È un’ingiustizia sottile, quasi invisibile, ma profondamente corrosiva. Ed è per questo che chi oggi parla seriamente di hermeneutic harm non è un catastrofista, ma un realista. Perché la vera catastrofe è l’indifferenza con cui stiamo consegnando le chiavi della nostra interpretazione del mondo a sistemi che non hanno alcun interesse a restituircele.