Immaginando un mio discorso virtuale con il Prof. Mario De Caro, c’è qualcosa di ironico nel fatto che l’essere umano, dopo aver passato secoli a costruire macchine sempre più simili a sé, ora si scopra moralmente disturbato dal frutto della propria ambizione. È il paradosso che emerge dallo studio di Riley e Simon Friis, due sociologi della Harvard Business School che hanno avuto il coraggio, e forse anche un pizzico di sadismo accademico, di chiedere a quasi mille persone quanto trovassero “moralmente ripugnante” l’uso dell’intelligenza artificiale in 940 diversi mestieri.

Il risultato? Una mappa psicologica del disagio contemporaneo. Il grafico a dispersione elaborato da Friis e Riley, una piccola opera di sociologia visuale, non misura solo la diffidenza verso l’IA, ma la dissonanza cognitiva collettiva tra ciò che desideriamo e ciò che temiamo. Perché mentre predichiamo la neutralità della tecnologia, continuiamo a giudicarla come se fosse un’entità morale, dotata di intenzioni. In altre parole, diamo all’algoritmo la colpa del nostro stesso imbarazzo.

Il sondaggio chiede agli intervistati di assegnare a ciascuna professione un punteggio da 1 a 7 in base a quanto trovino “moralmente ripugnante” che in quel mestiere si usi l’intelligenza artificiale. Il termine “ripugnanza” non è casuale. Evoca un riflesso viscerale, non una valutazione razionale. È il linguaggio del disgusto morale, quello che gli economisti comportamentali chiamerebbero “bias emozionale”.

A quanto pare, la maggior parte di noi è molto più a disagio di quanto si potrebbe pensare all’idea che un terapeuta, un educatore o un assistente funebre usi un’intelligenza artificiale. Il che è affascinante: le professioni in cui l’elemento umano è essenziale sono le stesse in cui l’uso della macchina viene percepito come una contaminazione. Non un aiuto, ma una profanazione.

Il caso dei terapeuti è emblematico. In teoria, un sistema di IA addestrato su milioni di conversazioni e pattern psicologici potrebbe riconoscere i segnali di disagio o depressione meglio di molti professionisti umani. Ma la sola idea di affidare le proprie emozioni a un software genera un senso di violazione morale. Non perché l’IA sia inefficace, ma perché spezza il contratto simbolico dell’empatia. E forse perché, nel profondo, non vogliamo essere compresi da qualcosa che non prova dolore.

Ancora più curioso è il risultato che riguarda le pompe funebri. Riley e Friis hanno scoperto che l’idea di un’impresa di onoranze che usa l’intelligenza artificiale genera una repulsione quasi comica. È come se il solo accostamento tra lutto e algoritmo fosse un tabù. Eppure, se pensiamo in termini pratici, un sistema automatizzato potrebbe semplificare la logistica dei funerali, ottimizzare i tempi, ridurre i costi. Ma evidentemente la morte è l’ultimo territorio sacro che non vogliamo contaminare con il calcolo. Forse perché, come diceva un vecchio professore di Harvard, “la morte è l’unico evento che non possiamo delegare in outsourcing”.

La percezione pubblica dell’intelligenza artificiale è così: irrazionale, emotiva, carica di ambivalenze. Ci affascina e ci disgusta nello stesso tempo. Nelle professioni tecniche, come l’ingegneria o la finanza, l’uso dell’IA appare perfettamente accettabile, quasi auspicabile. Ma appena entra in contatto con il corpo, l’anima o i riti sociali, la macchina diventa un intruso morale.

C’è anche un aspetto di classe in tutto questo. Gli intervistati più istruiti, secondo Friis e Riley, tendono a essere più tolleranti verso l’uso dell’IA nei lavori ad alta specializzazione, ma più ostili nei mestieri legati alla cura o al contatto umano. È come se la borghesia tecnologica difendesse la propria superiorità morale lasciando agli algoritmi la parte sporca del lavoro, ma non quella “umana”. Una forma sottile di ipocrisia etica travestita da sensibilità.

Il problema dell’etica dell’IA non è quindi solo un dibattito accademico. È uno specchio della nostra antropologia morale. Se un’intelligenza artificiale scrive un articolo, va bene. Se un medico la usa per diagnosticare, accettiamo. Ma se un prete la consulta per un’omelia, o un insegnante per decidere come valutare i propri studenti, ci indigniamo. Come se la macchina stesse invadendo un territorio che crediamo riservato alla coscienza.

Tutto questo suggerisce una conclusione scomoda: la morale pubblica sull’IA non è fondata su principi etici coerenti, ma su istinti tribali. Ci sentiamo minacciati quando la tecnologia entra negli spazi dell’intimità, non perché temiamo la perdita di controllo, ma perché ci rivela quanto poco autentiche siano le nostre stesse relazioni. Il disagio morale verso l’intelligenza artificiale, in fondo, è solo un disagio verso la nostra umanità aumentata.

È interessante notare che gli stessi ricercatori di Harvard non hanno rilevato una forte correlazione tra il livello di conoscenza dell’IA e la ripugnanza morale. Tradotto: più sappiamo, non significa che accettiamo di più. Un dato che mette in crisi la narrativa tecnocratica secondo cui la paura dell’IA deriva solo dall’ignoranza. La verità è che non si tratta di conoscenza, ma di identità.

Le implicazioni per il business e la leadership sono enormi. Se certe professioni vengono percepite come “moralmente contaminate” dall’uso dell’IA, la resistenza culturale all’adozione tecnologica non sarà una questione di training, ma di branding morale. Le aziende dovranno imparare a raccontare l’uso dell’intelligenza artificiale non come una sostituzione, ma come un’estensione della sensibilità umana. Un compagno, non un usurpatore.

E qui si apre un terreno strategico per i leader digitali. Chi saprà gestire l’intelligenza artificiale come un atto di empatia aumentata, anziché di freddezza algoritmica, dominerà il nuovo mercato della fiducia. Perché la fiducia, nel mondo post-umano, è il vero capitale. E non si costruisce con i dati, ma con la percezione del loro uso etico.

A pensarci bene, forse il futuro dell’intelligenza artificiale non sarà definito dalla potenza dei modelli, ma dalla capacità di renderli moralmente accettabili. La prossima rivoluzione non sarà tecnologica, ma narrativa. L’IA non dovrà solo spiegare come funziona, ma perché lo fa. E se dovessimo misurare la ripugnanza morale dei CEO verso questa idea, sospetto che anche lì i punteggi sarebbero sorprendenti.


Fonti:
Riley, S. & Friis, S. (2024). Moral Reactions to Artificial Intelligence in Professional Contexts, Harvard Business School Working Paper.

MIT Technology Review (2024). The Emotional Limits of AI Acceptance.