E’ stato un piacere e un onore ascoltare Stefano Epifani. President DIGITAL TRANSFORMATION INSTITUTE al Nam 2025. Un lampo, un tuono ha squarciato l’apertura del convegno organizzato da NAMEX al Gasometro.
Quando qualcuno oggi parla di “etica dell’intelligenza artificiale”, raramente si riferisce all’etica. È più facile che stia facendo marketing, PR o damage control. Perché l’etica quella vera, non quella da policy framework aziendale è una cosa sporca, scomoda, lenta e spesso irricevibile nei board meeting. L’etica, per sua natura, spacca i consensi, apre i conflitti e sabota la narrativa del progresso inarrestabile. È ciò che rende una decisione tecnologica politica, cioè carica di valori, visioni del mondo e rapporti di forza. Ed è proprio questo che molti oggi preferirebbero ignorare.
L’illusione dell’algoretica termine che puzza già di maquillage lessicale per startupper in cerca di investitori ESG consiste nel farci credere che l’etica sia un layer che si possa semplicemente “integrare” nei modelli. Come se bastasse qualche riga di codice o una patch semantica per far diventare un LLM eticamente responsabile. È una fantasia che piace ai regolatori, rassicura i consumatori e fa comodo ai colossi dell’IA. Ma è una colossale forma di displacement morale.
In realtà, l’etica non è mai stata così lontana dall’intelligenza artificiale quanto lo è oggi.
Chiariamoci subito. L’IA non pensa, non sente, non crede, non decide. Non è soggetto morale. È un sistema statistico con capacità predittiva costruita su basi dati. Il punto non è se l’IA sia etica – non ha senso. Il punto è se chi la progetta, la addestra, la commercializza e ne definisce i contesti d’uso lo sia. E qui il discorso cambia drasticamente.
Perché parlare di “etica dell’IA” al passivo – come se fosse un attributo intrinseco della macchina – è già una distorsione epistemologica. L’etica è sempre un processo umano, relazionale, contestuale. Piuttosto bisognerebbe parlare di etica per l’IA, ossia di quale uso umano intendiamo fare di questi strumenti, a quali fini, con quali vincoli, secondo quale idea di bene comune.
La verità, però, è che questa discussione viene sistematicamente evitata.
Invece, si preferisce ricorrere alla religione laica del “longtermism”, quella favola futuristica in cui un’IA superintelligente sterminerà l’umanità, tipo Skynet o HAL 9000. Questo serve a una funzione precisa: proiettare l’attenzione su un futuro lontano e ipotetico, spostando lo sguardo dai problemi reali e presenti dell’IA attuale. Ovvero: bias nei dataset, sorveglianza sistemica, outsourcing della responsabilità, manipolazione comportamentale di massa, monopolizzazione cognitiva da parte di pochi attori globali.
Come direbbe il vecchio McLuhan, “il medium è il messaggio”. Ma in questo caso il medium è anche un anestetico. L’idea che basti una qualche “IA etica” per risolvere i problemi dell’IA è il nuovo oppio dei tech policymaker.
Nel frattempo, i veri problemi si moltiplicano sotto gli occhi di tutti. Algoritmi che decidono chi ottiene un mutuo, chi viene sorvegliato, chi può accedere a un trattamento sanitario. Modelli che amplificano disuguaglianze perché addestrati su dati già viziati da sistemi ingiusti. Strumenti che danno l’illusione della neutralità, mentre operano secondo logiche opache, orientate al profitto e non certo al bene comune. Il tutto, ovviamente, avvolto nella patina seducente dell’innovazione.
Siamo di fronte a una vera e propria etica performativa, utile solo a creare una facciata di responsabilità che legittima lo status quo. I vari “principi guida per un’IA etica” pubblicati da aziende, istituzioni e governi non sono che versioni moderne dei vecchi “codici etici aziendali” degli anni ‘90: dichiarazioni d’intenti prive di cogenza, strumenti di reputazione più che di trasformazione.
E intanto, il linguaggio della “governance etica” diventa il nuovo linguaggio del potere. Chi stabilisce cosa è “giusto” per un algoritmo? Chi decide quali valori codificare nei modelli? La questione non è filosofica, è geopolitica. Perché un conto è parlare di “bias” in astratto, un altro è decidere se deve prevalere una visione statunitense del mondo basata sull’individuo, una cinese fondata sull’armonia collettiva o una europea sui diritti fondamentali. Ogni architettura di valore algoritmico è una forma di imperialismo epistemico.
Lo stesso concetto di “IA responsabile” è spesso solo un paravento. Prendiamo ad esempio i sistemi di “explainability”, le tecniche usate per rendere un algoritmo interpretabile. A chi servono davvero? Spesso, più che trasparenza, generano nuove forme di opacità razionalizzata, dando l’impressione di un controllo dove non c’è. È il nuovo trucco da prestigiatore: invece di mostrare come funziona davvero un modello, si mostra un teatrino della spiegazione per convincerci che qualcuno ha tutto sotto controllo.
Nel frattempo, i veri controlli – audit, accountability, diritti d’accesso ai dati, potere di veto comunitario – restano deboli, tardivi o inesistenti.
Il paradosso è che più si parla di “etica dell’IA”, meno si fa etica. E più si discute di scenari iperbolici, meno si affrontano le questioni sporche, quelle che richiederebbero decisioni politiche, redistribuzione del potere e riscrittura dei processi tecnologici.
Non c’è niente di etico nel fare finta che un algoritmo possa essere neutrale. O che un modello addestrato su internet rifletta la realtà senza distorsioni. O che basti un filtro “alignment” per prevenire i danni di un sistema in mano a una corporation opaca. La vera etica – se vogliamo ancora usarla come parola sensata – sta nel rifiutarsi di credere a queste fole.
E se proprio vogliamo una formula etica per l’intelligenza artificiale, forse potremmo partire da questa: ogni sistema automatizzato che prende decisioni su vite umane dovrebbe essere soggetto a limiti, controllo pubblico e possibilità di contestazione.
Ma questo, naturalmente, richiederebbe molto più coraggio politico che un white paper sull’“AI ethics”.
E se le IA non hanno coscienza, chi le governa dovrebbe averne almeno una traccia.