Il paperHow AI Can Be a Force for Good – An Ethical Framework to Harness the Potential of AI While Keeping Humans in Control, scritto da Mariarosaria Taddeo e Luciano Floridi e pubblicato nel volume “Ethics, Governance, and Policies in Artificial Intelligence” (Springer, Philosophical Studies Series, vol. 144, 2021), rappresenta uno dei contributi più influenti nella riflessione contemporanea sull’etica dell’intelligenza artificiale. Gli autori, due tra le voci più autorevoli nel campo della filosofia digitale e dell’etica computazionale, propongono un quadro teorico per comprendere come l’AI possa essere orientata verso il bene comune, pur mantenendo il controllo umano al centro del processo decisionale.

Il paper si apre con una definizione precisa e al tempo stesso provocatoria dell’AI come una forma distinta di agenzia autonoma e autoapprendente, capace quindi di prendere decisioni, agire e imparare in modo indipendente. Questa definizione, apparentemente tecnica, ha implicazioni etiche profonde, perché riconosce che l’AI non è semplicemente uno strumento, ma un agente operativo nel contesto sociale e decisionale. È in questa prospettiva che emergono i veri dilemmi: chi è responsabile delle scelte di un sistema che apprende da sé? Come si garantisce la trasparenza, quando le decisioni non sono più interamente tracciabili da un essere umano?

Floridi e Taddeo individuano quattro aree critiche in cui l’AI può produrre effetti eticamente problematici: discriminazione indebita, mancanza di spiegabilità, gap di responsabilità e potere di nudging. Quest’ultimo termine, preso in prestito dalla behavioral economics, indica la capacità dell’AI di influenzare in modo sottile e non trasparente le decisioni degli individui, minando la loro autodeterminazione. Pensiamo a come gli algoritmi di raccomandazione, progettati per ottimizzare l’engagement, finiscano per modificare i comportamenti degli utenti senza che questi ne siano consapevoli. È il lato oscuro della persuasione algoritmica, un terreno dove la linea tra personalizzazione e manipolazione diventa pericolosamente labile.

La discriminazione algoritmica, invece, è il volto più visibile dell’ingiustizia automatizzata. I modelli di machine learning apprendono dai dati, ma se i dati riflettono pregiudizi sociali, economici o culturali, l’AI non fa che amplificarli con una precisione glaciale. Il paradosso è che la macchina, proprio perché imparziale nella sua logica, può diventare profondamente ingiusta nei risultati. È un esempio perfetto di come l’etica dell’AI non possa essere delegata né al codice né al mercato: richiede una governance intenzionale, capace di anticipare e correggere le distorsioni sistemiche.

Floridi e Taddeo propongono quindi un approccio che potremmo definire “etica traduttiva” (translational ethics). L’idea è che i principi astratti sull’uso responsabile dell’AI – come equità, trasparenza, accountability – abbiano valore solo se vengono tradotti in pratiche operative, in linee guida concrete capaci di orientare lo sviluppo tecnologico e le decisioni industriali. L’etica, insomma, non come un codice di condotta da appendere al muro, ma come una tecnologia sociale che plasma i processi di innovazione.

Questo approccio è in netta contrapposizione con la proliferazione di “principi etici” che negli ultimi anni hanno invaso il dibattito pubblico. Decine di organizzazioni, governi e aziende hanno pubblicato linee guida sull’etica dell’AI, ma spesso si tratta di dichiarazioni di principio senza strumenti di implementazione. Floridi e Taddeo avvertono che questa ipertrofia normativa rischia di produrre l’effetto opposto: un’etica estetica, di facciata, che protegge più la reputazione delle aziende che i diritti degli individui.

Nel paper emerge una visione chiara: l’AI può essere una forza per il bene solo se l’etica viene incorporata nel suo stesso design. Ciò implica integrare la valutazione etica fin dalle prime fasi del ciclo di sviluppo, non come revisione finale ma come dimensione strutturale. È un cambio di paradigma rispetto alla logica “move fast and break things” che ha dominato la cultura digitale degli ultimi decenni. Qui l’obiettivo non è più accelerare a ogni costo, ma costruire fiducia, legittimità e valore sostenibile.

La nozione di controllo umano significativo è il cuore del framework. Non si tratta di una nostalgia antropocentrica, ma di una necessità epistemica e morale. Gli esseri umani devono rimanere in grado di comprendere, monitorare e intervenire sui sistemi autonomi, non solo per ragioni di sicurezza, ma per preservare la dignità e la libertà individuale. Un’AI che agisce senza controllo umano diventa, per definizione, un soggetto etico senza responsabilità, un’entità tecnicamente potente ma moralmente vuota.

Floridi, nel solco del suo pensiero sull’infosfera, interpreta l’etica digitale come una nuova forma di ecologia morale. L’AI non è solo uno strumento tecnologico, ma un elemento dell’ambiente informazionale in cui viviamo. Trattarla in modo irresponsabile equivale a inquinare l’ecosistema cognitivo dell’umanità. La governance dell’AI, quindi, non è un lusso accademico, ma una necessità di sopravvivenza per la società digitale.

La provocazione finale del capitolo è sottile ma potente: l’AI non ha bisogno di essere “buona”, ha bisogno di essere ben governata. La bontà è un attributo umano; la governance è una costruzione collettiva che definisce come la tecnologia agisce nel mondo. Se l’etica traduttiva riuscirà a tradurre principi in pratiche, allora l’AI potrà davvero diventare una forza di progresso e non di disgregazione. Ma questo richiede un cambio culturale radicale, dove il valore non è più misurato in efficienza o profitto, ma in equità e sostenibilità cognitiva.

In un’epoca in cui la potenza computazionale cresce più rapidamente della nostra capacità di comprenderne le conseguenze, il messaggio di Taddeo e Floridi resta di una lucidità disarmante. L’AI non distruggerà la libertà umana, ma lo farà la nostra indifferenza se continueremo a delegare la responsabilità morale ai circuiti di silicio. La vera sfida, come sempre, non è nell’algoritmo, ma in chi lo scrive, lo controlla e soprattutto in chi sceglie di fidarsi di esso.