Luciano Floridi non è un filosofo qualunque. È l’architetto della nuova grammatica morale dell’intelligenza artificiale, il costruttore paziente di un ponte che unisce epistemologia, etica applicata e politica tecnologica. Nella sua visione, AI non è un’astrazione algoritmica, ma una forma di “agency”, un’entità che agisce nel mondo, lo modifica, lo plasma, e pretende di essere compresa in termini di responsabilità, governance e design. In un’epoca dove l’algoritmo viene idolatrato o demonizzato con la stessa disinvoltura, Floridi offre un’alternativa radicale: pensare l’AI non come intelligenza simulata, ma come potere reale. Con tutte le implicazioni che questo comporta.

La sua analisi parte dalla constatazione di un cambiamento paradigmatico: l’intelligenza artificiale di oggi non è più la stessa dei tempi di Turing. Non è più un sistema matematico per la risoluzione di problemi, ma una forma di “agency ambientale” che opera in un ecosistema digitale che lei stessa contribuisce a generare. Floridi usa un’immagine potente: l’AI è come un pesce, vive solo se immersa nel suo habitat, l’infosfera. Toglila da lì, ed è inutile come una Tesla nel deserto senza rete mobile, GPS, sensori e semafori digitali. Questo significa una cosa chiara: se vogliamo adottare l’AI in modo efficace, dobbiamo prima adattare il mondo a lei. Un rovesciamento di prospettiva inquietante ma inevitabile.

È qui che emergono le parole chiave che definiscono la visione floridiana dell’etica dell’AI: design, governance, agency. Ma design da solo non basta, serve governance. E governance non è solo controllo, ma trasformazione del possibile in preferibile. La domanda non è più “cosa possiamo fare con questa tecnologia”, ma “cosa vogliamo fare con essa”. Il passaggio dall’opzione all’orientamento valoriale è fondamentale, e Floridi lo incastona in una struttura etica bifronte: hard ethics e soft ethics.

La hard ethics è ciò che vale indipendentemente dalla legge. È l’etica dei dissidenti, dei Mandela, dei whistleblower che rifiutano di obbedire a regole ingiuste. È la forza morale che precede il diritto. Ma oggi che il diritto si è aggiornato (pensiamo al GDPR o all’AI Act), la domanda diventa: e ora? È qui che entra in gioco la soft ethics, l’etica del “più del minimo”. È ciò che distingue il mero rispetto delle regole da una strategia etica competitiva. In termini aziendali, è ciò che ti permette di giocare per vincere, non solo per partecipare. Un’azienda che segue solo le regole fa compliance. Un’azienda che va oltre crea valore. È qui che si gioca il vero vantaggio competitivo nell’era delle tecnologie morali.

Questa architettura concettuale ha un’implicazione diretta sulla governance dell’AI. Floridi propone un framework etico unificato ispirato alla bioetica: beneficenza, non maleficenza, autonomia, giustizia. Ma aggiunge un quinto principio: explicabilità. Perché se non possiamo spiegare perché un sistema ha preso una decisione, non possiamo né correggerlo né giustificarlo. E questo è semplicemente inaccettabile in qualsiasi sistema che incide sulla vita reale. Senza trasparenza, l’AI non è uno strumento, ma una roulette.

La provocazione qui è chiara: se non capisci come funziona la tua AI, allora non è la tua AI. Sei semplicemente ostaggio di una tecnologia che non controlli. Questo è ciò che Floridi chiama il “problema dell’opacità sistemica”. Un rischio amplificato dal crescente utilizzo di dati sintetici, cioè generati da macchine per altre macchine. Un aereo, un’auto, una smart home producono terabyte di dati non umani. È una miniera d’oro. Ma anche un campo minato se non sappiamo distinguere la complessità utile dalla complessità artefatta.

Floridi denuncia un altro tipo di miopia: la triplice forma del “misuse” dell’AI. L’uso scorretto (illegale o immorale), l’uso eccessivo (tecnofilia sterile) e l’uso insufficiente (tecnofobia dannosa). Tre errori speculari, ma ugualmente tossici. Pensiamo all’uso smodato di strumenti AI nella pubblica amministrazione solo per fare branding. O al non utilizzo di soluzioni efficaci nella sanità per mancanza di regolazione comune. Il risultato è che l’AI viene o idolatrata o ignorata, mai integrata con buon senso.

Per questo Floridi insiste sul concetto di integrazione come strategia d’innovazione. Trasformare compiti difficili per gli umani in problemi complessi per le macchine. Non è semplificazione, è traduzione. Ed è una delle poche strade percorribili per evitare il collasso cognitivo delle organizzazioni di fronte all’adozione massiva di IA. Se la tecnologia è un’onda, allora la governance deve diventare surf, non diga.

La prospettiva finale è ambiziosa: AI for social good. Floridi propone un allineamento tra tecnologia, etica e sviluppo sostenibile. L’AI, dice, è lo strumento di problem solving più potente mai creato. Sarebbe folle non usarlo per affrontare disuguaglianza, crisi climatica, migrazioni, povertà. Ma attenzione: non basta volerlo. Serve un’alleanza tra intelligenza umana, risorse economiche e potenza computazionale. Serve cioè un progetto umano in cui l’AI sia una leva, non un fine.

Tutto ciò converge su un’idea di governance simulativa: testare le soluzioni in ambienti digitali prima di implementarle nel mondo reale. I gemelli digitali non sono solo un giocattolo futurista. Sono l’unica via razionale per gestire la complessità in tempo reale. La governance del futuro, secondo Floridi, sarà una governance digitale della governance stessa. Un metastrato decisionale in cui possiamo sperimentare il preferibile senza pagarne il prezzo.

Luciano Floridi non costruisce cattedrali nel deserto. Costruisce mappe per navigare in un territorio ancora inesplorato. Le sue keyword, “agency”, “explicabilità”, “governance etica”, non sono solo concetti, ma leve operative. Il suo approccio è un raro esempio di filosofia che sa parlare all’impresa, al legislatore e al cittadino. Perché in fondo, la posta in gioco non è capire l’AI, ma capire chi vogliamo essere in un mondo dove l’AI è ormai parte di noi.

Floridi ci ricorda che l’AI è come la grammatica: non ci dice cosa dire, ma ci dice come dirlo. E se sbagliamo grammatica, finiamo per parlare un linguaggio che non capiamo. Un linguaggio che ci illude di essere al comando, mentre in realtà siamo solo comparse in uno script scritto da qualcun altro. La vera sfida, oggi, non è costruire AI più intelligenti, ma umani più responsabili. E per farlo, serve una nuova etica. Non per censurare l’AI, ma per costruire un futuro in cui valga ancora la pena essere umani.