Luciano Floridi è tornato con un colpo ben assestato al cuore della narrazione dominante sull’intelligenza artificiale. Il filosofo della tecnologia, oggi direttore del Digital Ethics Center all’Università di Yale, ha pubblicato “La differenza fondamentale. Artificial Agency: una nuova filosofia dell’intelligenza artificiale”, un libro che scardina la fascinazione collettiva per le macchine pensanti e riporta la discussione su un terreno più realistico, persino più inquietante. Floridi non nega la potenza dell’AI, ma la spoglia del mito antropomorfico. L’intelligenza artificiale, sostiene, non pensa. Agisce. Ed è proprio questa la sua natura più profonda e pericolosa.
Tag: Luciano Floridi Pagina 1 di 2
La scuola tradizionale ha sempre oscillato tra due poli apparentemente inconciliabili: il sapere nozionistico e le abilità pratiche. Oggi, questa dicotomia appare antiquata, quasi ridicola, se consideriamo la velocità con cui le intelligenze artificiali trasformano l’accesso e l’interpretazione dei dati. L’educazione del futuro non può più limitarsi a trasmettere conoscenze preconfezionate o abilità meccaniche, ma deve formare competenze linguistiche capaci di attraversare i diversi “linguaggi dell’informazione”, notazionale, costitutiva e calcolativa. Linguaggio non significa soltanto parole: significa sistemi di simboli, regole, convenzioni, strumenti che permettono di leggere, scrivere e, soprattutto, dare senso al mondo digitale.
Augmented Democracy in Action: AI Systems for Legislative Innovation in the Italian Parliament
In Italia, paradossalmente, non è stato un unicorno tecnologico o una startup da garage a rivoluzionare il rapporto tra politica e algoritmi. È stata la Camera dei deputati. Sì, proprio quell’istituzione che molti descrivono come lenta, ingessata, a volte irrilevante. Eppure nel 2024 ha fatto qualcosa che persino altri parlamenti più blasonati non hanno osato: mettere l’intelligenza artificiale dentro il cuore del processo legislativo, senza svendere la propria sovranità alle Big Tech e senza trasformare i deputati in comparse digitali.
Chi oggi pretende che l’intelligenza artificiale sia infallibile o addirittura “perfetta” si illude come chi compra un orologio da spiaggia e poi pretende che segni l’ora atomica. Luciano Floridi, con la sua Floridi Conjecture, mette il dito nella piaga: più un sistema di AI amplia il suo raggio d’azione e ingloba domini e dati non strutturati, meno può garantire certezze e risultati impeccabili. Non è un errore di progettazione, è una legge strutturale. Tradotto per chi ancora vive di marketing da brochure: la perfezione in AI non esiste, punto e fingere il contrario è un rischio sistemico, non un’ambizione nobile.
Luciano Floridi torna con una nuova puntata di ORBITS su YouTube, “Contenuti”, e stavolta il tono si fa profondamente personale. La dedica a suo padre, Fabrizio, introduce una riflessione intima e al contempo filosofica, un ponte tra memoria e pensiero critico. Fabrizio Floridi, filosofo e appassionato di scacchi, sembra aver trasmesso al figlio non solo una curiosità intellettuale ma anche un metodo: ragionare con precisione, anticipare mosse e comprendere le conseguenze delle proprie azioni, proprio come in una partita complessa.
Quando si sente citare Elon Musk e la sua famosa frase “Le probabilità di sviluppare l’intelligenza artificiale che distruggerà il mondo non sono pari a zero”, molti pensano immediatamente a scenari apocalittici, a robot ribelli o a latte scremato con residui di grasso nascosti. La verità è più sottile, e decisamente più filosofica. Musk ci sta ricordando che il mondo non è mai assoluto, che il 100% è spesso un’illusione e che tra possibilità, necessità e probabilità si nasconde la logica della vita quotidiana, anche se noi non ce ne accorgiamo. Questi concetti sono strettamente interconnessi, e capire la loro dinamica è più utile di quanto si possa immaginare per chi guida un’impresa, per chi si occupa di innovazione tecnologica, e persino per chi cerca semplicemente di scegliere il latte al supermercato senza essere ingannato da etichette truffaldine.
Succede una cosa molto italiana, e molto prevedibile, ogni volta che un filosofo apre bocca su un tema tecnico: si scatena il riflesso pavloviano dell’esperto di LinkedIn, che ha letto due paper su arXiv e magari ha testato un paio di prompt su ChatGPT. L’opinione pubblica, o meglio, il suo surrogato algoritmico fatto di commentatori compulsivi e indignati a rotazione, si lancia nella demistificazione del “professore che non capisce nulla”, con toni che oscillano tra il paternalismo informato e la derisione più aggressiva. È un fenomeno ricorrente, quasi prevedibile: la semplificazione diventa sospetta, la chiarezza viene scambiata per ignoranza, l’analogia per banalizzazione. Ma dietro l’indignazione si nasconde qualcosa di più inquietante: la profonda incapacità culturale di trattare la complessità senza feticizzare il gergo tecnico.
Luciano Floridi non è un filosofo qualunque. È l’architetto della nuova grammatica morale dell’intelligenza artificiale, il costruttore paziente di un ponte che unisce epistemologia, etica applicata e politica tecnologica. Nella sua visione, AI non è un’astrazione algoritmica, ma una forma di “agency”, un’entità che agisce nel mondo, lo modifica, lo plasma, e pretende di essere compresa in termini di responsabilità, governance e design. In un’epoca dove l’algoritmo viene idolatrato o demonizzato con la stessa disinvoltura, Floridi offre un’alternativa radicale: pensare l’AI non come intelligenza simulata, ma come potere reale. Con tutte le implicazioni che questo comporta.

Digitale oggi non è più un’opzione ma una condanna. Siamo seduti sull’orlo di un abisso che chiamiamo rivoluzione tecnologica, ma qui non si tratta più solo di innovare, bensì di sopravvivere alle conseguenze di un cambiamento accelerato che nessuna precedente epoca storica ha conosciuto con tale rapidità e intensità. La trasformazione digitale ha da tempo smesso di essere un fenomeno emergente: è una realtà consolidata, inscindibile, che ci trascina dentro nuove architetture sociali, economiche e politiche. Ignorare questa realtà non è soltanto ingenuo, è un suicidio collettivo di intelligenza.
Let’s drop the comforting illusion that artificial intelligence is just another shiny tool in humanity’s long romance with technology. The truth is cruder, and perhaps more dangerous: we are not using the digital we are living inside it. The shift is not evolutionary but ontological. The difference is all the difference. To call this era a transformation is an understatement. It is a colonisation, silent and irreversible, of our very existence by invisible architectures and algorithmic ecosystems. What we mistake for platforms are sovereign environments. And no, this is not metaphor it’s reality with a new texture.
Philosopher Luciano Floridi was among the first to shout from the ivory towers: we don’t surf the digital anymore, we inhabit it. Unlike a hammer or a smartphone, an environment doesn’t extend our reach it defines our being. It is not something we use but something that uses us to define itself. And yet, through most of the 1990s, policymakers still treated the internet as infrastructure a glorified mailman, not the habitat it was already becoming. That failure to grasp the ontological stakes is now coming home to roost.
La democrazia algoritmica parte da Roma: perché l’intelligenza artificiale può salvare il parlamento (se glielo lasciamo fare)
C’è qualcosa di irresistibilmente ironico nel vedere la Camera dei Deputati tempio della verbosità e del rinvio presentare, tre prototipi di intelligenza artificiale generativa. In un Paese dove un decreto può impiegare mesi per uscire dal limbo del “visto si stampi”, si sperimenta l’automazione dei processi legislativi. Lo ha fatto, con un aplomb più da start-up che da aula parlamentare, la vicepresidente Anna Ascani. Nome noto, curriculum solido, visione chiara: “La democrazia non può restare ferma davanti alla tecnologia, altrimenti diventa ornamento, non strumento”. Che sia il Parlamento italiano a fare da apripista nell’adozione dell’AI generativa per l’attività legislativa potrebbe sembrare una barzelletta. Invece è un precedente.
“Agnosco veteris vestigia flammae”. La voce è quella di Didone, il tormento quello di chi riconosce nella pelle, nel battito, in un modo di guardare, qualcosa che non è più, ma continua a riaccadere. La fiamma non è il fuoco, ma il suo riflesso sul volto. Non il passato, ma la sua architettura nel presente. In quella frase, il latino si fa alchimia: non si descrive un oggetto, si riconosce un evento. Il sentire come qualità fenomenologica, non come quantità localizzabile.
Ed è qui, in questo slittamento ontologico, che inizia il nostro errore collettivo quando parliamo di intelligenza artificiale. Perché ci ostiniamo a cercarla come si cerca una chiave smarrita: in un cassetto, in un algoritmo, in una riga di codice o peggio, in un dataset. Ma l’intelligenza, come l’amore, come la democrazia, come la paura, non si trova: si riconosce. Non è una cosa, è un modo.
Se non sai neanche cosa chiedere, sei fregato
C’è un momento nella vita – se sei fortunato – in cui ti accorgi che non sai. Ma ancor prima ce n’è uno più insidioso: quello in cui non ti accorgi nemmeno che dovresti chiedere. È lì che abita l’ignoranza vera, quella spessa come la nebbia padana, impenetrabile, comoda. Ed è lì che si apre il varco per un tema scottante e poco glamour: l’informazione.
Luciano Floridi, filosofo gentile con l’acume da bisturi, lo spiega con il garbo di chi sa di toccare un nervo scoperto. L’informazione, dice, è stata la Cenerentola della filosofia: sfruttata, marginalizzata, data per scontata. Eppure, senza, la festa non comincia nemmeno. Né quella epistemica né quella sociale.
Ci siamo: anche Luciano Floridi ha il suo avatar cognitivo. Si chiama LuFlot, ed è un’intelligenza artificiale generativa che, a detta dei suoi giovani creatori, dovrebbe incarnare — se mai un algoritmo potesse farlo — trent’anni di pensiero filosofico del direttore del Digital Ethics Center di Yale. Ebbene sì, il digital twin è sbarcato anche nel pensiero critico, e stavolta non si limita a simulare macchine industriali o profili finanziari, ma un vero e proprio intellettuale. L’ultima mossa dell’era epistemica delle allucinazioni assistite da AI.
Floridi, con il consueto equilibrio tra rigore e understatement anglosassone, ammette: “Io ho solo condiviso i miei scritti e dato qualche suggerimento sul design.” La paternità operativa del progetto, infatti, è tutta di Nicolas Gertler, matricola di Yale, e Rithvik Sabnekar, liceale texano con talento per lo sviluppo software. Due nomi che, nel contesto di una Ivy League dove il filosofo è leggenda accademica, suonano come una sottile vendetta della generazione Z: i padri della filosofia digitale messi in scena dalla loro progenie algoritmica.
Andreas Tsamados· Luciano Floridi· Mariarosaria Taddeo
Dal controllo alla squadra: come l’AI generativa sta cambiando il ruolo dell’uomo
L’avvento dei foundation model ha trasformato il concetto stesso di automazione. Sistemi come GPT, Claude o Gemini non sono più semplici strumenti, ma partner capaci di elaborare linguaggio, codice e immagini su scala globale, con comportamenti imprevedibili e non deterministici. La domanda cruciale, per chiunque gestisca tecnologia o processi decisionali ad alto rischio, è semplice ma perturbante: come può l’uomo mantenere il controllo senza diventare un semplice osservatore passivo? Tsamados, Floridi e Taddeo in “Human control of AI systems: from supervision to teaming” ci offrono un quadro concettuale audace: abbandonare la supervisione per entrare nella logica della squadra.
Inizia sempre così: una promessa seducente, una scorciatoia elegante mascherata da progresso. Prima ci hanno detto che l’intelligenza artificiale ci avrebbe aiutato a trovare le informazioni giuste. Ora, con gli editorial LLM interfacce basate su modelli linguistici di grandi dimensioni ci dicono che ci aiuterà anche a scrivere, giudicare, selezionare. Benvenuti nel nuovo ordine editoriale, dove la parola chiave non è più “peer-review” ma prompt engineering.
L’editoria accademica, un tempo regno di lente riflessioni e battaglie ermeneutiche a colpi di citazioni, è sempre più simile a un flusso dati gestito da macchine addestrate su milioni di testi che capiscono tutto tranne il significato.
Benvenuti nella nuova era della “distant writing”, un concetto introdotto da Luciano Floridi, che si candida ad essere la prossima rivoluzione copernicana della letteratura. Se prima si parlava di “distant reading”, ovvero l’analisi computazionale dei testi su larga scala proposta da Franco Moretti, oggi il pendolo si sposta ancora più in là: non ci limitiamo a leggere macro-pattern letterari, ora li generiamo direttamente con l’ausilio di modelli di linguaggio come GPT.

Luciano Floridi colpisce ancora. Uno di quegli intellettuali che riesce a trasformare una cattedra in un laboratorio di alchimia digitale, dove filosofia, AI e ingegneria sociale si impastano in qualcosa che a metà tra l’etica e il project management distopico. Il suo nuovo articolo, firmato con un dream team di cervelloni internazionali, non è solo un esercizio accademico: è una proposta molto concreta, molto seria, e vagamente inquietante. Un passo più vicino all’algoritmo che si credeva Rousseau.
Il titolo sembra innocuo, quasi educato: A Replica for Our Democracies? Ma dietro il punto interrogativo si nasconde la vera proposta: creare digital twins gemelli digitali delle comunità deliberative per simulare, testare, ottimizzare, correggere e magari anticipare le decisioni politiche prima che vengano prese nel mondo reale. Tipo: “Facciamo decidere prima agli avatar e vediamo come va”. Se funziona, poi magari lo facciamo davvero.
Articolo completo disponibile qui
Nel suo saggio The Eclipse of the Analogue, the Hardware Turn, and How to Deal with Both, Luciano Floridi firma un manifesto filosofico che è tanto un’allerta quanto una diagnosi cinica e lucida sul rapporto sempre più tossico tra digitale e analogico. Il testo, a tratti feroce nella sua chiarezza, è una lettura che ogni CTO, policymaker e filosofo (anche quelli travestiti da imprenditori) dovrebbe tenere come guida per non diventare l’ennesimo adoratore del feticcio digitale.
Floridi articola tre tesi connesse ma devastanti nella loro implicazione: primo, l’epistemologia del nostro tempo è mediata da modelli digitali che eclissano i sistemi reali; secondo, il potere non è più nel codice ma nell’hardware che lo supporta, in quella che chiama “hardware turn“; terzo, la soluzione non è un ritorno nostalgico al passato analogico, ma una combinazione riformulata di educazione critica (Paideia), legislazione robusta (Nomos), e una sovranità digitale capace di presidiare il confine sempre più labile tra ciò che è vero e ciò che è simulato.
Società Digitale esplora temi legati alla governance, alle trasformazioni, agli ecosistemi e agli sviluppi della tecnologia digitale, analizzando le loro ripercussioni sulla società. La rivista incoraggia indagini approfondite, valutazioni critiche e raccomandazioni basate sui principi di una solida ricerca accademica, indipendentemente dall’approccio disciplinare adottato. Particolare attenzione è riservata ai contributi che si inseriscono nelle quattro Aree Tematiche principali.
A Risk-Based Regulatory Approach To Autonomous Weapon Systems
Open access Pubblicato: 03 Aprile 2025 di Alexander Blanchard, Claudio Novelli, Luciano Floridi & Mariarosaria Taddeo
La regolamentazione internazionale dei sistemi d’arma autonomi (AWS) sta emergendo sempre più come un esercizio di gestione del rischio. Tuttavia, un elemento cruciale per far avanzare il dibattito globale è la mancanza di un quadro di riferimento condiviso per valutare i rischi intrinseci a queste tecnologie militari.
Un recente studio propone una struttura innovativa per l’analisi e la regolamentazione dei rischi degli AWS, adattando un modello qualitativo ispirato al Gruppo intergovernativo sui cambiamenti climatici (IPCC). Questa metodologia esamina le complesse interazioni tra fattori chiave di rischio – determinanti, fattori trainanti e tipologie – per stimare l’entità del rischio associato agli AWS e stabilire soglie di tolleranza attraverso una matrice di rischio. Tale matrice integra la probabilità e la gravità degli eventi, arricchita dalla conoscenza di base disponibile.
La ricerca sottolinea che le valutazioni del rischio e i conseguenti livelli di tolleranza non dovrebbero essere determinati unilateralmente, ma attraverso la deliberazione in un forum multistakeholder che coinvolga la comunità internazionale. Tuttavia, gli autori evidenziano la complessità di definire una “comunità globale” ai fini della valutazione del rischio e della legittimazione normativa, un compito particolarmente arduo a livello internazionale.
Viviamo nell’era dello zettabyte, una realtà in cui la produzione di dati cresce in modo esponenziale, superando la nostra capacità di elaborazione e comprensione. Luciano Floridi, uno dei massimi filosofi dell’informazione, ci mette in guardia: la conoscenza non è una costruzione naturale, ma un’abilità raffinata di interpretare e “hackerare” i dati che provengono dal mondo. Tuttavia, la vera sfida epistemologica non è tanto nell’accumulare dati, quanto nell’individuare i piccoli pattern, ovvero quelle micro-strutture informative che nascondono valore e significato in mezzo al rumore del superfluo.
Questo articolo nasce dall’ispirazione fornita dal lavoro di Claudio Novelli (Yale University – Digital Ethics Center), Akriti Gaur (Yale Law School; Yale Information Society Project) e Luciano Floridi (Yale University – Digital Ethics Center; University of Bologna – Department of Legal Studies).
Two Futures of AI Regulation under the Trump Administration
SSRN PAPER : https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5198926
Le loro ricerche mettono in luce il complesso rapporto tra regolamentazione dell’intelligenza artificiale, governance politica ed etica digitale, temi che oggi più che mai richiedono una riflessione approfondita. Il dibattito sulla regolamentazione dell’AI non è solo una questione tecnica, ma un crocevia di scelte politiche, economiche e filosofiche che determineranno il futuro della società digitale.
Luciano Floridi è un pensatore che ha sempre giocato con i limiti del linguaggio e della comprensione, ma nel suo sfogo più lirico e tormentato ci racconta un dramma universale: la condanna dell’essere umano alla prigionia dell’imprecisione, della vaghezza, dell’inadeguatezza della parola.
Paradossalmente, è proprio con parole raffinate e chirurgiche che il filosofo romano trapiantato a Yale si dibatte nel labirinto del linguaggio. Un uomo che ha fatto della logica e della filosofia il proprio mestiere confessa che la parola lo tradisce. Non è l’amico fedele che dovrebbe servire la nostra mente, ma un despota capriccioso che si piega solo ai poeti. E noi, comuni mortali del linguaggio, siamo destinati a balbettare, a lanciare segnali come prigionieri in una cella insonorizzata. Locked-in, appunto.
Luciano Floridi è uno dei pensatori più influenti del nostro tempo nel campo della filosofia dell’informazione e dell’etica digitale. Il suo lavoro si colloca all’intersezione tra tecnologia, filosofia e società, offrendo una visione complessa e articolata sulle sfide e le opportunità della rivoluzione digitale. Attraverso i suoi scritti, Floridi ha sviluppato un quadro teorico che va ben oltre la semplice analisi delle tecnologie emergenti, toccando questioni profonde che riguardano la nostra identità, la conoscenza, il potere e il senso stesso dell’essere umano in un mondo sempre più interconnesso e automatizzato.
Le riflessioni di Floridi si concentrano su come l’informazione sia diventata la struttura portante del nostro mondo e su come l’umanità debba ripensare il proprio rapporto con essa. L’autore si sofferma su questioni etiche, epistemologiche e politiche, delineando un futuro in cui la tecnologia sarà sempre più pervasiva e determinante, ma in cui il fattore umano dovrà mantenere un ruolo centrale per evitare derive distopiche.
L’intelligenza artificiale non è solo un fenomeno tecnologico, ma una rivoluzione epistemologica che ridefinisce il nostro rapporto con il mondo. Luciano Floridi, uno dei filosofi più autorevoli nel campo dell’etica digitale, affronta il tema con il suo consueto rigore analitico in “Etica dell’intelligenza artificiale”, un libro che si propone come bussola per navigare le sfide e le opportunità dell’era onlife.
C’è un fascino sottile e perverso nell’analizzare la relazione tra intelligenza artificiale e società, soprattutto quando il discorso scivola dalla tecnica alla filosofia, dalla pragmatica all’etica. Il dibattito è pieno di dicotomie: progresso e controllo, autonomia e dipendenza, libertà e manipolazione. L’IA, si dice, potrebbe facilitare il benessere umano, ma solo se gestita con criteri chiari, evitando di trasformarsi in una forza fuori controllo, una divinità algoritmica capace di plasmare comportamenti senza che l’utente se ne renda conto.
Si parte da un concetto semplice: per essere efficace, un progetto basato sull’IA deve dimostrare di avere un impatto concreto e positivo sulla società, riducendo problemi senza generarne di nuovi. Peccato che questo principio teorico si scontri con la realtà della tecnologia, dove il confine tra innovazione e abuso è sottilissimo. Gli algoritmi sono spesso percepiti come strumenti neutri, ma la loro implementazione può introdurre distorsioni, discriminazioni e persino amplificare diseguaglianze.
L’instancabile Luciano Floridi, filosofo della tecnologia e tra i massimi esperti di etica digitale, ha recentemente proposto la creazione di una nuova disciplina accademica: le Content Studies. L’idea è semplice nella sua ambizione: costruire un framework interdisciplinare capace di analizzare, valutare e progettare i contenuti digitali in un’epoca dominata dall’intelligenza artificiale e dagli ecosistemi mediatici algoritmici. Non un semplice ramo della semiotica, delle scienze della comunicazione o degli studi sui media, ma una sintesi metodologica capace di superare la frammentazione accademica e di fornire strumenti pratici per affrontare sfide cruciali come la disinformazione, l’accessibilità e il bias algoritmico.
Floridi parte da una constatazione: la mole di dati digitali prodotti negli ultimi anni ha raggiunto livelli esponenziali. Secondo le stime di Statista, nel 2023 il mondo ha generato circa 120 zettabyte di dati, un numero che supererà i 180 ZB entro il 2025. Gran parte di questa produzione è automatizzata e resa possibile da modelli generativi di IA, rendendo il contenuto digitale un’entità sempre più indipendente dall’essere umano. Questo scenario segna la fine dell’epoca Vitruviana, in cui ogni contenuto significativo si supponeva fosse prodotto esclusivamente dall’intelletto umano. Oggi viviamo in un mondo post-Vitruviano, in cui l’origine del contenuto è meno rilevante del suo impatto, delle sue dinamiche di circolazione e della sua efficacia comunicativa.
Nel regno etereo della tecnologia, dove i bit danzano come folletti e gli algoritmi tessono incantesimi di complessità inaudita, una domanda serpeggia tra le pieghe del tempo: stiamo forse smarrendo il sentiero che conduce alla realtà tangibile? Il velo tra il mondo digitale, onnipresente e impalpabile, e il regno analogico, fatto di carne, pietra e vento, si assottiglia di giorno in giorno. In queste cronache, ci addentreremo nelle profondità di questa dicotomia, illuminando il cammino con la luce della filosofia e tingendolo con i colori vividi della fantasia.
AI: Il Sogno Elettrico È Già Incubo? Problemi Esacerbati, Ombre Rinnovate, Orrori Inauditi (citando Floridi)
Intelligenza Artificiale, IA, si dice… Una forza. Una promessa. Ma se fosse… altro? Una morsa. Un inganno. Il mondo cambia, veloce. Forse troppo. Problemi etici? Non solo. Incubi. Domande che nessuno vuole porre. Luciano Floridi, nel suo “The Ethics of Artificial Intelligence: Exacerbated Problems, Renewed Problems, Unprecedented Problems” (American Philosophical Quarterly, 2024), lo dice chiaro: stiamo aprendo un vaso di Pandora.
Artificial intelligence, il fantasma che si aggira nel regno digitale, sta rapidamente trasformando il nostro mondo, infiltrandosi in ogni aspetto della vita umana. Questa nuova Prometeo tecnologica promette avanzamenti senza precedenti, ma al tempo stesso spalanca il vaso di Pandora delle questioni etiche, richiedendo una riflessione filosofica profonda. Come sottolinea Luciano Floridi nella sua opera “The Ethics of Artificial Intelligence: Exacerbated Problems, Renewed Problems, Unprecedented Problems”, ci troviamo di fronte a una convergenza di problemi etici esasperati, rinnovati e completamente inediti.
L’intelligenza artificiale senza anima: un’Agentività Fantasma che riplasma la realtà
Un recente paper di Luciano Floridi, intitolato “Artificial Intelligence as a New Form of Agency (not Intelligence) and the Multiple Realisability of Agency Thesis”, ci conduce in un futuro parallelo in cui l’intelligenza artificiale non possiede una mente, ma esercita un potere silente, simile a quello di un’agenzia fantasma. In questa visione, l’IA non è una mente superiore, ma un’entità operativa che plasma la realtà con freddezza algoritmica, dove il calcolo sostituisce la coscienza.
Floridi ci guida in un’analisi che sfida la tradizionale visione antropocentrica, mettendo in discussione la comune associazione tra intelligenza e decisione autonoma. Nel suo elaborato, Floridi abbandona la retorica dell’intelligenza artificiale “umana” per abbracciare una concezione in cui il potere decisionale risiede in una logica di mera funzionalità. In un mondo in cui gli errori umani erano un tempo la scintilla dell’innovazione e della creatività, ora la perfezione algoritmica elimina ogni margine di incertezza, riducendo l’umanità a un semplice ingranaggio in una macchina di precisione spaventosa e impersonale.
Luciano Floridi, insieme al team di ricerca della Yale University e University of Bologna, ha firmato un contributo straordinario nel campo della sicurezza informatica applicata alle Brain-Computer Interface (BCI). Il loro modello di threat assessment, presentato nello studio sulle vulnerabilità delle BCI, si distingue per la sua innovatività e per la capacità di affrontare un problema ancora poco esplorato: la difesa dei dispositivi neurali dalle minacce cyber.
Floridi, noto per il suo lavoro pionieristico in etica digitale e filosofia dell’informazione, ha contribuito a un’analisi che va oltre la semplice identificazione dei rischi. Il modello sviluppato dal suo team adotta un approccio multidimensionale, combinando elementi di cybersecurity, neuroetica e regolamentazione medica per costruire un framework di sicurezza che tiene conto delle specificità biologiche e tecnologiche delle BCI.
L’elemento davvero innovativo del loro lavoro sta nell’applicazione del Common Vulnerability Scoring System (CVSS), un framework normalmente usato per classificare i rischi informatici tradizionali, alle minacce uniche delle BCI. Questo consente di quantificare il livello di pericolo di ogni vulnerabilità, dalle manipolazioni neurali involontarie agli attacchi remoti, fornendo una roadmap chiara per la sicurezza di questi dispositivi.
Floridi e il suo team non si limitano a descrivere i problemi, ma propongono soluzioni concrete: autenticazione avanzata, crittografia dei dati cerebrali e riduzione della superficie d’attacco delle BCI. Il risultato è un framework che potrebbe diventare lo standard di riferimento per la sicurezza delle interfacce neurali, un campo destinato a crescere esponenzialmente nei prossimi anni.
Il contributo di Floridi in questo studio non è solo accademico, ma ha un impatto pratico e urgente. Con l’avanzata di aziende come Neuralink e lo sviluppo delle BCI di nuova generazione, il lavoro della Yale University arriva al momento giusto per guidare il futuro di questa tecnologia con un equilibrio tra innovazione e protezione della persona. Un modello brillante, destinato a lasciare il segno.
Giudicare gli altri è facile. Il modo in cui parlano, quello che dicono. I loro gesti, le loro scelte, le loro abitudini. Tutto può sembrare sbagliato, illogico, fuori posto. Troppo presto, troppo tardi. Vizi, errori, convinzioni fragili o superstizioni insensate. Eppure, c’è un paradosso evidente: mentre giudichiamo gli altri, siamo a nostra volta giudicati. E la gabbia nella quale li osserviamo è, in realtà, la nostra.
Nel corso dell’ultimo decennio, la figura dell’eticista dell’intelligenza artificiale ha visto una crescita significativa nel mercato ICT. Nonostante ciò, sono pochi gli studi che si sono interessati a questo profilo professionale e che abbiano fornito una discussione normativa sulle sue competenze e abilità.
Who is an AI Ethicist? An empirical study of expertise, skills, and profiles to build a competency framework, disponibile su: Springer Nature Link.
L’articolo di Mariangela Zoe Cocchiaro, Jessica Morley, Claudio Novelli,
Enrico Panai, Alessio Tartaro & Luciano Floridi intende avviare questa discussione, analizzando l’importanza di definire con maggiore precisione il ruolo di questo professionista e le competenze richieste.
Gli autori sostengono che gli eticisti dell’intelligenza artificiale dovrebbero essere esperti e che esista un metodo utile per identificarli. Il focus dell’articolo è specificamente sulle competenze morali degli eticisti dell’intelligenza artificiale, prendendo spunto da parallelismi con l’esperienza degli eticisti in ambito sanitario e dalla letteratura bioetica.
Vengono esplorate le differenze tra gli eticisti nell’ambito sanitario e quelli nell’ambito dell’IA, derivando competenze e abilità sulla base dei ruoli che un eticista dell’IA dovrebbe ricoprire all’interno di un’organizzazione.
Negli ultimi anni, l’Unione Europea ha intrapreso un percorso ambizioso per regolamentare l’intelligenza artificiale (IA), mirando a bilanciare l’innovazione tecnologica con la tutela dei diritti dei cittadini. Questo viaggio normativo ha visto l’introduzione di proposte chiave come l’AI Act e la Direttiva sulla Responsabilità dell’IA (AILD).
L’AI Act, considerato il primo quadro giuridico orizzontale sull’IA, è stato proposto nell’aprile 2021 con l’obiettivo di affrontare i rischi associati all’IA e fornire requisiti chiari per sviluppatori, utilizzatori e utenti, modulati in base al livello di rischio delle applicazioni
Parallelamente, nel settembre 2022, la Commissione Europea ha presentato la proposta di Direttiva sulla Responsabilità dell’IA, mirata ad armonizzare le regole sulla responsabilità civile non contrattuale per i danni causati da sistemi IA.
Questa direttiva intende garantire che le persone danneggiate da sistemi IA ricevano lo stesso livello di protezione di coloro che subiscono danni da altre tecnologie, facilitando l’onere della prova per i richiedenti attraverso meccanismi come la divulgazione delle prove per i sistemi IA ad alto rischio e presunzioni confutabili
Luciano Floridi, uno dei maggiori pensatori contemporanei nel campo della filosofia dell’informazione, offre una visione radicale e innovativa di come interagiamo con il mondo attraverso i dati e l’informazione.
La filosofia dell’informazione si afferma come un campo di ricerca dinamico e autonomo, capace di rinnovare il dibattito filosofico sulla computazione e la teoria dell’informazione. Attraverso un percorso storico che parte dalla filosofia dell’intelligenza artificiale, la Filosofia dell’informazione FI emerge dal confronto tra innovazione e tradizione, offrendo una nuova prospettiva sui problemi epistemologici e concettuali.
Essa non è una “filosofia perenne” ma una disciplina matura che fornisce un’analisi sistematica del mondo dell’informazione, connettendosi ad altri ambiti del sapere e ridefinendo questioni classiche e contemporanee. La sua riflessione trascende la tradizionale distinzione tra conoscenza e tecnologia, proponendo un’idea che mette al centro la filosofia come forma suprema di design concettuale.
Il suo approccio, che si radica nella filosofia, nella scienza dei dati e nell’informatica, trasforma il nostro modo di concepire l’interazione tra l’uomo, la realtà e il mondo digitale. La lettura delle sue opere è un investimento, non solo intellettuale ma anche pratico, per chi vuole comprendere a fondo le dinamiche che regolano la nostra era dell’informazione.
In un’epoca in cui l’Intelligenza Artificiale (IA) è diventata protagonista di dibattiti, investimenti miliardari e rivoluzioni tecnologiche, capire davvero di cosa si tratta può sembrare un’impresa da far sanguinare il naso. Eppure, durante una serata speciale del programma Splendida Cornice, condotta da una superlativa Geppi Cucciari su Rai 3, il professor Luciano Floridi, filosofo ed esperto di etica digitale, ha offerto una spiegazione chiara e accessibile, promettendo di farci uscire dal bar senza emorragie nasali.
Luciano Floridi è Professor and Founding Director of the Digital Ethics Center all’Università di Yale e insegna Sociologia della Comunicazione all’Università di Bologna. E’ tra i massimi esperti internazionali nel campo della filosofia dell’informazione e delle trasformazioni digitali, ed è stato recentemente nominato presidente della Fondazione Leonardo. A parte i titoli ha dimostrato, sempre, di essere un personaggio di spessore.
Floridi ha offerto una visione critica e complessa sull’Intelligenza Artificiale (IA), che va oltre la semplice analisi tecnologica. Il suo approccio, come emerso nel programma, si concentra sulla natura stessa dell’intelligenza e sul rapporto tra uomo e macchina, mettendo in discussione alcune delle nostre assunzioni più comuni.
Il concetto di capitale semantico, elaborato dal filosofo ed eticista Luciano Floridi, rappresenta un nuovo paradigma di capitale, focalizzato sul patrimonio di idee, conoscenza, significato e cultura. Tale capitale si distingue in quanto non si limita a un valore economico o culturale nel senso tradizionale, ma è costruito intorno al valore intrinseco delle idee e delle rappresentazioni che ci permettono di creare significato e di interagire con il mondo in modo più profondo e contestualizzato.
