Inaugurazione Anno Accademico 2025–2026

Venerdì 20 marzo 2026, alle ore 10:30, l’Università Roma Tre inaugura il nuovo Anno Accademico presso l’Aula Magna di Lettere.

Lectio Magistralis del prof. Luciano Floridi

Il paradosso dell’intelligenza artificiale contemporanea non è la sua potenza, ma la nostra ostinazione a trattarla come un evento futuro, quasi una tempesta all’orizzonte che possiamo ancora scegliere di evitare. In realtà la pioggia è già iniziata da tempo, e molti continuano a discutere se aprire o meno l’ombrello. La lectio magistralis di Luciano Floridi a Roma Tre ha il merito, raro, di rompere questa illusione collettiva con una lucidità quasi brutale: l’AI non è una promessa, è un’infrastruttura. Non è un’opzione strategica, è già il terreno su cui si gioca la competizione economica, politica e culturale globale.

Floridi introduce il suo ragionamento con una citazione che, in un contesto tecnologico, suona quasi provocatoria. “Non praevalebunt”. Non prevarranno. La reinterpretazione è chirurgica: non sono le forze del male a non prevalere, ma le porte del male a non resistere. La differenza è meno teologica e più operativa di quanto sembri. Le porte non attaccano, resistono. Questo sposta l’intero paradigma strategico: non difendersi dall’AI, ma usarla per avanzare. Una visione che, in un ecosistema dominato da compliance, regolazione e paura esistenziale, appare quasi eretica.

Negli ultimi trent’anni ho visto cicli tecnologici nascere, gonfiarsi e collassare con la regolarità di una crisi finanziaria. Internet, mobile, cloud, blockchain. Ogni volta la narrativa iniziale è stata la stessa: discontinuità totale, promessa salvifica, inevitabile concentrazione del potere. L’intelligenza artificiale non fa eccezione, ma introduce una variabile che i precedenti cicli non avevano: la capacità di ridefinire il concetto stesso di soggetto economico e decisionale. Non stiamo automatizzando processi, stiamo delegando agency.

La prima direttrice, l’embedding dell’AI, è probabilmente la più sottovalutata. Il paragone con il cemento armato è tanto semplice quanto devastante nella sua implicazione. Quando il cemento è fresco, si modella. Quando si indurisce, si subisce. Oggi siamo ancora nella fase plastica, ma la finestra si sta chiudendo con una velocità che il dibattito pubblico fatica persino a comprendere. Le architetture decisionali che stiamo costruendo, dai modelli di scoring finanziario agli algoritmi di selezione del personale, diventeranno rapidamente irreversibili. La governance non è un tema etico, è un problema di lock-in tecnologico.

L’Italia, osserva Floridi, non è marginale come ama raccontarsi. Un’affermazione che merita di essere presa sul serio, se non altro per il suo valore controintuitivo. Il paese dispone di infrastrutture di calcolo di primo livello e di un posizionamento normativo avanzato, grazie anche all’implementazione anticipata dell’AI Act europeo. Il problema, come sempre, è l’adozione. Le PMI italiane, ossatura reale dell’economia, guardano all’AI con lo stesso sospetto con cui negli anni Novanta guardavano a internet: interessante, ma non urgente. Nel frattempo, altri costruiscono vantaggi competitivi che difficilmente saranno recuperabili.

Il secondo asse, l’eclissi dell’analogico, introduce una tensione più sottile e forse più pericolosa. La progressiva riduzione dell’individuo a entità dati non è un effetto collaterale, è il modello di business. Le piattaforme non monetizzano persone, monetizzano rappresentazioni. La differenza è fondamentale, perché una rappresentazione può essere manipolata, segmentata, ottimizzata. Una persona, molto meno. Il rischio non è la perdita della privacy, ma la perdita di complessità. Quando un individuo diventa un vettore di dati, la sua identità si trasforma in una funzione predittiva.

La regolazione europea, spesso criticata per il suo approccio prudente, può essere letta in questa chiave come un tentativo di preservare l’irriducibilità dell’umano. Non è un caso che il dibattito sull’AI Act si concentri su trasparenza, accountability e diritti fondamentali. Il punto non è frenare l’innovazione, ma evitare che l’innovazione definisca unilateralmente cosa significhi essere umano. Un dettaglio che Silicon Valley tende a considerare secondario, salvo poi riscoprirlo quando emergono cause legali miliardarie.

Il terzo tema, il cosiddetto hardware turn, smonta definitivamente la retorica del digitale come entità immateriale. Il cloud non esiste, esistono data center. L’intelligenza artificiale non è eterea, è fatta di GPU, energia elettrica, catene di approvvigionamento di terre rare. La concentrazione di queste risorse in poche mani non è una distorsione temporanea, è la naturale evoluzione di un mercato ad alta intensità di capitale. Chi controlla l’infrastruttura controlla il gioco. Gli altri, nella migliore delle ipotesi, partecipano.

La narrativa dominante tende a minimizzare questo aspetto, preferendo discutere di modelli e applicazioni. È un errore strategico. La vera competizione non è tra algoritmi, ma tra capacità di calcolo e accesso all’energia. Il fatto che il digitale consumi tra il 3% e il 5% dell’energia globale viene spesso citato come prova della sua insostenibilità. In realtà è il contrario. Considerando l’impatto economico generato, si tratta di un’efficienza straordinaria. Il problema non è il consumo, ma la distribuzione del controllo su quel consumo.

Floridi introduce qui un elemento interessante: l’AI come possibile alleato della sostenibilità. Una posizione che, detta in un contesto dominato da allarmismi ambientali, rischia di sembrare controcorrente. Tuttavia, i numeri raccontano una storia diversa. Centinaia di migliaia di progetti utilizzano già l’intelligenza artificiale per ottimizzare risorse, ridurre sprechi, migliorare l’efficienza energetica. La tecnologia, come sempre, è neutra. È l’uso che ne facciamo a determinarne l’impatto. Un’ovvietà che continua a essere ignorata con sorprendente costanza.

Il quarto asse, l’AI come commodity, riporta il discorso su un terreno più familiare a chi ha vissuto altri cicli tecnologici. L’idea che l’intelligenza artificiale diventerà una risorsa diffusa è corretta, ma incompleta. La distribuzione dell’accesso non implica distribuzione del potere. La storia dell’innovazione è costellata di mercati che, dopo una fase di espansione caotica, si consolidano in oligopoli stabili. Il riferimento alla Conferenza di Berlino del 1884-1885 non è casuale, né particolarmente rassicurante.

La dinamica è sempre la stessa. Prima l’esplosione, poi la competizione feroce, infine la spartizione. Nel digitale abbiamo già visto questo schema ripetersi con una precisione quasi inquietante. Motori di ricerca, social network, sistemi operativi, piattaforme cloud. Ogni volta il numero di attori rilevanti si riduce, mentre il potere di ciascuno aumenta. L’intelligenza artificiale non farà eccezione. La vera domanda non è se avremo poche AI dominanti, ma chi le controllerà e con quali incentivi.

Il riferimento alla bolla non è una provocazione, è un richiamo storico. Il divario tra capitale investito e capacità di assorbimento del mercato è evidente. Venture capital e big tech stanno accelerando a una velocità che l’economia reale fatica a seguire. La differenza rispetto alla bolla dot-com è che questa volta l’infrastruttura esiste davvero. Non stiamo finanziando idee, stiamo finanziando capacità computazionale. Questo rende il sistema più solido, ma non immune da correzioni violente.

Le due immagini finali, la civetta di Hegel e il cane di Crisippo, funzionano come una sintesi quasi filosofica di un discorso profondamente industriale. La civetta arriva tardi e comprende quando non serve più. Il cane anticipa, analizza, decide. In un contesto in cui il tempo è la variabile più scarsa, la differenza tra i due atteggiamenti diventa esistenziale, non solo per le imprese, ma per interi sistemi paese.

Il punto, in definitiva, non è comprendere l’intelligenza artificiale. È posizionarsi rispetto a essa. Comprendere è un lusso che spesso arriva dopo. Agire è una necessità che precede la piena comprensione. Una frase che può sembrare controintuitiva, ma che chiunque abbia guidato trasformazioni tecnologiche conosce fin troppo bene.

Floridi, con eleganza accademica, suggerisce un approccio che il mondo corporate dovrebbe adottare con maggiore decisione: anticipare senza isteria, regolare senza paralizzare, investire senza inseguire mode. Facile a dirsi, meno a farsi. Soprattutto in un contesto in cui la narrativa dominante alterna apocalisse e hype con la stessa disinvoltura con cui i mercati alternano euforia e panico.

Il dato più interessante, forse, è che la finestra di opportunità esiste ancora. Non completamente aperta, ma neppure chiusa. Il cemento non è ancora indurito. Le porte non sono ancora state sigillate. La domanda è se esista la volontà, oltre alla capacità, di agire prima che il sistema si cristallizzi. La storia recente suggerisce prudenza nell’ottimismo. Ma ogni ciclo tecnologico, per quanto prevedibile nelle sue dinamiche, lascia sempre spazio a chi sa leggere le tracce prima degli altri.

Nel frattempo, il dibattito continuerà a oscillare tra entusiasmo e paura, mentre le decisioni reali verranno prese altrove, in stanze dove il linguaggio è meno filosofico e molto più concreto. Compute, energia, supply chain. Il resto, come spesso accade, seguirà.