Roma si prepara a trasformarsi in una sorta di laboratorio civico dove politica, filosofia e tecnologia si mescolano con la stessa naturalezza con cui gli algoritmi si insinuano nella nostra vita quotidiana. L’avvio ufficiale della Society for the Ethics and Politics of Artificial Intelligence, meglio nota come SEPAI, non è un semplice appuntamento accademico ma un gesto quasi teatrale, un debutto in grande stile che pretende attenzione e rilancia l’Italia nel cuore del confronto internazionale sull’etica dell’intelligenza artificiale. La conferenza inaugurale del 4 e 5 dicembre 2025 presso il Nuovo Rettorato dell’Università Roma Tre promette di essere una di quelle scene madri che restano impresse nella memoria collettiva, perché nulla è più provocatorio della domanda su chi, davvero, controlli chi nell’era delle macchine pensanti.
Roma Tre e l’Università Pegaso hanno messo in moto un meccanismo complesso, una macchina che ricorda i grandi consessi di politica scientifica degli anni novanta ma proiettata in un futuro dove le decisioni automatizzate hanno il potere di rimodellare l’economia dei dati con la stessa velocità con cui un modello generativo produce un’analisi in quattro secondi. Il lavoro di coordinamento di Mario De Caro e Andrea Lavazza sembra la regia di una pièce ambiziosa, capace di chiamare a raccolta oltre cento relatori distribuiti in ventisei tavole rotonde tematiche che oscillano tra filosofia analitica, teoria della decisione, AI regolatoria e tensioni geopolitiche del machine learning. La quantità dei partecipanti è impressionante, ma ciò che affascina è la qualità del confronto che promette di alzare il livello del dibattito italiano, spesso troppo timido quando si parla di responsabilità algoritmica.
Luciano Floridi, Ned Block, Shannon Vallor, Maurizio Ferraris, Sylvie Delacroix, Gino Roncaglia, Roberto Navigli, Giuseppe De Pietro. È come sfogliare la lista dei protagonisti di un thriller intellettuale, dove ognuno porta la propria lente per decifrare come il potere decisionale si stia spostando verso architetture opache che trasformano il concetto di libertà individuale in un elegante ma ambiguo oggetto sociotecnico. La frase del comitato promotore, “La vera domanda non è se l’intelligenza artificiale sia utile, ma se sia giusta”, è una dichiarazione che meriterebbe di essere incisa all’ingresso del convegno. È la sintesi di una preoccupazione diffusa: senza una cornice etica condivisa, il rischio è che la tecnologia più potente della nostra epoca diventi un moltiplicatore di disuguaglianze. Curiosamente, questa è la stessa preoccupazione emersa nei primi studi socio algoritmici dei primi anni duemila, quando la comunità scientifica iniziò a intuire che il valore dell’innovazione non può essere misurato solo in teraflop o in miliardi investiti.
Tutto questo prende forma mentre l’Europa combatte con la lentezza regolatoria che contrasta, quasi comicamente, con l’accelerazione del mercato dell’AI generativa. La SEPAI si propone come un ponte tra questi due mondi, una zona franca dove studiosi e policymaker possano convertire concetti tecnici in linguaggio politico e visioni normative. Non un think tank tradizionale ma un organismo vivace, volutamente imperfetto, che rifiuta la linearità e abbraccia la complessità come metodo. È una scelta strategica, perché nella governance dell’intelligenza artificiale la complessità non è un ostacolo ma la materia prima indispensabile per evitare semplificazioni pericolose.
La partecipazione delle imprese e della società civile aggiunge un altro livello alla narrazione. Enel, main sponsor del progetto, invia un segnale interessante: l’etica non è un orpello per convegni elitari ma una componente strutturale di qualunque strategia di innovazione credibile. Il sostegno a SEPAI indica che la transizione digitale non funziona senza fiducia e che la fiducia non esiste senza responsabilità. Sembra un mantra da consigli di amministrazione, ma la verità è che le aziende hanno finalmente compreso che l’etica è un asset competitivo. La curiosità sta nel fatto che questa consapevolezza non arriva dai manuali di governance ma da una pressione crescente dell’opinione pubblica che, forse per la prima volta, percepisce l’intelligenza artificiale come qualcosa che tocca concretamente diritti, lavoro, privacy e persino la creatività.
Rivista.AI, Roma Future Week e Brand Genesi assumono il ruolo di acceleratori culturali. Sono i vettori che devono portare l’AI etica fuori dalle aule universitarie e dentro il tessuto urbano, mediatico e sociale. La prima garantirà una diffusione costante dei contenuti di ricerca, la seconda offrirà la cornice di una città che da sempre negozia il proprio futuro tra archeologia e startup, la terza costruirà la narrazione strategica che trasforma un convegno in un movimento intellettuale. C’è qualcosa di profondamente simbolico in questa triangolazione, come se la SEPAI volesse dichiarare che l’etica dell’intelligenza artificiale non è materia da élite ma da cittadinanza informata.
La conferenza sarà aperta al pubblico e includerà esperienze immersive, installazioni e momenti che potrebbero sembrare eccentrici per un contesto accademico. Ma questo è il punto. Per comprendere l’AI generativa non basta parlarne, bisogna farla vedere, farla toccare, smontare la magia nera che la circonda. È un modo per sottrarre la tecnologia al mito e restituirla alla razionalità democratica. La nascita di SEPAI vuole essere anche questo: una contro narrazione rispetto alla retorica dell’automazione inevitabile.
Le partnership scientifiche internazionali aggiungono un ulteriore livello di serietà. L’accordo con AI & Innovation, rivista edita da Wiley con sede in Cina, è un elemento strategico di enorme valore perché colloca SEPAI in una geografia globale dove il confronto tra modelli etici non è solo accademico ma geopolitico. Il numero speciale dedicato ai lavori del convegno promette di amplificare la voce italiana in una rete di stakeholder che spazia dalla Silicon Valley a Pechino. Philosophy and Technology e il Journal of Information, Communication and Ethics in Society hanno già manifestato il loro interesse a collaborare. Il fatto che una società appena nata catalizzi questo tipo di attenzione è un segnale che spesso la comunità accademica non concede con leggerezza.
La presenza della Società Filosofica Italiana, che concede il proprio patrocinio, chiude il cerchio. È il riconoscimento che l’etica dell’intelligenza artificiale è, prima di tutto, un tema educativo. In un paese dove la scuola e l’università sono spesso trattate come entità distaccate rispetto al dibattito sul futuro, l’ingresso della SFI è un’indicazione preziosa. Significa che SEPAI vuole dialogare con chi forma la prossima generazione di cittadini e professionisti, perché l’etica, per funzionare, deve entrare nella cultura diffusa.
La keyword centrale è etica dell’intelligenza artificiale. Le parole chiave correlate sono governance algoritmica, responsabilità digitale e politica dell’AI. Sono i termini che guidano questo racconto e che definiscono il posizionamento strategico di SEPAI nella nascente mappa dei centri di ricerca globali. Roma, con la sua capacità di mescolare passato e futuro, diventa il palcoscenico ideale per una discussione che non è più opzionale. È una specie di invito a riconoscere che il vero potere dell’intelligenza artificiale non è tecnico ma culturale. Chi controlla la narrazione, controlla la tecnologia. E chi controlla la tecnologia, controlla il futuro.