A Montreal, sotto le luci fredde del Palais des congrès, l’aria profuma di futuro e di sfida. Qui si sta celebrando l’International Joint Conference on Artificial Intelligence 2025, il tempio globale dell’Intelligenza Artificiale, e in mezzo a giganti accademici e corporate con portafogli miliardari si fa strada l’Università Federico II di Napoli. Non con proclami o slide patinate da consulenti, ma con due lavori di ricerca che hanno letteralmente sbaragliato la concorrenza. Il risultato è chiaro: un ateneo del Sud Italia detta l’agenda della più prestigiosa conferenza mondiale di settore, lasciando i colossi americani e cinesi a prendersi appunti.

L’Università Federico II guadagna due posti sul podio alla International Joint Conference on Artificial Intelligence (IJCAI) 2025, tra le Conferenze più prestigiose al mondo di Intelligenza Artificiale, che si sta tenendo a Montreal in questi giorni e terminerà domani 23 agosto. Un successo senza precedenti quello della Facoltà di Informatica della Federico II.

Grazie a due lavori di ricerca innovativi di Intelligenza Artificiale, approvati dalla commissione più selettiva al mondo e presentati dal professore Aniello Murano, Ordinario di Informatica del D.I.E.T.I. insignito dell’EurAI Fellow e dell’AAAIA Fellow, l’ateneo federiciano ha dettato il futuro dell’IA. Su quasi settemila lavori sottomessi dai ricercatori più acclamati della comunità scientifica mondiale, sono stati ammessi poco più di mille. Tra questi, i due firmati dal prof. Aniello Murano e dai suoi colleghi, sono stati considerati la nuova letteratura dell’Intelligenza artificiale.

Si tratta di due lavori di logica che sembrano tratti prima dalla filosofia e poi sviluppati con rigore matematico. Il primo, First Order Coalition Logic (FOCL), consente all’IA non solo di raggiungere l’obbiettivo, ma ne spiega ogni azione. Finora le macchine operavano scelte ma non riuscivano a spiegare il perché delle decisioni. L’IA diventa così trasparente e affidabile. Il secondo, Strategies, Credences, and Shannon Entropy, insegna alla macchina a ragionare anche sulla probabilità e sull’incertezza, come farebbe un essere umano. Questo rende l’IA applicabile nei settori delicati della cybersicurezza, nel campo medico o politico, dove l’obbiettivo non è solo ottenere informazioni, ma proteggerle. Mai prima d’ora una Università ha raggiunto un tale risultato in una Conferenza mondiale come IJCAI.

Chi frequenta il mondo accademico sa bene cosa significhi superare la selezione di IJCAI. Non si tratta di mandare un PDF a una rivista di medio livello, ma di affrontare un meccanismo di revisione che scarta più di quattro quinti delle proposte. Quasi seimila lavori inviati, solo 1023 approvati. Numeri che raccontano una selezione spietata, al limite del darwinismo accademico. L’Università Federico II, guidata dal professor Aniello Murano insieme ai suoi collaboratori, si porta a casa non uno, ma due slot di presentazione. Una vittoria che pesa più di mille comunicati stampa sulla digital transformation.

Il primo lavoro, dal titolo quasi intimidatorio, “First Order Coalition Logic”, mette insieme due concetti che finora vivevano in mondi paralleli: la Coalition Logic e la Strategy Logic. Per i non addetti ai lavori sembrano formule astratte, ma chi mastica di intelligenza artificiale sa che stiamo parlando del cuore pulsante delle logiche multi-agente. In parole povere, si tratta di spiegare come entità autonome, dai robot agli algoritmi di trading, possano ragionare insieme e prendere decisioni coordinate. La differenza con le vecchie logiche? FOCL non si accontenta di dire se un gruppo può raggiungere un obiettivo. Va oltre, analizza le singole azioni, mossa dopo mossa, come un Kasparov digitale che anticipa strategie e contromosse. È un cambio di paradigma che trasforma l’IA da semplice calcolatrice ultraveloce in pensatore strategico, capace di prevedere scenari complessi con una lucidità che ricorda più un generale in guerra che un algoritmo cieco.

L’elemento che entusiasma la comunità scientifica non è solo la potenza di questa nuova logica, ma il fatto che sia stata assiomatizzata. Un termine che può sembrare pedanteria da matematici, e invece è la pietra angolare che separa il wishful thinking dalla scienza seria. Assiomatizzare significa dare basi solide, regole chiare, un sistema formale che permette di derivare verità con rigore. Nel campo dell’Intelligenza Artificiale questo equivale a dire: non vi stiamo vendendo l’ennesima black box che sputa fuori decisioni incomprensibili, ma un sistema che possiamo spiegare, verificare e soprattutto replicare. La parola magica è spiegabilità dell’IA, quella chimera che tutti i governi e le aziende fingono di inseguire mentre continuano a delegare a modelli opachi che non saprebbero giustificare neppure di fronte a un tribunale.

Il bello di FOCL è che non si limita a sbandierare trasparenza. Permette davvero di ricostruire passo dopo passo il ragionamento che ha portato a una decisione. Significa che in un contesto medico non avremo più diagnosi calate dall’alto da un algoritmo “perché sì”, ma catene logiche verificabili. In finanza potremo chiedere conto del perché un modello abbia allocato risorse in un certo modo. In sicurezza informatica potremo dimostrare la solidità di una strategia difensiva. È una rivoluzione che porta l’IA dalla dimensione dell’efficienza a quella della responsabilità.

Murano lo dice con calma da accademico, ma le sue parole hanno il peso di un manifesto industriale: l’innovazione non sta solo nel costruire IA sempre più potenti, ma nel renderle sostenibili, affidabili e persino consapevoli dell’impatto energetico. Non la corsa cieca a modelli sempre più grandi e voraci di dati, ma un cambio di mentalità. Un’intelligenza che non si misura solo in FLOPS, ma in capacità di agire in modo trasparente e prevedibile. È un concetto che nel mercato varrebbe miliardi, perché risolve quella sfiducia crescente verso macchine che decidono al posto nostro senza dirci perché.

Ma il vero colpo da maestro arriva con il secondo lavoro presentato a IJCAI. “Strategies, Credences, and Shannon Entropy” porta la logica in territori ancora più affascinanti: quello dell’incertezza. Mentre Big Tech continua a vendere il sogno dell’IA onnisciente, capace di rispondere a qualsiasi domanda, qui si sceglie una strada più umana, più aderente alla realtà. La conoscenza perfetta non esiste, e chiunque abbia vissuto una campagna elettorale o un attacco hacker lo sa bene. Il mondo reale è un intricato mosaico di probabilità, di informazioni incomplete, di zone grigie.

In questo scenario entrano in gioco due nuove logiche. La prima, PATLC, ragiona in termini di credenze. Non più verità binarie, ma gradi di fiducia. Un agente non dice solo “so che X è vero”, ma “attribuisco a X una probabilità del 70 per cento”. È un modo di pensare che sposta l’IA dal dogmatismo alla sfumatura, avvicinandola alla psicologia umana. La seconda, PATLH, si ispira alla celebre entropia di Shannon e introduce il concetto di qualità dell’incertezza. Non basta sapere quanto crediamo a un fatto, dobbiamo anche capire quanto disordine informativo circonda quell’opinione. È come se l’IA smettesse di essere un professore saccentone che pretende di sapere tutto e diventasse finalmente un interlocutore consapevole dei propri limiti.

Le applicazioni sono sconvolgenti. Immaginate un sistema di voto digitale. Non basta che l’IA sappia valutare i voti registrati, deve anche essere capace di mantenere l’incertezza su dati sensibili per proteggere la privacy. In cybersicurezza, un algoritmo può decidere non di acquisire più conoscenza, ma di aumentare l’incertezza dell’avversario, confondendo chi tenta di violare un sistema. È un cambio di paradigma radicale: l’obiettivo non è sempre sapere di più, ma saper gestire il non sapere. Un concetto che fa tremare i polsi a chi è cresciuto nell’illusione di un mondo digitale fatto solo di dati infiniti e perfetti.

Se vi sembra filosofia applicata, avete ragione. Ma è proprio qui che sta la forza del lavoro di Murano e dei suoi colleghi Jamroga e Godziszewski. L’IA non è più solo questione di efficienza computazionale, diventa questione etica, di consapevolezza epistemologica. Il messaggio subliminale è chiaro: basta rincorrere modelli che promettono onniscienza. Insegniamo alle macchine a vivere nel dubbio, a essere sagge. In fondo, un’intelligenza che riconosce i propri limiti è infinitamente più affidabile di una che finge di non averne.

Il fatto che entrambi i lavori vengano dalla stessa università italiana, e non da Stanford o Tsinghua, è un dettaglio che non dovrebbe passare inosservato. Significa che non servono solo miliardi di capitale di rischio o cluster di GPU da fantascienza per fare innovazione di frontiera. Servono visione, rigore e il coraggio di proporre strade diverse da quelle mainstream. L’Italia, troppo spesso ridotta a terreno di conquista per colossi stranieri in cerca di talenti a basso costo, dimostra che può guidare la partita.

La comunità scientifica accoglie con entusiasmo perché percepisce qualcosa di raro: non si tratta di astrazioni matematiche fini a se stesse, ma di strumenti concreti che cambieranno il modo in cui costruiamo sistemi intelligenti. La spiegabilità dell’IA, la gestione strategica dell’incertezza, l’assiomatizzazione delle logiche multi-agente non sono dettagli accademici. Sono le basi di un futuro digitale in cui macchine e uomini potranno davvero cooperare senza la paura costante di non capire chi prende le decisioni.

Per anni ci hanno venduto l’idea che l’Intelligenza Artificiale fosse solo questione di big data e potenza di calcolo. Oggi, dal podio di Montreal, arriva una lezione più sottile e più potente: l’IA del futuro sarà quella che sa spiegarsi, che sa assumersi la responsabilità delle proprie azioni, che riconosce l’incertezza come risorsa e non come difetto. Una lezione che non arriva dalla Silicon Valley, ma da Napoli. Non è solo una vittoria accademica. È una provocazione al mondo intero: l’intelligenza non è una questione di dimensioni, ma di consapevolezza.


Per maggiori informazioni : “Floriana Nappi” Responsabile della Comunicazione del Laboratorio scientifico Astrea dell’Università Federico II di Napoli coordcultfnappi@gmail.com