di Floriana Nappi
Ma può una macchina, oggi, arrivare a pensare come il Nolano? Può l’Intelligenza Artificiale non limitarsi a simulare un linguaggio, ma ragionare davvero secondo le strutture mentali, contraddittorie del filosofo Giordano Bruno?
La sfida lanciata dal Professor Aniello Murano (Ordinario di Intelligenza Artificiale- Università degli Studi di Napoli Federico II) non è un’operazione di archeologia digitale. È un esperimento di ontologia applicata. Si tratta di insegnare a una macchina non a citare Giordano Bruno, ma a ragionare come lui. Attraverso la Knowledge Representation and Reasoning e la logica epistemica, il prof Murano intende codificare l’incertezza, trasformando la logica da gabbia rigida a strumento flessibile, capace di gestire l’incompletezza, tipica dell’animo umano. È una rivoluzione che scardina l’idea di un’IA puramente deterministica, che risponde anche se non sa, per approdare a sistemi che sanno di non sapere.
Tuttavia, quando la logica sfida la filosofia, emergono domande che la tecnica da sola non può esaurire. È qui che si inserisce la riflessione del Professor Mario De Caro (Ordinario di Filosofia Morale – Università Roma Tre, Cattedra UNESCO), che interroga il Digital Mentor su un terreno scivoloso: quello dell’abduzione. Se la macchina può dedurre, può anche ipotizzare il nuovo? E soprattutto, un sistema “epistemicamente corretto” è per ciò stesso “moralmente accettabile”?
Il confronto tra Murano e De Caro, che vi proponiamo in questa intervista, delinea i contorni di una nuova frontiera: il paradigma neuro-simbolico. Un’architettura che unisce la potenza opaca delle reti neurali alla trasparenza della logica.
Dall’etica aristotelica del “caso per caso” alla necessità di un addestramento pubblico e responsabile che impedisca a un drone di ignorare i confini dell’umano, emerge una visione comune. La soluzione non sta in una macchina perfetta, ma in una macchina “limitata”, capace di simulare persino i nostri errori cognitivi per restare sotto il nostro controllo.
In un’epoca in cui l’IA corre più veloce delle leggi che dovrebbero governarla (come dimostra l’obsolescenza precoce dell’AI Act), questo dialogo ci ricorda che l’intelligenza più evoluta resta quella capace di spiegare i propri “perché”. Una lezione che Giordano Bruno, con la sua vita, aveva già intuito quattro secoli fa.
Il dialogo che segue è un corpo a corpo intellettuale tra due mondi che si scoprono sorprendentemente vicini. Da una parte l’esigenza di un’IA neuro-simbolica che sia trasparente come un trattato di logica e potente come una rete neurale e dall’altra il ritorno prepotente di Aristotele. Sì, perché per gestire i droni assassini o i bias dei dati privati, non serve un manuale d’istruzioni, serve la saggezza pratica che analizza caso per caso e introduce limitazioni alla macchina.
Tra il rigore della tecnica e il labirinto dell’etica, Murano e De Caro convergono su un punto che dovrebbe far tremare i polsi ai giganti del tech: l’IA del futuro deve essere pubblica, scientificamente dimostrabile, responsabile, partecipata e quindi condivisa perché aderisca ad un patrimonio collettivo Quattro secoli dopo il rogo, Giordano Bruno torna dunque a sfidare i dogmi. Non più quelli dell’Inquisizione, ma quelli, altrettanto opachi, degli algoritmi proprietari
L’intervista
Può una macchina pensare come il “Nolano”? Il progetto rivoluzionario del Professor Aniello Murano (Università Federico II) non è una semplice operazione di archiviazione digitale, ma una sfida ontologica: rendere vivo il pensiero di Giordano Bruno attraverso l’Intelligenza Artificiale.
“Il cuore del progetto – spiega il prof federiciano – risiede nella Knowledge Representation and Reasoning(KRR) dell’Intelligenza Artificiale, ossia la rappresentazione della conoscenza attraverso il ragionamento, la logica epistemica”.
Ma cosa ne pensa il Professor Mario De Caro, Ordinario di Filosofia dell’Università Roma Tre?
“Un esperimento interessante, improntato alla logica deduttiva, al ragionamento. Sarei curioso – aggiunge il prof. De Caro – di sapere se questo esperimento contempli anche la logica abduttiva, quindi la capacità di generare ipotesi nuove. Ne vedo le potenzialità anche sul piano dello studio e della didattica. La scelta di Giordano Bruno è una vera sfida perché è un filosofo pieno di contraddizioni ed è quindi più interessante seguire il processo di rappresentazione della sua mente”.
Il prof. Murano risponde illustrando la capacità delle sue teorie di Knowledge Representation and Reasoning, soprattutto quelle non monotone, ma basate su Strategy Logic, di affrontare anche i cosiddetti Sistemi incompleti, ossia la capacità della logica moderna di non essere una gabbia rigida, ma “uno strumento in grado di gestire l’incertezza e l’incompletezza tipiche dell’animo umano, in quanto essa è progettata per operare in scenari dove le informazioni sono parziali”.
La logica epistemica utilizzata dal prof. Murano e quindi la scelta “epistemicamente corretta” porta ad un’altra domanda che allarga il campo ad uno dei temi cari al prof De Caro: epistemicamente corretto non significa moralmente corretto. Nel paradigma uomo-macchina, quale etica dobbiamo difendere?
“Non c’è un paradigma condiviso – spiega il prof. De Caro, titolare della cattedra UNESCO – le macchine sono create per fini utilitaristici. Basterebbe programmare sistemi che minimizzino gli errori, quindi l’Intelligenza agentica, ma dove però gli uomini governano gli strumenti. Su quale etica orientarsi, il dibattito è aperto: dall’imperativo categorico di Kantiana memoria – continua il prof. De Caro – non sempre attuabile all’etica utilitaristica secondo la quale un’azione è moralmente giusta se produce la massima felicità per il maggior numero di persone. Oggi, – conclude – si riscopre l’etica antica di Aristotele, quella che impone lo studio caso per caso, la saggezza pratica”.
Come potrebbe essere applicata alle macchine questa etica?
“Occorre addestrare le macchine su casi concreti – dichiara il prof. De Caro- è difficile stabilire i principi generali nella complessità del reale, ma di certo ciò che ci differenzia è meno da ciò che ci accomuna”-
Il prof. Murano aggiunge: “Talvolta la supremazia della macchina può essere in alcuni contesti non condivisibile dall’uomo e per questo, insieme ad alcuni miei colleghi, h avviato e realizzato uno strumento decisionale, artificiale che simuli perfettamente le limitazioni cognitive umane. Si tratta di un sistema che decide sempre con precisione, ma ha una capacità limitata. Può non vedere delle soluzioni esistenti che richiederebbero uno sforzo maggiore, tipico dei sistemi di IA senza limitazioni
Il prof De Caro a tal proposito mostra il suo entusiasmo per questo progetto perché precisa: “consente di studiare la mente umana”
E in questo caso, viene da chiedersi, dobbiamo fare i conti con la responsabilità di chi addestra le macchine?
“Occorre un addestramento pubblico, partecipato, consapevole e responsabile, evitando i bias nascosti – continua il prof de Caro-se pensiamo, per esempio, in ambito militare al drone che colpisce gli umani senza avere limitazioni, comprendiamo quanto sia necessario addestrare le macchine in modo responsabile e soprattutto condiviso perché si aderisca ad un patrimonio collettivo”. E su questa vision il prof De Caro sente tutta la responsabilità della sua cattedra UNESCO che nasce per evitare che l’IA sia governata solo da logiche private o opache, promuovendo, invece, un controllo etico, internazionale e condiviso.
E su questi temi è d’accordo anche il prof. Murano
“La responsabilità di chi addestra è fondamentale -aggiunge – non possiamo basare principi fondanti su black box di pochi privati, l’addestramento deve essere un processo chiaro, spiegabile, frutto di un ragionamento logico, lontano dal sistema dell’IA generativa alla quale se chiedi il perché di un processo è capace di rispondere inventando”.
Allora qual è la soluzione?
All’unisono i professori sostengono che la soluzione è l’AI simbolica che non è energivora, sostenibile e affidabile. Le sue risposte sono formalmente corrette. Entrambi approvano questa linea. La vera sfida per il futuro è proprio lavorare sul neuro-simbolico, ossia combinare in modo efficiente la ricerca sulle reti neurali e l’IA simbolica.
In questa direzione Il prof. Murano ha ricordato l’impegno di questi giorni dell’AIxIA di cui è vicepresidente per supportare e definire la revisione dell’AI Act nel contesto del Digital omnibus che è ormai naturalmente obsoleto poiché è stato definito all’indomani dell’esplosione dell’IA generativa. L’obbiettivo di AIxIA da una parte è quello di ridurre i vincoli di applicazione dell’ IA, ma dall’altra quella di dotarsi di una Intelligenza Artificiale affidabile e sicura in tutti i possibili contesti.