
Premi Nobel, leader di pensiero, scienziati e celebrità si riuniranno questo fine settimana (12-13 settembre) per il Meeting Mondiale sulla Fratellanza Umana, un evento patrocinato dal Vaticano che propone tavole rotonde su temi cruciali al centro dei conflitti globali e che influenzeranno il futuro dell’umanità.
“Il mondo è attualmente segnato da conflitti e divisioni, il che rende ancora più importante che siate uniti da un forte e coraggioso ‘no’ alla guerra e da un ‘sì’ alla pace e alla fratellanza,” ha detto venerdì Papa Leone XIV in un incontro con i partecipanti all’evento.
Quando il Vaticano entra nel dibattito sull’intelligenza artificiale la notizia corre veloce, non perché la Chiesa cattolica sia nota per dettare l’agenda tecnologica globale, ma perché in un’epoca in cui i governi annaspano, i colossi digitali si muovono in ordine sparso e gli scienziati si dividono tra ottimismo e panico, ogni gesto simbolico diventa carburante geopolitico. È successo di nuovo nei giorni scorsi, quando fonti italiane hanno rilanciato la notizia di un appello consegnato nelle mani del cardinale Mauro Gambetti e indirizzato a Papa Leone XIV, l’ex cardinale Robert Francis Prevost, eletto a maggio 2025. Un documento che sarebbe firmato da Geoffrey Hinton, Yoshua Bengio, Stuart Russell, Max Tegmark, Abeba Birhane e altri studiosi di livello internazionale, figure che in qualsiasi tavolo sull’etica dell’IA portano con sé l’aura del Nobel senza medaglia.
La prima reazione, per chi mastica tecnologia da decenni, è stata un misto di stupore e scetticismo. Non perché il Vaticano non abbia mai toccato questi temi, anzi. Già nel 2020, la Pontificia Accademia per la Vita aveva lanciato il cosiddetto “Rome Call for AI Ethics”, con la firma di colossi come Microsoft e IBM. Un gesto importante ma rimasto sospeso a metà tra un manifesto etico e un comunicato di relazioni pubbliche, utile a qualche CEO per lucidare la reputazione senza bloccare un singolo algoritmo. Stavolta però il presunto appello avrebbe un tono diverso, quasi politico, con la richiesta esplicita di un trattato internazionale vincolante sui limiti invalicabili della ricerca in intelligenza artificiale e l’istituzione di un organismo indipendente di controllo.
La questione interessante non è tanto se il documento esista davvero, perché al momento nessuna fonte internazionale credibile lo ha confermato, quanto il fatto che il solo evocarlo scatena un cortocircuito mediatico. Il Papa appena eletto, Leone XIV, si troverebbe così associato a un gruppo di scienziati che chiedono di porre un freno alla corsa sfrenata verso la superintelligenza, le armi autonome e la manipolazione globale. Un mix che ricorda più le sceneggiature di Black Mirror che i testi del Concilio Vaticano II.
In un mondo in cui l’intelligenza artificiale non è più un tema di laboratorio ma un’infrastruttura invisibile che condiziona la finanza, la salute, la politica e perfino l’immaginario collettivo, parlare di limiti significa attaccare direttamente i modelli di business delle grandi aziende tecnologiche. Quando Hinton, l’uomo che ha contribuito a rendere reali le reti neurali profonde, parla di rischi esistenziali e di perdita di controllo, il suo tono non è quello del profeta apocalittico ma quello di chi sa benissimo quanto sia facile passare dalla teoria alla catastrofe. Perché l’IA non uccide come un’arma da fuoco, ma crea instabilità strutturale, amplifica disuguaglianze, normalizza la sorveglianza di massa e, soprattutto, abbassa il costo della guerra con i famigerati robot killer capaci di colpire senza un dito umano sul grilletto.
Che il Vaticano diventi la cassa di risonanza di queste preoccupazioni non è un dettaglio folkloristico. È la dimostrazione che l’etica dell’IA non è più un affare accademico o industriale, ma un terreno di battaglia culturale e morale. I governi faticano a imporre regole, l’Unione Europea con il suo AI Act procede con una lentezza esasperante mentre le startup cinesi bruciano miliardi in addestramento di modelli proprietari, gli Stati Uniti oscillano tra deregulation e audizioni al Congresso che sembrano episodi di House of Cards. In questo vuoto normativo, l’idea di un appello che chieda un trattato internazionale vincolante ha il sapore di un déjà-vu: esattamente ciò che si è tentato con il nucleare negli anni Sessanta. Solo che l’IA, a differenza dell’uranio, non ha bisogno di centrifughe arrugginite o di scienziati sottratti con il coltello tra i denti. Basta potenza di calcolo, capitali e dati. E soprattutto una narrazione aggressiva che convinca investitori e politici che non si può rimanere indietro nella corsa.
Yuval Harari, che secondo i resoconti era presente ma non ha voluto firmare, incarna perfettamente il paradosso: uno dei più grandi intellettuali contemporanei, celebre per le sue analisi sulla fragilità delle narrazioni collettive, che decide di non aggiungere la sua firma a un documento che potrebbe essere ricordato come l’inizio di una governance morale dell’IA. Forse perché Harari sa che la vera battaglia non è nei documenti, ma nel modo in cui le masse interiorizzano le paure e le speranze legate alla tecnologia. Un documento al Vaticano resta confinato nelle cronache. Un modello linguistico integrato nel motore di ricerca che usiamo ogni giorno, invece, riscrive il nostro rapporto con la verità.
Eppure, se ci fermiamo un attimo a osservare la sostanza, l’appello tocca nodi che nessun CEO onesto può ignorare. L’IA deve rimanere uno strumento e non diventare un’autorità autonoma. Non può avere personalità giuridica né diritti propri, perché la responsabilità morale e legale deve restare umana. Non può decidere della vita o della morte, specialmente in ambito militare, sanitario o giudiziario. Non deve essere monopolizzata da poche aziende e non deve diventare una fonte di devastazione ecologica, considerando che l’addestramento dei grandi modelli consuma più energia e acqua di interi distretti industriali. È quasi ironico che questi principi vengano enunciati in un contesto religioso, quando in realtà dovrebbero essere scolpiti nei trattati internazionali laici e pragmatici.
Gli esperti firmatari, veri o presunti, non chiedono miracoli. Chiedono accountability, trasparenza, valutazioni indipendenti dei rischi, niente scorciatoie etiche. Chiedono, in altre parole, che l’intelligenza artificiale non segua la traiettoria del capitalismo finanziario che abbiamo visto esplodere nel 2008, dove la complessità era usata come scudo per nascondere rischi sistemici che alla fine hanno travolto milioni di persone. Se il mondo non ha imparato allora, difficilmente lo farà adesso, ma almeno la lezione è stata scritta a caratteri cubitali.
Il Vaticano, con il suo linguaggio di fraternità e protezione dei più vulnerabili, offre una cornice simbolica che potrebbe rendere digeribile un dibattito tecnico alla politica e all’opinione pubblica. È la mossa che mancava: non basta che gli ingegneri gridino al lupo, serve che le istituzioni con un capitale morale spendibile traducano il messaggio in linguaggio universale. Un documento firmato da Hinton in un convegno accademico rimane confinato a Nature o Science. Un documento consegnato a Leone XIV diventa materia di titoli globali, anche se nessuno riesce a verificarlo.
La domanda vera non è se l’appello sia autentico, ma se avrà un effetto. Se la pressione morale potrà influenzare i governi a negoziare un trattato internazionale o almeno a bloccare la produzione di armi autonome prima che diventino il Kalashnikov del ventunesimo secolo. Perché qui non si parla di algoritmi che scrivono poesie mediocri o immagini kitsch, ma di sistemi che decidono chi vive e chi muore a costi sempre più bassi.
Il futuro dell’intelligenza artificiale non sarà deciso nei panel del Vaticano né nelle audizioni parlamentari, ma nel rapporto di forza tra chi controlla i capitali, chi possiede i dati e chi riesce a catturare la narrativa pubblica. Se il Vaticano ha capito che anche solo il gesto simbolico di un appello può piegare la percezione globale, allora siamo davanti a un cambio di scenario. L’etica dell’IA non è più la materia per pochi filosofi digitali, è diventata geopolitica, economia, guerra e religione. E chi non lo vede, semplicemente non sta guardando abbastanza attentamente.
In questo contesto, la provocazione è semplice: se persino il Papa e un manipolo di scienziati chiedono un trattato internazionale, cosa stiamo aspettando? La prossima crisi finanziaria causata da algoritmi opachi? Un conflitto militare iniziato da un drone economico programmato da un gruppo di mercenari digitali? O forse stiamo solo aspettando che l’IA si appropri davvero del nostro ruolo di decisori, mentre noi continuiamo a scrivere appelli che nessuno legge?