All’inizio di gennaio del 2026, in un grande hotel di New Orleans, circa novanta leader di diverso orientamento politico, attivisti civici, figure religiose, rappresentanti sindacali e intellettuali si sono ritrovati in una sala convinti di partecipare a un incontro segreto di quelli che nei film vedresti solo in “thriller di élite”. Nessuno sapeva chi altro sarebbe stato nell’altra stanza finché non ci è entrato. C’erano accademici conservatori seduti accanto a dirigenti di sindacati tecnologici; poteri progressisti che in passato avevano spinto figure come Bernie Sanders si trovavano a respirare la stessa aria di commentatori del mondo MAGA; leader di comunità religiose dialogavano con attivisti per i diritti dei lavoratori. E i promotori, un gruppo di esperti di sicurezza di intelligenza artificiale, speravano semplicemente che non si ammazzassero a vicenda. Questo incontro, sotto la copertura delle cosiddette Chatham House Rules che proibivano la diffusione dei nomi degli invitati, non era un panel qualunque ma la genesi di una nuova dichiarazione politica su IA e società.

La Pro-Human AI Declaration è ora pubblica: un documento conciso con cinque linee guida che chiedono che lo sviluppo e l’uso dell’intelligenza artificiale siano messi al servizio dell’umanità prima di ogni altra cosa, con un’esplicita opposizione alla concentrazione di potere nelle mani di pochi, la salvaguardia del benessere di bambini, famiglie e comunità, e la protezione dell’agenzia e della libertà umana. Il carattere di questa dichiarazione è straordinario non tanto per la novità dei temi, quanto per la varietà di persone e organizzazioni che lo hanno sottoscritto, rompendo divisioni ideologiche che sembravano incancrenite e facendo emergere una sorta di “coalizione di domanda” civica che reclama diritti e controllo democratico sulle tecnologie che stanno rimodellando la società.

La dichiarazione si articola in cinque aree principali: mantenere gli umani in controllo dei sistemi decisionali, evitare concentrazioni di potere tecnologico che soffochino innovazione e democrazia, proteggere l’esperienza umana nelle sue relazioni fondamentali, difendere l’agenzia e la libertà individuale e infine istituire responsabilità e supervisione reale per le grandi compagnie di IA. Tra le richieste più audaci vi è quella di vietare lo sviluppo di superintelligenze autonome finché non esiste consenso scientifico sull’assenza di rischi incontrollabili, l’obbligo di meccanismi di “off-switch” che permettano la disattivazione immediata da parte di operatori umani, e criteri di trasparenza assoluta sulle capacità dei sistemi stessi.

La lista delle organizzazioni firmatarie è un elenco curioso, tanto per la sua ampiezza quanto per la sua eterogeneità: dai sindacati come l’AFL-CIO Tech Institute e l’American Federation of Teachers, a gruppi religiosi come l’associazione G20 Interfaith Forum fino a organizzazioni civiche come Parents RISE! e think tank impegnati nei diritti digitali. Tra i singoli sostenitori spiccano nomi come lo scienziato dell’IA e premio Turing Yoshua Bengio, la leader sindacale Randi Weingarten, personaggi politici di spicco come Susan Rice, e figure controverse come Steve Bannon. A volerlo inquadrare con un termine, questa è una coalizione di domanda pro-umana che ha scelto di dichiarare guerra alle narrative di potere incontrollato.

C’è una profonda ironia in questa alleanza: nel 2017 lo stesso Future of Life Institute aveva convocato la comunità tecnica più raffinata per creare i Principi di Asilomar per un’IA benefica, con firme di altissimi profili tecnici e industriali come Sam Altman, Elon Musk, Demis Hassabis e Stephen Hawking. Quell’esercizio era dominato da tecnici e pionieri, e oggi quegli stessi attori istituzionali sono stati deliberatamente esclusi da questa cabina di regia civica proprio per evitare che il loro peso corporativo e finanziario soverchiasse il messaggio. La scelta non è estetica ma strategica: quando il potere economico controlla la narrazione sull’innovazione, la società civile finisce quasi sempre in secondo piano.

La retorica dominante fra i promotori della Pro-Human AI Declaration è stata chiara: il futuro dell’IA non può essere deciso solo da chi detiene il capitale e la tecnologia, ma deve coinvolgere chi ne subisce gli impatti più profondi. Se questi includono il rischio di armamenti autonomi senza supervisione umana, l’erodersi dell’esperienza umana nei rapporti sociali, o la cattura dei dati personali a fini di manipolazione psicologica, allora la politica e le istituzioni pubbliche devono rientrare nel gioco prima che sia troppo tardi.

In parallelo alla dichiarazione, sono stati condotti sondaggi per comprendere l’opinione pubblica sugli stessi principi: i risultati mostrano che una larga maggioranza di elettori, indipendentemente dall’affiliazione politica, sostiene idee come il mantenimento del controllo umano sui sistemi di IA e la protezione dei minori da interazioni manipolatorie. Anche l’obiettivo di evitare monopolî tecnologici riceve un sostegno netto, segnalando che le preoccupazioni etiche non sono un affare di nicchia ma una tensione diffusa nella società.

Nonostante il consenso di principio, rimane però una domanda aperta: come si traduce tutto ciò in politiche pubbliche concrete e vincolanti? Senza la partecipazione delle grandi aziende tecnologiche e senza un quadro regolatorio internazionale solido, le dichiarazioni rischiano di rimanere enunciati nobili ma privi di efficacia pratica. Soprattutto, nella stessa finestra temporale in cui questa dichiarazione veniva diffusa, si osservano dinamiche di contraddizione come la disputa fra aziende di IA e governi sull’uso di sistemi per applicazioni militari sensibili, o gli sforzi di gruppi potenti per influenzare le elezioni con denaro e narrative favorevoli a una deregolamentazione spinta.

In altre parole, il mondo politico e civile ha mosso un primo grande passo per riappropriarsi della conversazione sull’IA, ma il percorso verso regole capaci di dare equilibrio tra innovazione, libertà individuale, sicurezza e giustizia sociale è ancora lungo. La Pro-Human AI Declaration può essere letta come un documento fondativo di una nuova consapevolezza collettiva: non un manifesto apocalittico né un “salvadanaio” di princìpi astratti, bensì un tentativo di far prevalere l’idea che l’intelligenza artificiale debba migliorare la condizione umana senza sostituirla, e che il controllo della macchina sia sempre e solo nelle mani di chi rappresenta la società, non solo gli azionisti.

Se mai un giorno la società dovrà confrontarsi con scelte esistenziali circa la natura dell’intelligenza stessa, sarà in questi spazi di dialogo civico, piuttosto che nei corridoi delle corporation, che si giocherà il destino dell’umano. La Pro-Human AI Declaration non è un fine ma un inizio: un tentativo di spingere la politica a smettere di inseguire l’innovazione senza freni e di chiedere, finalmente e con forza, chi stiamo servendo quando costruiamo i nuovi cervelli digitali.