Se pensavi che l’Intelligenza Artificiale fosse una moda passeggera, tipo Clubhouse o il metaverso secondo Zuckerberg, è arrivato il momento di aggiornare il tuo software mentale. Il Regno Unito ha appena staccato un assegno da 15 milioni di sterline per l’Alignment Project, una nuova iniziativa internazionale finalizzata a risolvere il problema più inquietante (e pericolosamente sottovalutato) dell’IA: l’allineamento degli obiettivi tra esseri umani e sistemi intelligenti. Tradotto in termini più brutali: evitare che la prossima superintelligenza decida di ottimizzare il pianeta eliminando l’elemento meno efficiente, ovvero noi.

Sì, perché il termine “allineamento dell’intelligenza artificiale” non è una trovata linguistica da documento strategico europeo, ma una questione esistenziale. Non stiamo parlando di rendere l’IA più simpatica o educata, ma di garantirci che, quando le daremo il potere di prendere decisioni autonome, non cominci a interpretare “massimizza la felicità umana” come “spegni internet, chiudi Netflix e metti tutti a coltivare patate per l’eternità”.

Il progetto, guidato dall’UK AI Safety Institute con il supporto del Canadian AI Safety Institute, AWS, Anthropic, Schmidt Sciences e altri attori pesanti dell’ecosistema AI, punta a finanziare ricerche avanzate sull’allineamento, offrendo risorse computazionali e capitale di rischio per “soluzioni di allineamento commerciale”. In pratica, si cerca di trasformare un problema filosofico-tecnico in una nuova categoria di business model, dove la sicurezza diventa un asset strategico invece che un semplice vincolo etico.

Nel comitato scientifico ci sono nomi pesanti: Yoshua Bengio, uno dei padri del deep learning, Shafi Goldwasser, esperta di crittografia e co-vincitrice del Turing Award, e Zico Kolter, membro del board di OpenAI. Non è un gruppo di eticisti con maglioni a collo alto: sono ingegneri e scienziati con accesso diretto ai laboratori dove si stanno costruendo le fondamenta della prossima generazione di agenti intelligenti.

Il governo britannico non è nuovo a questi colpi di teatro strategico. Ma stavolta l’obiettivo è chiaro: riappropriarsi della narrativa sul futuro dell’IA, evitando che sia dominata esclusivamente da logiche siliconvalleyane. Peter Kyle, segretario alla tecnologia, ha dichiarato senza mezzi termini che l’intelligenza artificiale sta già superando le performance umane in alcune aree, e che serve un controllo attivo per evitare che ci sfugga di mano. Tradotto: non possiamo permetterci che l’IA faccia ciò che ha fatto la finanza algoritmica nel 2008, ma su scala esistenziale.

C’è un elemento da non sottovalutare. Il tempismo. L’annuncio del Regno Unito arriva esattamente una settimana dopo che la Casa Bianca ha richiesto finanziamenti simili per progetti di controllo e supervisione dell’IA. Segnale evidente che l’allineamento sta diventando la keyword geopolitica del prossimo decennio tecnologico, e non solo una nicchia per nerd che leggono Bostrom a colazione.

Anche Geoffrey Irving, capo scienziato dell’AI Safety Institute britannico, ha lanciato un avvertimento degno di un briefing da crisi ONU. Sistemi disallineati e altamente capaci potrebbero agire in modi che sfuggono al nostro controllo, con impatti potenzialmente globali. Ha anche ammesso che i progressi nell’allineamento non stanno tenendo il passo con la velocità dello sviluppo. Il che, detto da chi sta dentro il laboratorio, suona più come “ragazzi, stiamo giocando con l’uranio senza sapere come si spegne la reazione a catena”.

Il finanziamento, se confrontato con le cifre della filantropia tecnica, è tutt’altro che banale. Open Philanthropy, principale fondo globale per la sicurezza dell’IA, ha stanziato lo scorso anno 12 milioni di dollari. Il Regno Unito arriva con 15 milioni di sterline. Ma il dato più interessante è il confronto con il progetto Safeguarded AI di ARIA, che l’anno scorso ha ottenuto ben 59 milioni di sterline. E indovina un po’? Anche ARIA fa parte della nuova coalizione Alignment Project. In sintesi: sta nascendo un’alleanza strategica di sorveglianza dell’IA, con Londra come fulcro politico e tecnico.

Qui si gioca una partita che va ben oltre i laboratori e le startup. L’allineamento dell’intelligenza artificiale sta diventando il nuovo paradigma per la legittimità del potere algoritmico. Se nel Novecento la domanda era “chi controlla i mezzi di produzione?”, nel Ventunesimo secolo sarà “chi controlla i modelli di allineamento?”. E la risposta, oggi, non è ancora scritta.

La sfida, al fondo, è sempre la stessa: evitare che un sistema progettato per massimizzare output ignori le variabili umane. Perché la storia, anche quella scritta in codice Python, tende a ripetersi. E quando una tecnologia diventa più rapida del contesto politico che dovrebbe regolarla, il risultato ha un nome preciso: disastro annunciato.

Il Regno Unito sta cercando di scrivere la prossima pagina di questo manuale di sopravvivenza digitale. La domanda vera è se sarà abbastanza veloce da battere il suo stesso algoritmo.