Nel Regno Unito quel momento, secondo il Treasury Committee della Camera dei Comuni, è già passato. L’intelligenza artificiale nei servizi finanziari UK non è più un esperimento confinato a sandbox regolamentari o a presentazioni patinate per investitori. È infrastruttura critica. Decide chi ottiene credito, a quale prezzo, con quali condizioni assicurative, se una transazione è sospetta o se un cliente viene escluso da un servizio. Eppure il sistema di vigilanza continua a comportarsi come se stessimo parlando di una tecnologia accessoria, quasi decorativa.
Il rapporto del comitato parlamentare è insolitamente diretto per gli standard britannici. Accusa FCA, Bank of England e HM Treasury di essersi rifugiati in un rassicurante ma pericoloso “le regole esistenti bastano”. Tradotto in linguaggio non istituzionale significa sperare che principi scritti per fogli Excel e modelli statistici trasparenti riescano a governare reti neurali opache, sistemi adattivi e modelli costruiti da terzi globali. È una fede regolatoria degna di miglior causa.
L’AI nei servizi finanziari UK è già ovunque, anche se molti dirigenti preferiscono non guardare troppo da vicino. Credit scoring automatizzato, antifrode in tempo reale, pricing dinamico, gestione dei reclami, prevenzione del riciclaggio, consulenza finanziaria assistita. Tutto alimentato da modelli che apprendono, cambiano e spesso non sanno spiegare se stessi. Il problema non è solo tecnico, è culturale e giuridico. Se una decisione danneggia il consumatore, chi risponde. Il data scientist. Il fornitore cloud. Il vendor del modello. Il manager responsabile secondo lo SMCR. O nessuno, perché l’algoritmo ha fatto quello che doveva fare.
Il comitato mette il dito nella piaga quando parla di accountability algoritmica. Nel mondo reale, quello dei tribunali e delle sanzioni, la responsabilità non è un concetto filosofico ma una firma in calce. L’intelligenza artificiale rende quella firma sempre più simbolica. I senior manager diventano responsabili di sistemi che non hanno progettato, non controllano direttamente e spesso non comprendono fino in fondo. È una situazione paradossale. Da un lato si pretende che l’AI aumenti efficienza e competitività. Dall’altro si chiede alla governance di rispondere di decisioni prese da modelli che operano come scatole nere statistiche.
Il governo britannico, guidato da Keir Starmer, parla nello stesso tempo di turbocharge, di accelerazione, di leadership globale. La retorica dell’AI come motore della crescita è politicamente irresistibile. Promette posti di lavoro, servizi pubblici migliori, un nuovo ruolo geopolitico per il Regno Unito post Brexit. Ma c’è una frizione evidente tra l’entusiasmo dell’esecutivo e la cautela inquieta del Parlamento. Spingere l’adozione senza chiarire le regole significa scaricare il rischio sui consumatori e, in ultima analisi, sulla stabilità finanziaria.
Il punto più interessante del rapporto non è la denuncia, ma l’ammissione implicita che il modello regolatorio britannico, quello che ha funzionato per il fintech, non scala sull’AI. La sandbox della FCA del 2015 è stata un successo perché consentiva ai regolatori di vedere, toccare, intervenire. Era un laboratorio a cielo aperto. L’intelligenza artificiale rompe questo paradigma. I modelli non sono statici, i dati cambiano, le decisioni emergono da correlazioni non intuitive. Non basta osservare il codice o validare un processo una tantum. Servirebbe una vigilanza continua, tecnica, quasi ingegneristica.
Nel frattempo le istituzioni si affidano a principi generici come fairness, explainability, accountability. Belle parole. Utili nei documenti di policy. Molto meno quando un consumatore viene escluso da un mutuo o penalizzato da un premio assicurativo e chiede spiegazioni concrete. Spiegazioni che spesso non esistono o sono statistiche, non causali. La promessa di trasparenza dell’AI finanziaria rischia di diventare una nota a piè di pagina.
C’è poi il tema, appena accennato ma esplosivo, della dipendenza dai grandi fornitori tecnologici. L’AI nei servizi finanziari UK è costruita su infrastrutture cloud globali, modelli foundation sviluppati da pochi attori, librerie open source mantenute da comunità lontane migliaia di chilometri. La sovranità tecnologica, concetto già fragile, diventa quasi teorica. Le banche britanniche possono essere regolamentate fino all’ultimo dettaglio, ma se il cuore decisionale è un modello proprietario addestrato altrove, il controllo effettivo è limitato.
Dermot McGrath centra un punto cruciale quando parla di ambiguità regolatoria che penalizza chi prova a fare le cose per bene. Le grandi istituzioni con avvocati e budget infiniti navigano nell’incertezza. Le realtà più piccole, quelle che potrebbero innovare in modo responsabile, restano bloccate. Il risultato è un mercato che favorisce la concentrazione e aumenta il rischio sistemico. Esattamente l’opposto di ciò che una buona regolamentazione dovrebbe ottenere.
Il comitato chiede alla FCA di pubblicare linee guida chiare entro il 2026. È una scadenza che suona già lenta in un settore dove i modelli cambiano versione ogni pochi mesi. Ma almeno è un riconoscimento formale che l’approccio attendista non è più sostenibile. L’AI nei servizi finanziari UK non è una beta permanente. È produzione, con effetti reali su milioni di persone.
La questione di fondo resta politica, non tecnologica. Il Regno Unito vuole essere un hub globale dell’intelligenza artificiale e allo stesso tempo un mercato finanziario affidabile. Le due cose non sono incompatibili, ma richiedono scelte chiare. O si investe seriamente in capacità regolatorie avanzate, competenze tecniche interne, audit algoritmici continui, oppure si accetta il rischio di incidenti gravi e di una perdita di fiducia difficilmente recuperabile.
C’è un’ironia sottile in tutto questo. La City di Londra ha costruito la sua reputazione su regole, fiducia e prevedibilità. Ora si affida a sistemi che, per loro natura, sono probabilistici, opachi e difficili da spiegare. L’intelligenza artificiale promette efficienza, ma introduce una nuova forma di fragilità. Fingere che bastino le vecchie regole è una scelta comoda. Anche pericolosa.
Il dibattito sull’AI nei servizi finanziari UK non riguarda solo algoritmi e compliance. Riguarda il contratto sociale tra tecnologia, finanza e cittadini. Chi paga quando qualcosa va storto. Chi decide cosa è equo. Chi controlla chi controlla. Domande scomode, certo. Ma rimandarle, come ricorda il Treasury Committee, non le fa sparire. Le rende solo più costose quando finalmente esplodono.