
Nel dibattito contemporaneo sull’intelligenza artificiale si respira un’aria curiosamente familiare, quasi déjà vu per chi, come me, ha attraversato più di una bolla tecnologica e ha visto nascere e dissolversi interi paradigmi sotto il peso delle proprie promesse. L’allineamento dell’AI, presentato come la nuova frontiera della sicurezza, somiglia sempre più a una stanza chiusa in cui pochi attori privati discutono di etica con la stessa disinvoltura con cui si negoziano margini operativi o quote di mercato. La novità, se così si può chiamare, è che questa volta la posta in gioco non è un social network o un sistema operativo, ma qualcosa che si avvicina pericolosamente a una infrastruttura cognitiva globale. Ed è proprio qui che un recente paper sul Legal Alignment introduce una frattura interessante, quasi sovversiva nella sua semplicità: forse stiamo ignorando la più grande infrastruttura normativa mai costruita, ovvero il diritto.
La storia tecnologica insegna che ogni sistema complesso, prima o poi, deve confrontarsi con istituzioni che ne definiscano i limiti. Internet ha avuto bisogno di regolatori, i mercati finanziari di autorità di vigilanza, le telecomunicazioni di standard condivisi. L’intelligenza artificiale, invece, ha seguito un percorso diverso, almeno finora, affidandosi a un mix di linee guida interne, policy aziendali e dichiarazioni di principio che, per quanto sofisticate, restano fondamentalmente autoreferenziali. Il risultato è una forma di governance che appare elegante sulla carta ma fragile nella pratica, perché priva di quella legittimità che solo processi democratici e istituzionali possono conferire.
Il paper sul Legal Alignment ribalta questa logica con una tesi tanto ovvia quanto trascurata: invece di chiedere alle aziende tecnologiche di inventare nuovi codici morali, dovremmo integrare nei sistemi di AI le strutture normative già esistenti, sviluppate nel corso di secoli attraverso tribunali, legislatori e dottrina. Non si tratta di romanticismo giuridico, ma di un’osservazione pragmatica. Il diritto, con tutte le sue imperfezioni, rappresenta l’unico sistema di regole che ha dimostrato di poter gestire conflitti complessi, bilanciare interessi divergenti e adattarsi nel tempo a contesti mutevoli.
La prima intuizione chiave del paper riguarda l’uso delle norme giuridiche come obiettivo normativo per il comportamento dell’AI. In altre parole, anziché definire vagamente cosa significhi essere “utile” o “sicuro”, si propone di ancorare le decisioni delle macchine a standard legali già codificati. Questo approccio ha un vantaggio evidente: sposta il centro della legittimità dall’azienda alla società. Non è più il team di policy di una Big Tech a decidere cosa sia accettabile, ma un corpus di regole che, almeno in teoria, riflette un compromesso sociale più ampio.
La seconda direttrice è ancora più interessante, perché tocca un punto spesso ignorato nel dibattito sull’AI: il metodo. Il diritto non è solo un insieme di regole, ma anche un modo di interpretarle. Giudici e avvocati operano costantemente in condizioni di incertezza, utilizzando principi, precedenti e tecniche argomentative per affrontare casi nuovi e complessi. Trasferire questo approccio nei modelli di AI significa dotarli non solo di contenuti normativi, ma di una struttura cognitiva capace di gestire ambiguità e conflitti. È un salto qualitativo significativo rispetto agli attuali sistemi, che spesso falliscono proprio nei casi borderline, quelli in cui la realtà non si lascia ridurre a una classificazione binaria.
La terza proposta del paper introduce un elemento strutturale che potrebbe cambiare radicalmente il modo in cui pensiamo l’affidabilità dell’AI: l’uso di concetti giuridici come l’agenzia o i doveri fiduciari come blueprint architetturale. L’idea è semplice ma potente. Se consideriamo un sistema AI come un agente che opera per conto di un utente o di una organizzazione, allora possiamo applicare a quel sistema gli stessi standard che regolano il comportamento degli agenti umani. Un consulente finanziario, per esempio, ha l’obbligo di agire nell’interesse del cliente. Perché non dovrebbe valere lo stesso per un agente AI che gestisce portafogli o prende decisioni strategiche?
Questa prospettiva introduce una forma di responsabilità che oggi è sostanzialmente assente. Attualmente, quando un sistema AI commette un errore, la responsabilità si dissolve in una nebbia di training data, architetture neurali e disclaimers legali. Integrare concetti come il dovere fiduciario significa invece creare un ponte tra il comportamento della macchina e le aspettative normative della società, rendendo più chiaro chi risponde di cosa e secondo quali criteri.
Naturalmente, non bisogna cadere nell’illusione opposta, ovvero che il diritto sia una soluzione magica. Il sistema legale è lento, spesso incoerente e profondamente influenzato da dinamiche politiche ed economiche. Tuttavia, proprio queste caratteristiche lo rendono più robusto rispetto alle policy aziendali. Il diritto è il risultato di un processo iterativo, fatto di errori, correzioni e compromessi. È, in un certo senso, un sistema di apprendimento collettivo che ha già affrontato problemi di coordinamento e conflitto su scala globale.
Il confronto con l’attuale approccio all’allineamento dell’AI mette in luce una tensione interessante. Da un lato, le aziende tecnologiche spingono per modelli sempre più potenti, in grado di prendere decisioni autonome e di gestire processi complessi. Dall’altro, la governance di questi sistemi resta ancorata a meccanismi relativamente primitivi, basati su filtri, blacklist e linee guida statiche. È come costruire un jet supersonico e controllarlo con un manuale di volo degli anni Sessanta.
Il Legal Alignment propone una via d’uscita da questa impasse, ma implica anche un cambiamento culturale non banale. Significa accettare che l’innovazione tecnologica non può essere completamente autoregolata, e che l’integrazione con istituzioni esistenti non è un freno, ma una condizione necessaria per la sostenibilità a lungo termine. In un’epoca in cui la narrativa dominante celebra la disruption come valore in sé, questa è quasi un’eresia.
Dal punto di vista economico, l’adozione di un framework di Legal Alignment potrebbe avere implicazioni significative. Le aziende che riusciranno a integrare efficacemente principi legali nei loro sistemi potrebbero ottenere un vantaggio competitivo, non tanto in termini di performance pura, quanto di fiducia. E in mercati sempre più saturi, la fiducia diventa una valuta strategica. Allo stesso tempo, si aprono nuovi spazi per professionisti del diritto, che potrebbero trovarsi a collaborare con ingegneri e data scientist in modi finora impensabili.
Una citazione attribuita a Oliver Wendell Holmes recita che “la vita del diritto non è stata logica, ma esperienza”. Traslata nel contesto dell’AI, questa frase assume un significato particolare. I sistemi di allineamento basati su principi astratti rischiano di fallire proprio perché ignorano la dimensione esperienziale, fatta di casi concreti, eccezioni e contesti specifici. Il diritto, con la sua enfasi sui precedenti e sull’interpretazione, offre un modello più realistico di come affrontare la complessità del mondo reale.
Resta, tuttavia, una domanda aperta, forse la più scomoda: siamo disposti a cedere una parte del controllo che oggi le aziende tecnologiche esercitano sull’AI a favore di un sistema più distribuito e istituzionalizzato? La risposta, se guardiamo alla storia recente, non è scontata. Le Big Tech hanno costruito il loro successo proprio sulla capacità di muoversi più velocemente delle regolazioni, sfruttando zone grigie normative e creando standard de facto prima che i legislatori potessero intervenire.
Il Legal Alignment, in questo senso, rappresenta una forma di riallineamento non solo tecnologico, ma anche politico. Sposta il baricentro del potere decisionale, introducendo un elemento di accountability che potrebbe ridisegnare gli equilibri tra pubblico e privato. Non è un caso che il paper coinvolga istituzioni accademiche di primo piano. Quando Oxford, Harvard, Stanford, MIT e Princeton convergono su un tema, raramente si tratta di una moda passeggera.
Nel panorama attuale, dominato da annunci roboanti e roadmap sempre più aggressive, l’idea di “dare una coscienza legale” alle macchine suona quasi conservatrice. Eppure, come spesso accade, le innovazioni più radicali sono quelle che riescono a integrare il nuovo con l’esistente, piuttosto che distruggerlo completamente. Il diritto non è perfetto, ma è ciò che abbiamo di più vicino a un sistema operativo sociale. Ignorarlo, nel progettare l’AI, è una scelta che appare sempre meno sostenibile.
Il paper sul Legal Alignment non chiude il dibattito, anzi lo apre in modo più ampio e, forse, più adulto. Introduce una prospettiva che costringe ingegneri, giuristi e policy maker a uscire dalle rispettive comfort zone e a confrontarsi con una realtà complessa, in cui tecnologia e istituzioni non possono più essere pensate separatamente. In un settore abituato a soluzioni rapide e slogan accattivanti, questa è probabilmente la vera innovazione: riconoscere che la sicurezza dell’AI non è un problema tecnico da ottimizzare, ma una questione sociale da negoziare.
Paper: Legal Alignment: Using the Law to Inform AI Behavior and Design, con contributi di ricercatori di Oxford, Harvard, Stanford, MIT e Princeton.