AI-based solutions for legislative drafting in the EU
C’è qualcosa di paradossale – e vagamente profetico – nell’idea che un algoritmo possa aiutare l’uomo a scrivere le regole dell’algoritmo stesso. Il cane che si morde la coda? Il legislatore che si scrive da solo? La realtà, come spesso accade con l’AI, è meno fantascientifica e più terribilmente pragmatica. Siamo entrati nel territorio dove la scrittura normativa non è più esclusiva prerogativa dell’umano giurista, ma si apre al contributo, strutturato e sempre più performante, delle macchine. E non si tratta di un futuribile inquietante, ma di un progetto ben avviato dalla Commissione europea, che nel report “AI-based solutions for legislative drafting in the EU” delinea una roadmap per trasformare l’atto di scrivere norme in un processo ibrido, assistito, aumentato. Altro che Lex Romana: qui si parla di Augmented Lex Europaea.
Al centro di questa trasformazione c’è LEOS, una piattaforma open-source per il drafting legislativo già adottata a Bruxelles e in piena mutazione digitale. Non una rivoluzione estetica ma strutturale: da editor normativo a vero e proprio co-drafter intelligente. In questa evoluzione, l’elemento chiave non è tanto la tecnologia – quella, paradossalmente, c’era già – ma il modo in cui viene orchestrata. Gli ingranaggi sono già noti: Natural Language Generation, Named Entity Recognition, Semantic Similarity, Information Extraction. Quello che cambia è l’architettura modulare che li rende sinfonici. E qui l’IA diventa uno strumento di governance del diritto, non solo di assistenza tecnica.
Non ci si limita a generare testo normativo. Si passa alla verifica della coerenza tra considerando e disposizioni, al recupero automatico della normativa pertinente, all’armonizzazione delle versioni linguistiche. Si analizzano obblighi, diritti, permessi, sanzioni. Si suggeriscono riformulazioni conformi alla English Style Guide o, peggio ancora (per chi pensa che il diritto sia un’arte arcana e irriducibile), in plain language. E infine, sì, si scrivono persino articoli di legge con LLM. Ma attenzione: quest’ultima è l’eccezione, non la regola. L’AI generativa è chiamata in causa solo dove serve, in un contesto sorvegliato. Non è la protagonista, è l’assistente brillante ma sotto tiro.
Eppure, malgrado la fascinazione per GPT e compagnia, il report è molto chiaro nel mettere i piedi per terra: molte delle funzionalità prioritarie per il drafting possono essere svolte da tecnologie IA mature, simboliche, rule-based. Quelle noiose, quelle che gli startupper evitano nei pitch. Ma sono proprio loro, i vecchi motori a regole, a garantire la trasparenza e l’affidabilità che il diritto esige. Nessuna hallucinazione, nessuna probabilità statistica. Solo logica. O, per meglio dire, logica formale. A sostenerlo non è un nostalgico delle expert systems, ma una Commissione che ha finalmente capito che affidarsi solo alla statistica per scrivere la legge è come scegliere un chirurgo perché ha una buona media su TripAdvisor.
Il quadro tecnologico delineato è ampio, quasi enciclopedico: dalle tecnologie linguistiche avanzate alla classificazione tematica, dalla gestione delle ontologie giuridiche all’annotazione semantica. Ma a emergere con forza è il concetto di Hybrid AI (in Allegato il WP Univeristà di Bologna): combinazione virtuosa tra AI simbolica e AI sub-simbolica. Il diritto, per sua natura, si fonda su regole esplicite, gerarchie normative, coerenza interna. Non può permettersi il “creativo linguistico” che allucina una clausola. Ma può, anzi deve, accogliere strumenti che suggeriscano alternative, che rilevino ambiguità, che facilitino l’accesso alla complessità. È qui che entra in gioco l’ibrido: la macchina che sa imparare, ma anche spiegare.
Certo, gli LLM restano un nodo spinoso. Perché, per quanto evoluti, restano generalisti. I benchmark recenti lo confermano: GPT-4, Claude, PaLM 2 faticano con compiti giuridici elementari. L’interpretazione di clausole contrattuali? Ancora un salto nel buio. L’individuazione di diritti e obblighi in una sentenza? Troppo variabile per essere affrontata out-of-the-box. Ma i segnali incoraggianti ci sono. Con il fine-tuning mirato, anche modelli piccoli diventano specialisti. E quando i prompt sono pensati con logica giuridica – IRAC, CBR-RAG, Chain-of-Thought – i modelli si avvicinano sorprendentemente al pensiero legale umano. Non pensano davvero da avvocati, ma iniziano a imitarli con successo.
Il prompting giuridico, dunque, si configura come nuova arte retorica. Dove prima si citava Aristotele, oggi si invoca il CoT. La logica di struttura diventa prompt engineering, la giurisprudenza comparata si trasforma in retrieval-augmented generation. È una dialettica che non sostituisce la dottrina, ma la rilancia. E funziona: quando al modello viene offerta la struttura IRAC, i risultati migliorano. Quando riceve esempi di casi simili, risponde in modo più pertinente. Non perché “comprende” il diritto. Ma perché l’ambiente circostante gli impedisce di cadere nella divagazione creativa.
Ma attenzione all’illusione dell’automazione. Il report è quasi pedante nel ribadirlo: i LLM sono strumenti sperimentali, da maneggiare con cura, supervisionati da giuristi. Non c’è spazio per l’outsourcing cieco del pensiero normativo. Al massimo, si può parlare di copilot, mai di autopilot. La macchina suggerisce, il legislatore decide. E questo equilibrio non è un optional tecnico, ma un presidio democratico. Perché ogni volta che deleghiamo a una macchina la scrittura della legge, stiamo anche affidando a un algoritmo una parte del potere legislativo. E, come insegna Montesquieu, le pouvoir arrête le pouvoir.
Forse è per questo che la Commissione europea si muove con cautela, ma con determinazione. L’obiettivo non è sostituire il giurista, ma potenziarne l’efficienza. Automatizzare il ripetitivo, aumentare la coerenza, migliorare la qualità della redazione. Tutto senza sacrificare la trasparenza, l’interoperabilità semantica, la legittimità democratica. È una sfida di design istituzionale, prima che tecnologico. Una partita da giocare sulla sottile linea tra innovazione e responsabilità.
Ecco perché leggere il report è utile anche per chi il drafting non lo fa. Perché racconta un cambiamento profondo del modo in cui concepiamo la legge. Non più come atto solitario del legislatore, ma come risultato di un’interazione tra giuristi, informatici, modelli linguistici e sistemi ontologici. La legge, oggi, è anche codice. E chi la scrive, che lo voglia o no, è già parte di un processo dove l’intelligenza non è più solo umana. Ma attenzione: per ora, resta nostra la responsabilità di sapere quando la macchina sbaglia. E di non accettare mai un “così ha detto l’AI” come giustificazione normativa. Il giorno in cui lo faremo, sarà anche il giorno in cui la legge smetterà di essere davvero giusta.