L’intelligenza artificiale entra nelle nostre vite con la naturalezza di un algoritmo ben ottimizzato. Nessun trionfo di fanfare o scenari alla Blade Runner. Solo notifiche push, modelli predittivi, chat intelligenti e decisioni automatizzate che governano mutui, curriculum, diagnosi e processi penali. Ma mentre l’AI si infiltra nei gangli della società, è lecito chiedersi: il diritto, con la sua innata lentezza, è davvero pronto a governarla o sta per essere riscritto – questa volta, davvero – da una macchina?
Il volume “L’intelligenza artificiale tra regolazione e esperienze applicative“, edito da Cacucci e promosso da GP4AI – Global Professionals for Artificial Intelligence, non si accontenta di ripetere slogan sull’etica digitale. Mette le mani nel codice giuridico, esplorando come l’AI Act dell’Unione Europea, il primo tentativo di normare algoritmi su scala continentale, si confronti con il contesto italiano, spesso più normativo che normato, più prudente che predittivo.
Il testo è curato scientificamente da Antonio Felice Uricchio, giurista di lungo corso, e da Claudio C. Caldarola, esperto di digitalizzazione e compliance. L’introduzione è firmata da Franco Gallo, nome che – per chi ha memoria costituzionale – evoca rigore e intelligenza normativa. Ma è nei contributi raccolti che si percepisce il vero tentativo di prendere di petto la sfida: il diritto può ancora essere prescritto da umani in un mondo in cui le decisioni diventano sempre più post-umane?
La novità del libro non è solo accademica. È la prima raccolta italiana che connette in modo organico il quadro regolatorio europeo con le derive applicative nazionali. Altro che esercizi teorici: qui si ragiona di AI e fisco, giustizia automatizzata, robotica ospedaliera, impiego nei processi di selezione del personale, fino a forme di sorveglianza predittiva già attive in molte procure. Se vi suona familiare, è perché lo è: l’AI non è un futuro da regolamentare. È il presente che stiamo subendo.
Il paradosso? Mentre i giuristi iniziano a comprendere che “algoritmo” non è una parolaccia, la tecnologia ha già compiuto il passo successivo. Oggi i modelli fondativi (foundation models) come quelli alla base di ChatGPT o Claude sono in grado di analizzare e commentare sentenze, interpretare contratti, suggerire strategie di difesa. Non sorprende che alcuni studi legali abbiano già iniziato a integrare AI assistant nella redazione dei pareri. Altro che paralegali. Sta cambiando l’ontologia stessa della prestazione intellettuale.
In questo scenario, l’AI Act si presenta come una diga normativa. L’Unione Europea, con un coraggio che sfiora il masochismo burocratico, tenta di disegnare una classificazione dei rischi algoritmici, introducendo obblighi differenziati per sistemi a rischio inaccettabile, alto, medio o minimo. Un framework normativo che, pur tecnicamente sofisticato, rischia di restare lettera morta se non trova cinghie di trasmissione applicative nei singoli Stati.
È qui che il libro mostra il suo valore aggiunto. Non si limita a commentare l’AI Act, ma lo interroga alla luce del contesto italiano, dove la regolazione è spesso vissuta come un’esercitazione retorica più che come un vincolo operativo. L’Italia, del resto, ha prodotto un disegno di legge nazionale sull’intelligenza artificiale, ma resta incerta tra logica difensiva (la privacy come feticcio) e tentazioni dirigistiche (l’AI “made in Italy”). Nessuno sembra ancora aver chiarito se lo Stato debba essere arbitro, giocatore o spettatore nel gioco dell’algoritmo.
Un dettaglio significativo: GP4AI, promotore dell’iniziativa, è un’associazione che riunisce professionisti globali impegnati a riflettere sulle implicazioni pratiche dell’AI, non solo accademici o policy maker. Questo garantisce alla pubblicazione un taglio interdisciplinare, pragmatico e contaminato – e non è un insulto. Giuristi, economisti, ingegneri e filosofi dialogano in un campo dove i silenzi sono pericolosi quanto gli eccessi di rumore.
Curiosità che la dice lunga sul ritardo culturale: secondo una ricerca riportata nel volume, il 62% dei professionisti italiani della giustizia ammette di non sapere esattamente cosa sia un algoritmo di machine learning. Eppure, già oggi, alcune decisioni giudiziarie vengono “supportate” da strumenti di analisi predittiva. È come guidare un’auto assistita senza sapere se il volante comanda o simula.
Tra le pieghe del libro si avverte una sottile preoccupazione: il diritto, nel tentativo di regolare l’AI, potrebbe in realtà finire per essere regolato dall’AI stessa. I software di legal tech più avanzati sono già in grado di proporre interpretazioni delle norme più aggiornate, più complete e – spesso – più coerenti di quelle offerte dai tribunali. Resta da capire se queste interpretazioni siano anche più “giuste”, o solo più efficienti.
In conclusione, o forse no: questo volume è un manuale di sopravvivenza per giuristi del XXI secolo, e al tempo stesso un avvertimento. Se il diritto non riuscirà a domare l’intelligenza artificiale, sarà quest’ultima a codificare il diritto. E lo farà in silenzio, con efficienza calvinista, mentre i giuristi ancora discutono se l’algoritmo possa avere personalità giuridica o coscienza morale.
“La legge è uguale per tutti”, si legge ancora nei tribunali. Ma se a scriverla sarà una macchina, saremo davvero sicuri che lo sarà anche per i suoi programmatori?