Viviamo nella società dell’apparenza e quindi non poteva mancare un tocco cosmetico anche nella legislazione. È arrivata la legge 132/2025 che con l’articolo 13 regala ai professionisti un nuovo dovere: comunicare ai clienti se e come utilizzano sistemi di intelligenza artificiale. A partire dal 10 ottobre 2025 ogni avvocato, notaio, commercialista, consulente e simile dovrà scrivere nelle lettere di incarico e nelle informative che ruolo gioca l’AI nel proprio lavoro, chiarendo che resta solo un supporto strumentale e non può mai sostituire l’apporto umano e intellettuale.

Un inciso che suona come una liberatoria collettiva, una confessione preventiva: non vi preoccupate, non ci stiamo facendo rimpiazzare da un algoritmo, ci limitiamo ad addomesticarlo.

Il secondo comma dell’articolo 13 parla chiaro: le informazioni devono essere comunicate con linguaggio semplice, chiaro ed esaustivo. Ed è qui che la retorica normativa mostra la sua natura. Esaustivo rispetto a cosa? Basterà dire al cliente che è stato usato un software di ricerca basato su machine learning oppure servirà un manuale tecnico di cento pagine sul modello di training? Il legislatore ha scelto volutamente l’ambiguità, scaricando sugli ordini professionali e sui futuri decreti attuativi il compito di stabilire cosa significhi davvero chiarezza in un campo che per definizione non è mai trasparente. È la classica tecnica italiana: approvare un principio di bandiera e demandare ai regolamenti la sostanza. Intanto si mette una spunta accanto alla voce etica digitale, senza preoccuparsi troppo di come questa etica verrà implementata.

Si potrebbe dire che l’obbligo informativa intelligenza artificiale sia una novità rivoluzionaria. In realtà è più simile a un déjà vu. Nei grandi studi professionali da sempre le attività sono frutto di un lavoro corale: collaboratori, praticanti, segretari e junior associates producono bozze, ricerche e relazioni senza che nessuno pensi di specificare al cliente chi ha materialmente redatto cosa. Nessun avvocato di grido ha mai iniziato una lettera di incarico scrivendo che la bozza dell’atto sarà predisposta dal praticante Rossi e rifinita dal collaboratore Bianchi. Perché mai allora oggi bisognerebbe dire che una parte del lavoro è stata agevolata da un sistema di IA? La risposta è più sociologica che giuridica: l’algoritmo fa paura, il praticante no. L’algoritmo appare come un’entità anonima e incontrollabile, mentre il praticante è pur sempre carne e ossa, e soprattutto risponde a un codice deontologico.

Il problema di fondo è che l’intelligenza artificiale non è un soggetto con nome e cognome. Non ha tesserino, non ha albo, non ha assicurazione professionale. È uno strumento che genera contenuti e suggerimenti potenzialmente brillanti ma anche errori sistemici, bias e vere e proprie allucinazioni. Ecco perché il legislatore ha voluto che ogni utilizzo venga reso esplicito, quasi a voler disinnescare preventivamente il rischio che il cliente un giorno dica: non sapevo che dietro quella clausola c’era ChatGPT. La trasparenza, in questo senso, serve più come copertura politica che come reale tutela giuridica. Perché la responsabilità del professionista resta immutata: se l’atto è sbagliato, risponde sempre lui, che abbia usato un software di IA o un collaboratore maldestro.

Il paradosso è evidente: un obbligo di trasparenza che rischia di trasformarsi nell’ennesimo appesantimento burocratico, senza incrementare davvero la qualità della prestazione. La legge 132/2025 non modifica in alcun modo il principio cardine della responsabilità professionale. Il professionista deve garantire correttezza, qualità e affidabilità. Lo faceva prima, lo farà dopo. Nessun cliente ha mai ottenuto giustizia perché nel conferimento d’incarico era specificato che un praticante avrebbe scritto una parte della memoria. Perché dovrebbe sentirsi più tutelato se ora legge che la ricerca giurisprudenziale è stata fatta con l’ausilio di un sistema di IA?

La verità è che questo obbligo informativo fotografa la nostra epoca più che proteggere i clienti. Serve a dire che lo Stato c’è, che controlla la frontiera digitale, che non lascia soli i cittadini davanti alla minaccia oscura delle macchine. È una norma di facciata, utile soprattutto a mandare un messaggio politico: l’Italia non è contro l’innovazione, ma non accetta che l’innovazione cancelli la centralità della persona. Un messaggio più da conferenza stampa che da manuale di diritto. Intanto i professionisti si troveranno a modificare moduli, lettere di incarico, informative privacy e codici deontologici per inserire qualche riga di rito sull’uso dell’IA. Nel frattempo i clienti continueranno a preoccuparsi di quanto costerà la parcella, non se l’atto è stato aiutato da un algoritmo o da un giovane praticante.

Eppure liquidare la questione come mera burocrazia sarebbe superficiale. C’è un sottotesto che non va ignorato. Dichiarare l’uso dell’intelligenza artificiale significa anche esporsi al rischio di essere giudicati meno autorevoli, di sembrare più deboli o meno “artigiani” della parola giuridica. In un mercato dove l’immagine conta quanto la sostanza, scrivere nero su bianco che si usano strumenti di IA può diventare un boomerang reputazionale. Alcuni clienti applaudiranno alla trasparenza, altri storceranno il naso chiedendosi perché dovrebbero pagare onorari da professionista per un lavoro in parte generato da un software. La norma quindi rischia di aprire un fronte competitivo più che etico, accentuando la polarizzazione tra chi ostenta orgogliosamente l’uso dell’AI come simbolo di efficienza e chi invece preferirà nasconderlo sotto la coltre di formalismi, limitandosi a una dichiarazione generica e anodina.

Il vero campo di battaglia sarà quello dei decreti attuativi. La legge 132/2025 infatti demanda al Governo il compito di emanare entro dodici mesi regolamenti e decreti per rendere operative molte disposizioni. Finché questi non arriveranno, l’obbligo informativa intelligenza artificiale resterà una formula sospesa, soggetta a interpretazioni divergenti. C’è chi ipotizza che gli ordini professionali possano fissare modelli standard di informativa, una sorta di bollino precompilato da inserire in ogni incarico. Sarebbe il trionfo del formalismo vuoto. Ma se invece si sceglierà di entrare nel merito tecnico, allora ci troveremo davanti a un puzzle complesso: spiegare a un cliente medio come funziona un modello generativo sarebbe come illustrare la fisica quantistica durante un rogito notarile.

La sensazione è che ancora una volta la politica abbia scelto la scorciatoia del simbolo al posto della sostanza. L’articolo 13 della legge 132/2025 verrà ricordato come la norma che obbliga i professionisti a confessare il peccato originale di usare IA. Un po’ come se un cuoco fosse costretto a dichiarare che usa il frullatore o il forno ventilato per preparare i piatti. L’innovazione tecnologica è sempre stata metabolizzata dagli studi professionali senza particolari scossoni normativi. Oggi invece si vuole mettere un’etichetta a ogni strumento digitale. È l’effetto dell’ansia sociale generata da questa tecnologia: la paura che un software possa sostituire l’intelletto umano. Paura che diventa norma, e norma che diventa burocrazia.

Il cliente, alla fine, continuerà a fidarsi o a diffidare del professionista sulla base della qualità del servizio, della reputazione e dei risultati ottenuti. Non sarà una riga scritta in burocratese a cambiare la sostanza del rapporto fiduciario. Ma intanto la legge 132/2025 aggiunge un nuovo strato di carta alla montagna già traballante degli obblighi formali. E in un Paese che produce regolamenti come se fossero monete false, l’obbligo informativa intelligenza artificiale rischia di diventare il classico esempio di norma italiana: pensata per rassicurare, destinata a complicare, incapace di incidere davvero.