L’Italia ha fatto qualcosa di inaspettato. Per una volta, non è arrivata ultima. Il 25 giugno 2025, la Camera dei Deputati ha approvato il DDL 2316 sull’intelligenza artificiale, rendendo il Bel Paese il primo in Europa a dotarsi di una legge nazionale organica sull’AI. Sì, proprio l’Italia, quel laboratorio instabile dove le leggi spesso si scrivono per non essere applicate, ha anticipato Bruxelles. E ha pure infilato dentro un fondo da un miliardo di euro. Ora, tra entusiasmi da ufficio stampa e panico da compliance, c’è una domanda a cui nessuno ha ancora risposto seriamente: questa legge fa nascere un ecosistema o lo stermina?

Partiamo dal cuore del provvedimento: 28 articoli in sei capitoli, una struttura da manuale giuridico, infarcita di etica, supervisione umana, trasparenza, parità di genere, non discriminazione, sostenibilità e — naturalmente — responsabilità. Più che una legge, un manifesto. Un’architettura normativa pensata per rassicurare l’opinione pubblica prima ancora che per accelerare l’innovazione. Del resto, il lessico è rivelatore: mentre l’AI Act europeo parla di rischio, l’Italia preferisce la parola “precauzione”. È l’equivalente digitale del principio attivo della camomilla: tutto si può fare, ma con calma, controllo, e previa approvazione del comitato etico.

Il testo non lascia spazio a interpretazioni: l’intelligenza artificiale è ammessa, a patto che si sottometta. Niente giustizia automatizzata, niente diagnosi senza supervisione, niente chatbot camuffati da operatori umani. In compenso, l’AI può essere usata per ricercare giurisprudenza, smistare pratiche, gestire gli archivi. Le decisioni vere, quelle che contano, restano monopolio dell’homo sapiens. Una scelta che risuona come un atto di fede, più che come una strategia tecnologica.

Il principio cardine, infatti, è la “supervisione umana obbligatoria”. Tradotto per chi scrive codice e non regolamenti: ogni sistema AI dovrà avere un umano pronto a intervenire, capire, stoppare. Non basta che l’interfaccia abbia un tasto rosso con scritto “ferma tutto”, serve un supervisore con formazione adeguata, autonomia gerarchica e — dettaglio notevole — “percezione di autorità”. Come se bastasse l’atteggiamento per tenere sotto controllo una rete neurale autoregressiva da 70 miliardi di parametri.

Nel frattempo, le aziende dovranno organizzarsi. Devono nominare responsabili compliance, predisporre sistemi di tracciamento delle decisioni AI, integrare moduli di explainability e audit algoritmici, formare il personale e attrezzarsi per un monitoraggio continuo. Non una volta all’anno. Sempre. E sì, anche il pulsante di emergenza deve funzionare. Altrimenti, sanzioni fino a 35 milioni di euro o al 7% del fatturato globale. Per dare un’idea: più di quanto molte startup italiane abbiano mai fatturato nella loro intera esistenza.

Il DDL non è solo regole. C’è anche un fondo, gestito da CDP Venture Capital, con un miliardo di euro a disposizione. Mezzo miliardo andrà a un fondo AI/cybersecurity, l’altro mezzo a co-investimenti su settori strategici. Ma non fatevi illusioni: 300 milioni saranno concentrati su 1 o 2 “campioni nazionali”. In pratica, scommesse verticali su chi dimostra di poter diventare il “campione europeo” dell’AI. Il resto sarà diviso tra trasferimento tecnologico (120 milioni) e startup verticali (80 milioni). Tradotto: chi ha già potere, prenderà più potere. I piccoli? Buona fortuna col pitch deck.

Curiosamente, uno degli aspetti meno dibattuti è quello che potrebbe cambiare davvero il gioco: l’obbligo formativo diffuso. L’Osservatorio sull’AI nel lavoro (già attivo in beta) avrà il compito di garantire che chiunque utilizzi un sistema di intelligenza artificiale dal dipendente pubblico al tecnico del customer care riceva una formazione continua. Non solo etica, ma anche tecnica. Questo, se ben attuato, potrebbe essere il vero volano per la competitività del sistema Paese. Il problema, ovviamente, sarà la messa a terra. L’Italia non è famosa per i suoi programmi di formazione scalabili ed efficaci.

Sul piano europeo, le frizioni sono già visibili. La Commissione ha definito il DDL un esempio di “gold plating normativo”, cioè quando un Paese complica una direttiva UE con orpelli e obblighi aggiuntivi. Le critiche toccano punti sostanziali: definizioni divergenti, eccessiva burocratizzazione, frammentazione del mercato unico. In particolare, il modello duale di governance tra AgID e ACN viene visto con sospetto per la mancanza di indipendenza. A essere chiari: Bruxelles teme che l’Italia diventi un precedente scomodo.

Per le aziende di AI conversazionale, il futuro si annuncia tanto promettente quanto accidentato. I chatbot dovranno dichiararsi immediatamente come sistemi AI. Stop all’ambiguità, via i finti umani. Anche il contenuto generato dovrà essere marcato in modo evidente, con watermarking algoritmico. E non basterà aggiornare la privacy policy. Bisognerà dimostrare, in sede di audit, che l’utente è stato informato in modo chiaro e tempestivo.

Il vero nodo, però, sarà il costo della compliance. Studi recenti stimano un incremento del 15-30% nei costi operativi per le aziende AI, soprattutto nei settori regolamentati. Non tutte ce la faranno. Ma chi ci riuscirà, avrà un vantaggio competitivo: la certificazione “AI-compliant” diventerà un badge di qualità, un lasciapassare per contratti pubblici, partnership internazionali e mercati dove la fiducia vale più del pricing.

Il paradosso è servito. L’Italia, Paese che raramente si distingue per rapidità normativa, ha creato il framework AI più avanzato (e severo) d’Europa. Ma come ogni macchina troppo perfetta, rischia di non partire. La vera sfida non sarà scrivere altri articoli di legge, ma implementare quelli che già esistono. In un ecosistema dove le startup arrancano, i fondi si concentrano su pochi attori, le autorità si dividono le competenze e il mercato cambia più in fretta dei decreti attuativi, l’unico modo per sopravvivere è capire dove sta andando il vento e costruirci sopra una vela.

Per le aziende AI italiane, oggi non è tempo di aspettare. È tempo di agire. Prima che i concorrenti europei — meno regolati, più veloci, più capitalizzati trasformino la nostra leadership normativa in una zavorra commerciale. Perché una legge pionieristica è utile solo se non diventa un monumento alla nostra solitudine tecnologica.