È raro che un organo amministrativo dia una scossa vera al dibattito giuridico sull’intelligenza artificiale. La sentenza del Consiglio di Stato pubblicata il 6 giugno 2025 rappresenta una pietra miliare di questa rivoluzione che piaccia o no sta riscrivendo le regole del gioco. Un passaggio cruciale viene dalla riaffermazione, quasi mantra, che l’uso di sistemi automatizzati da parte degli enti pubblici deve convivere senza sconti con la tutela dei diritti fondamentali dei cittadini. Tradotto: sì alle automazioni, no al sopruso algoritmico.
Quel che colpisce, e dovrebbe far riflettere chiunque abbia a che fare con la governance dell’AI, è l’insistenza del Collegio su principi non negoziabili come la conoscibilità e la comprensibilità delle decisioni algoritmiche. Non basta mettere un algoritmo a lavorare dietro a una scrivania, bisogna poter capire come e perché prende determinate decisioni, senza lasciare l’utente a brancolare nel buio digitale. L’algoritmo non deve essere un oracolo sacro, unico arbitro di scelte con impatto reale sulle vite delle persone. Questo suona come una risposta diretta alle derive opache e arbitrarie che tanto si temono nel campo dell’AI.
Non è una sorpresa che nella sentenza si ribadisca la non discriminazione algoritmica, un tema che è diventato quasi un tormentone giuridico, ma che nella pratica è ancora un campo minato da errori, bias nascosti e mancanza di trasparenza. La decisione sembra voler imporre una linea dura, quasi un monito: l’AI deve rispettare la parità di trattamento, punto e basta.
Alla luce dell’AI Act europeo, questa pronuncia sembra un segnale chiaro: la regolamentazione è una strada ancora lunga e impervia, ma il cuore della questione non è negoziabile. Bisogna tradurre quei principi sacri in procedure operative, standard concreti, verifiche continue. Il rischio è che, senza una concreta implementazione, l’AI resti solo una chimera legale senza impatto reale sui diritti degli utenti.
Uno dei campi più delicati, dove la sfida sarà più aspra, riguarda l’estensione dei sistemi “intelligenti” a settori come la sanità, la ricerca scientifica e quella farmacologica. Qui si innestano questioni di etica, sicurezza, privacy e responsabilità che richiedono un equilibrio difficilissimo tra innovazione e tutela. I riferimenti alle riforme come l’EDS, il Fascicolo Sanitario Elettronico 2.0 e l’European Health Data Space mostrano quanto la complessità di questa materia sia ormai un nodo cruciale nelle politiche pubbliche europee.
I giuristi che si sono cimentati in questo commento riconoscono come la sentenza del Consiglio di Stato imponga una sfida non solo tecnica, ma profondamente culturale. Non si tratta più di accettare passivamente il progresso tecnologico, ma di governarlo attivamente, mettendo al centro le persone, i loro diritti, e la trasparenza. Un compito che chiunque lavori con l’AI dovrà affrontare con rigore e, perché no, con una sana dose di scetticismo verso i facili entusiasmi.
Curioso pensare come, nel giro di pochi anni, il confine tra diritto e tecnologia diventi non solo più labile, ma imprescindibile. Siamo a un punto in cui il futuro giuridico dell’intelligenza artificiale non si gioca più nei laboratori o nei codici software, ma nelle aule dei tribunali e nei documenti normativi che sapranno tradurre valori in regole operative. Difficile, affascinante e necessario.
Chi pensava che l’AI potesse fare a meno del diritto o viceversa dovrà ricredersi. Qui non si tratta di scegliere, ma di integrare con intelligenza parola giusta una dimensione nell’altra, per non trasformare la tecnologia in un nuovo Leviatano senza volto e senza coscienza.