Targeted stakeholder consultation on classification of AI systems as high-risk

All’inizio sembrava un’utopia normativa, quasi un esercizio di stile per giuristi in cerca di protagonismo. L’Artificial Intelligence Act è entrato in vigore (1° agosto 2024) e – sorpresa – l’Unione Europea fa sul serio. Ma come spesso accade a Bruxelles, quando si cerca di normare il futuro con l’ossessione del rischio, si rischia di amputare l’innovazione con il bisturi della burocrazia. E in questa nuova fase, quella della consultazione mirata sui sistemi di IA ad alto rischio, il destino tecnologico europeo si gioca in un equilibrio perverso tra tutela e paralisi.

Il punto non è più “se” l’AI Act verrà applicato, ma “come”. E questo “come” è la parte più critica, pericolosa e sottovalutata dell’intera faccenda.

Il cuore della consultazione riguarda la classificazione dei sistemi di intelligenza artificiale ad alto rischio: una categoria che il regolamento europeo tratta come se fosse un campo minato digitale. Un sistema AI rientra in questa categoria quando incide significativamente sui diritti fondamentali o sulla sicurezza delle persone. Tradotto: tutto ciò che tocca lavoro, istruzione, sanità, giustizia, infrastrutture critiche o gestione pubblica è potenzialmente un soggetto sospetto.

Ma la definizione resta – volutamente? – ambigua. La Commissione ha già pubblicato un elenco dettagliato (e in continua espansione) di usi considerati “high-risk”, ma ora cerca input da parte di stakeholder, provider, deployer, esperti indipendenti, società civile e autorità pubbliche. Sembra un atto democratico. In realtà, è una chiamata alle armi per chi ancora crede che l’intelligenza artificiale in Europa non debba passare attraverso un’agonia regolatoria.

Nel dettaglio, il regolamento richiede che i sistemi AI ad alto rischio rispettino una lunga serie di obblighi: governance dei dati, documentazione tecnica, registrazione in un database europeo, trasparenza algoritmica, tracciabilità dei processi decisionali, e – come se non bastasse – supervisione umana significativa. Peccato che molti dei criteri siano, ad oggi, tanto generici quanto soggetti a interpretazione politica.

Ecco allora il cortocircuito: l’Unione pretende di normare l’imponderabile, dando l’illusione di una supervisione razionale sull’intelligenza artificiale, ma senza strumenti concreti per differenziare un algoritmo predittivo banale da un motore decisionale critico.

Nel frattempo, gli sviluppatori sono chiamati a giocare alla roulette russa della classificazione. Basta un’errata interpretazione per finire nel girone burocratico dell’“alto rischio”, con costi di conformità devastanti, certificazioni complesse e tempi di rilascio che uccidono ogni vantaggio competitivo. In altre parole: se sbagli, ti auto-saboti.

Il paradosso è che la vera minaccia non è l’intelligenza artificiale fuori controllo, ma la perdita di sovranità tecnologica causata da una regolamentazione mal calibrata. Già oggi, molti provider extra-europei (leggasi: statunitensi e cinesi) osservano il dibattito con sorrisetti compiaciuti, sapendo che i competitor locali dovranno passare da un inferno normativo prima di rilasciare sul mercato un prodotto. È la “regulatory asymmetry”, bellezza.

Si dirà che la protezione dei diritti fondamentali non ha prezzo. Ma in un contesto globale, dove l’AI è anche arma strategica, motore di produttività e catalizzatore di potere economico, la scelta di costruire un castello normativo perfetto rischia di trasformare l’Europa nella Disneyland dell’etica digitale. Tutto molto umano. Ma sempre più irrilevante.

Eppure, il dialogo aperto dalla Commissione potrebbe essere una chance. Perché chi oggi risponde alla consultazione ha in mano un pezzo del futuro europeo. Non basta lamentarsi domani, se oggi non si entra nel merito. Le aziende devono far sentire la propria voce, smontando punto per punto le ambiguità del regolamento, fornendo casistiche concrete, evidenziando incoerenze e – soprattutto – dimostrando che si può costruire un’AI affidabile e trasparente senza strangolare l’innovazione con la burocrazia.

Il rischio più alto? Che alla fine della consultazione resti tutto invariato. Un documento finale in legalese ovattato, dove le categorie ad alto rischio saranno così estese da includere qualunque sistema degno di essere chiamato intelligente. E così, per proteggere i cittadini europei da rischi presunti, finiremo per escluderli dal futuro reale.

Un paradosso degno di Kafka, in versione machine learning. E se oggi vi sembra solo una distopia regolamentare, ripassate la storia delle norme REACH: volevano tutelare i consumatori, hanno distrutto interi settori chimici europei. Oggi l’AI rischia lo stesso destino.

📅 Aperta dal 6 giugno al 18 luglio 2025
Solo in inglese. Inclusività linguistica? Parliamone nel prossimo regolamento, magari con un LLM traduttore incorporato.

📌 Ecco il link per partecipare 👉
🔗 https://ec.europa.eu/eusurvey/runner/AIhighrisk2025

Cinque sezioni dense come un audit ISO, in cui si parla di tutto:
dalla definizione fumosa di “componente di sicurezza”
alla distinzione tra sistemi ad alto rischio e pratiche proibite
fino agli obblighi che gravano su provider, deployer e chiunque osi mettere mano alla filiera dell’AI

Per chi lavora nel settore — CTO, founder, integratori, AI-ethics nerd — è il momento di farsi sentire. Non per sport, ma per evitare che la prossima versione del regolamento sia scritta da chi non ha mai debuggato una riga di codice.

📉 Il rischio? Un’AI Act che parla di innovazione ma si legge come un manuale di compliance invecchiato male. L’AI non è “alta” o “bassa” in astratto. Serve contesto, serve logica, serve il campo. E serve la voce di chi costruisce davvero l’intelligenza artificiale europea — quella che funziona, e quella che non finisce in un whitepaper.

“L’algoritmo non è il problema. È il legislatore senza debugging che ci fa paura.”

Fatevi avanti. Oppure non lamentatevi del risultato.