L’AI Act recentemente approvato dal Parlamento europeo prevede, tra le altre cose, che i singoli Paesi europei abbiano a disposizione 12 mesi di tempo per nominare le Autorità nazionali competenti che dovranno supervisionare l’applicazione del pacchetto di norme con il supporto dall’ufficio AI della Commissione europea.

Nei giorni scorsi il Sottosegretario all’Innovazione Alessio Butti, aveva anticipato che la funzione di vigilanza e controllo dell’Intelligenza Artificiale in Italia sarebbe andato all’AgID e per le competenze che riguardano la cybersecurity all’ACN: “la scelta è di affidare ad Agenzia per l’Italia digitale e Agenzia per la cybersicurezza nazionale i compiti di vigilanza e controllo sull’intelligenza artificiale: rispecchia una visione strategica incentrata sull’efficacia e l’efficienza nella governance dell’AI” le parole del sottosegretario, che prosegue “queste agenzie, con il loro focus specifico sul digitale e sulla cybersicurezza, offrono competenze tecniche e operazionali complementari e altamente specializzate, essenziali per affrontare le sfide poste dall’Ia in ambito di cittadinanza, industria, sicurezza, protezione dei dati e su tutto la difesa e l’interesse nazionale”.

Un’indicazione che non è piaciuta affatto al Garante per la protezione dei dati personali che, tramite il presidente dell’autority, Pasquale Stanzione, in una nota ai presidenti di Senato e Camera e al presidente del Consiglio avoca a se tale ruolo affermando che il Garante “possiede i requisiti di competenza e indipendenza necessari per attuare il regolamento europeo sull’intelligenza artificiale coerentemente con l’obiettivo di un livello elevato di tutela dei diritti fondamentali“.

La recente approvazione dell’AI Act da parte del Parlamento europeo, ha spiegato il Presidente dell’Authority, “impone agli Stati membri alcune scelte essenziali sulle norme di adeguamento degli ordinamenti interni“. La forte incidenza dell’AI sui diritti fondamentali “rende necessario attribuirne la competenza ad Autorità caratterizzate da requisiti d’indipendenza stringenti, come le Authority per la privacy, anche in ragione della stretta interrelazione tra intelligenza artificiale e protezione dati e della competenza già acquisita in materia di processo decisionale automatizzato“.

L’AI Act infatti, ricorda il Garante, “si fonda sull’articolo 16 del Trattato sul funzionamento dell’Unione europea, che è la base giuridica della normativa di protezione dei dati, e lo stesso Regolamento sull’intelligenza artificiale prevede il controllo delle Autorità di protezione dei dati personali su processi algoritmici che utilizzino dati personali. La sinergia tra le due discipline e la loro applicazione da parte di un’unica Autorità è quindi determinante per l’effettività dei diritti e delle garanzie sanciti“.

Detto questo, la domanda è chi si assicurerà che in Italia vengano rispettate le norme sull’Intelligenza artificiale? Non c’è il rischio di un conflitto di competenze?