Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: ai act

La Valutazione della Conformità dei Modelli di AI ai Requisiti dell’UE

COMPL-AI open-source compliance-centered evaluation framework for Generative AI models

Alcuni dei più noti modelli di intelligenza artificiale sviluppati dalle grandi aziende tecnologiche stanno mostrando carenze in termini di conformità con le normative dell’Unione Europea, specialmente in aree critiche come la resilienza alla cybersicurezza e la produzione di output discriminatori.

Questo nuovo framework, sviluppato dalla startup svizzera LatticeFlow AI in collaborazione con due istituti di ricerca, ETH Zurich e INSAIT (Bulgaria), rappresenta la prima interpretazione tecnica del regolamento europeo sull’intelligenza artificiale (EU AI Act). Il framework mappa i requisiti normativi in requisiti tecnici, fornendo così una guida pratica per l’implementazione.

Patto Europeo sull’Intelligenza Artificiale: Aziende Firmatarie e Non Firmatarie

Anche se il regolamento IA basato sul rischio del blocco (AI Act) è entrato in vigore il mese scorso, ci vorranno anni prima che tutte le scadenze di conformità siano operative. Questo crea un vuoto di non conformità che l’UE vuole colmare con l’AI Pact.

Il Patto Europeo sull’Intelligenza Artificiale, lanciato dalla Commissione Europea, ha visto la firma di oltre 100 aziende, tra cui nomi di spicco come OpenAIMicrosoftAmazonGoogle, e IBM. Queste aziende hanno aderito per sostenere impegni volontari volti a prepararsi per l’entrata in vigore dell’AI Act, la prima normativa giuridica al mondo che regola l’uso dell’intelligenza artificiale in base ai rischi associati.

Analisi e Confronto tra il “Memorandum sull’Acquisizione di AI” e l’AI Act Europeo

MEMORANDUM FOR THE HEADS OF EXECUTIVE DEPARTMENTS AND AGENCIES

Il Memorandum sull’Acquisizione di Intelligenza Artificiale (M-24-18) è stato redatto dall’Executive Office of the President degli Stati Uniti, in particolare dall’Office of Management and Budget (OMB). Questo ufficio ha il compito di fornire linee guida alle agenzie governative per l’acquisizione responsabile dell’IA nel settore pubblico, in linea con le politiche federali e l’Executive Order 14110.

Raccomandazioni del Parlamento Europeo: Sull’ IA di uso generale

Il Parlamento europeo ha recentemente raccomandato di ampliare la normativa sulla responsabilità per l’intelligenza artificiale (IA), includendo i prodotti di IA di uso generale. Questa iniziativa si inserisce nel contesto della crescente diffusione di sistemi di IA e della necessità di stabilire un quadro normativo chiaro e coerente per affrontare le sfide legate alla responsabilità civile.

Regolamento sull’Intelligenza Artificiale dell’UE

Il Regolamento sull’Intelligenza Artificiale dell’UE (AI Act) con entrata in vigore il 2 agosto 2025, rappresenta un passo significativo nella regolamentazione dell’IA a livello globale, stabilendo un quadro giuridico per l’uso e la fornitura di sistemi di IA nell’Unione Europea. Di seguito sono riportate informazioni chiave sul regolamento e i documenti correlati.

Informazioni Chiave sul Regolamento

  1. Classificazione dei Rischi: L’AI Act adotta un approccio basato sul rischio, classificando i sistemi di IA in quattro categorie:
    • Rischio Inaccettabile: Pratiche vietate, come la manipolazione subliminale.
    • Rischio Alto: Sistemi soggetti a requisiti rigorosi.
    • Rischio Limitato: Sistemi con obblighi di trasparenza.
    • Rischio Minimo: Sistemi che non richiedono ulteriori obblighi.
  2. Scadenze Importanti:
    • Entrata in vigore: Il Regolamento è stato firmato il 13 giugno 2024 e pubblicato nella Gazzetta Ufficiale dell’UE il 12 luglio 2024. Entrerà in vigore 20 giorni dopo la pubblicazione.
    • Applicazione completa: Diventerà pienamente applicabile due anni dopo la pubblicazione, con alcune eccezioni.
  3. Obblighi per i Fornitori: I fornitori di sistemi di IA ad alto rischio devono soddisfare requisiti specifici, come la valutazione di conformità e la documentazione tecnica.
  4. Ufficio dell’IA: È stato istituito un nuovo ufficio europeo per supervisionare l’applicazione del Regolamento.

Documenti e Risorse Utili

  • Testo Ufficiale del Regolamento: Puoi accedere al testo completo del Regolamento sull’Intelligenza Artificiale dell’UE qui .
  • Informazioni Dettagliate: Per ulteriori dettagli e documenti di sintesi, visita il sito della Commissione Europea qui .
  • Briefing del Parlamento Europeo: Una panoramica dettagliata del Regolamento è disponibile nel briefing del Parlamento Europeo qui .

Queste risorse forniscono un quadro completo delle nuove normative e delle loro implicazioni per l’uso dell’IA nell’Unione Europea.

Pubblicato il testo della Strategia italiana per l’Intelligenza Artificiale 2024-2026

A pochi giorni dalla pubblicazione dell’AI Act sulla Gazzetta Ufficiale dell’Unione Europea e dall’inizio delle audizioni in Commissione, presso il Senato della Repubblica, del disegno di legge sull’intelligenza artificiale, è stato reso disponibile online il documento integrale della Strategia Italiana per l’Intelligenza Artificiale 2024-2026.

Via libera definitivo all’AI Act: è la prima legge al mondo

Via libera definitivo all’unanimità del Consiglio Ue all’AI Act, la legge europea sull’Intelligenza Artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue.

La legge, la prima al mondo in materia detta una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati.

L’atto legislativo sarà pubblicato nella Gazzetta ufficiale dell’UE nei prossimi giorni ed entrerà in vigore venti giorni dopo questa pubblicazione, mentre il nuovo regolamento si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.

Le nuove regole saranno applicabili a due anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).

L’adozione della legge sull’intelligenza artificiale è una pietra miliare significativa per l’Unione europea. Questa legge storica, la prima del suo genere al mondo, affronta una sfida tecnologica globale che crea anche opportunità per le nostre società ed economie. Con la legge sull’AI, l’Europa sottolinea l’importanza della fiducia, della trasparenza e della responsabilità quando si ha a che fare con le nuove tecnologie, garantendo al contempo che questa tecnologia in rapida evoluzione possa prosperare e dare impulso all’innovazione europea.

Mathieu Michel, segretario di Stato belga per la digitalizzazione, la semplificazione amministrativa, la tutela della privacy e il regolamento edilizio

Il Consiglio ha dichiarato che la nuova legge sull’intelligenza artificiale adotta un approccio “basato sul rischio”.

Questo implica che, quanto maggiore è il rischio di danni alla società, tanto più severe saranno le regole. L’agenzia ha chiarito che la legge si applica solo in contesti regolati dal diritto dell’UE e include esenzioni per sistemi usati esclusivamente per scopi militari, di difesa o di ricerca.

Inoltre, il Consiglio ha stabilito che sistemi di intelligenza artificiale come la manipolazione cognitivo-comportamentale e il punteggio sociale saranno vietati nell’UE. La legge impedisce anche l’uso dell’IA per la polizia predittiva basata sulla profilazione e per i sistemi che classificano le persone in base a dati biometrici come razza, religione o orientamento sessuale.

I sistemi di IA a basso rischio avranno requisiti di trasparenza minimi, mentre quelli ad alto rischio saranno soggetti a regolamentazioni stringenti per poter accedere al mercato dell’UE. I modelli di IA per scopi generici, o GPAI, senza rischi sistemici, dovranno rispettare alcune regole limitate.

Le aziende che violeranno l’AI Act affronteranno sanzioni calcolate in percentuale sul fatturato globale annuo dell’anno precedente o in un importo predefinito, scegliendo il più alto. Le PMI e le start-up saranno soggette a sanzioni amministrative proporzionali.

In passato, l’UE ha sostenuto una posizione più severa sulla gestione dell’intelligenza artificiale, mentre il Giappone ha preferito un approccio più morbido, simile a quello degli Stati Uniti, per promuovere la crescita economica.

Nel mese di ottobre 2023, il presidente degli Stati Uniti Joe Biden ha emesso un ordine esecutivo per gestire i rischi legati all’intelligenza artificiale. Anche i paesi del sud-est asiatico hanno adottato un approccio favorevole alle imprese in materia di IA.

La Cina ha avviato un’iniziativa per regolamentare l’IA da diverse prospettive.

All’inizio di questo mese, funzionari di Stati Uniti e Cina si sarebbero dovuti incontrare a Ginevra per discutere della mitigazione dei rischi derivanti dall’intelligenza artificiale avanzata.

Per i documenti di approfondimento leggi il comunicato stampa del Consiglio d’Europa.

Mentre USA e CINA scrivono il futuro dell’AI, l’UE scrive le Regole

Uomo al centro o Macchina al Centro questo e’ il dilemma.

Siete familiari con le tre leggi della robotica delineate da Asimov?

Queste leggi, fondamentalmente, impediscono alla macchina, o al robot in questo caso, di nuocere all’uomo.

Ma perché sono state promulgate queste leggi?

Dopo l’AI Act: impatti e prospettive per l’Intelligenza Artificiale in Europa

Primo articolo di una serie di 4 che analizzeranno l’evoluzione normativa e l’ambiente dell’Intelligenza Artificiale in Europa.

Il 13 marzo 2024 il Parlamento Europeo ha approvato a larga maggioranza l’AI Act, l’impianto di norme chiamato a regolare e ad armonizzare la legislazione europea in materia di Intelligenza Artificiale. La normativa sarà poi votata con una votazione separata nella seduta plenaria di aprile per poi entrare in vigore dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue probabilmente nel mese di maggio.

In base all’AI Act, i sistemi di apprendimento automatico saranno suddivisi in quattro categorie principali in base al rischio potenziale che rappresentano per la società. I sistemi considerati ad alto rischio saranno soggetti a regole severe che si applicheranno prima del loro ingresso nel mercato dell’UE.

Ue, il Parlamento europeo approva l’AI Act

Via libera del Parlamento europeo all’AI Act, l’impianto di norme europee sull’Intelligenza Artificiale. L’approvazione è arrivata ad ampia maggioranza: i deputati hanno approvato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.

L’Ue è la prima al mondo a dotarsi di regole sull’Intelligenza artificiale, con un impianto normativo che stabilisce obblighi per l’AI sulla base dei possibili rischi e del livello d’impatto e che, in assenza di altre disposizioni di legge a livello internazionale – gli Stati Uniti sono al momento fermi all’Ordine esecutivo firmato dal presidente Biden sull’AI lo scorso mese di ottobre che si limita a delle raccomandazioni – potrebbe diventare il punto di riferimento per la legislazione in materia, almeno nel mondo occidentale.

Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di AI saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’AI” è quanto ha dichiarato il correlatore dell’AI Act Brando Benifei nel dibattito in plenaria sull’approvazione delle norme.

Abbiamo un testo che rispecchia moltissimo le priorità del Parlamento europeo” ha spiegato l’europarlamentare, soffermandosi in particolare sulla parte legata ai divieti, ulteriormente rafforzate nel negoziato, e su quella dedicata alla trasparenza e sicurezza dei modelli fondativi più potenti.

L’impianto della legge prevede in particolare il divieto di utilizzo dell’AI per una serie di attività, a partire dal divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici e sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire minacce terroristiche.

Sono poi espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali e una serie di altre pratiche ritenute appunto “a rischio” per i diritti dei cittadini.

L’AI Act diventerà legge dopo la firma degli Stati membri e dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue. A tale proposito, Markus Beyrer, direttore generale di Business Europe, l’associazione degli industriali europei, afferma che “la legge sull’IA mantiene giustamente un quadro di riferimento basato sul rischio e impedisce l’emergere di leggi nazionali divergenti. Tuttavia, la necessità di un’ampia legislazione secondaria e di linee guida solleva questioni significative sulla certezza del diritto e sull’interpretazione della legge nella pratica” avvisando altresì che c’è un altro tema fondamentale che l’Europa è ora chiamata a prendere in considerazione: quello dei capitali e degli investimenti per promuovere, sostenere e far crescere l’AI nel vecchio continente.

L’Europa deve non solo essere leader nella definizione delle regole, ma anche facilitare l’accesso ai capitali e ai finanziamenti per lo sviluppo dell’IA“, sottolinea su questo punto Beyrer, concludendo che “gran parte del lavoro reale per garantire il successo dello sviluppo dell’AI in Europa è solo all’inizio“.

Positivo il giudizio di Innocenzo Cipolletta, presidente dell’Associazione Italiana Editori (AIE) e di Confindustria Cultura Italia (CCI), secondo cui “è importante che siano previste regole chiare sulla trasparenza delle fonti utilizzate dai sistemi di Intelligenza Artificiale per addestrare gli algoritmi: la trasparenza è infatti il requisito per poter analizzare criticamente gli output dell’Intelligenza Artificiale e, per chi detiene i diritti, sapere quali opere sono utilizzate nello sviluppo di questi strumenti, se provengono da fonti legali e se l’uso è stato autorizzato”.

Favorevole a continuare a sostenere lo sviluppo di un’Intelligenza Artificiale responsabile anche Salvatore Nastasi, presidente Siae, secondo cui “l’approvazione dell’AI Act da parte del Parlamento Europeo, oltre a dotare l’Ue di una legge, la prima al mondo, che disciplina lo sviluppo e l’utilizzo di sistemi di AI anche nell’industria creativa, è la dimostrazione di quanto può essere efficace il nostro comparto quando si muove in maniera congiunta e unitaria” nell’ottica della massima trasparenza e della tutela degli autori ed editori.

Entusiasmi a parte va detto che l’approvazione dell’AI Act da parte del Parlamento UE è solo il primo passo: occorre non solo armonizzare le modalità con le quali i singoli Paesi europei accoglieranno il regolamento ma anche riuscire a tenere il passo con la rapidità di evoluzione della tecnologia e del cambiamento che l’adozione di questa necessariamente comporta.

News ore 12.15 Approvato l’ AI Act

I legislatori del parlamento dell’Unione Europea hanno approvato la prima legislazione al mondo per regolamentare l’intelligenza artificiale mentre il pianeta è alle prese con il modo in cui la tecnologia sta sconvolgendo ogni settore.

Accolgo con favore lo straordinario sostegno del Parlamento europeo al nostro #AIAct, le prime regole complete e vincolanti al mondo per un’intelligenza artificiale affidabile“, ha affermato Thierry Breton, commissario europeo per il mercato interno, in un post su X. “L’Europa è ora un punto di riferimento globale nel campo dell’intelligenza artificiale. Stiamo regolamentando il meno possibile, ma quanto necessario!

Accolgo con favore il voto di @Europarl_EN sull’AI Act“, ha scritto su X Ursula von der Leyen, presidente della Commissione europea. “Ciò andrà a beneficio del fantastico bacino di talenti dell’Europa“, ha aggiunto. “E stabilire un modello per un’intelligenza artificiale affidabile in tutto il mondo“.

Cinquecentoventitré legislatori hanno votato a favore dell’AI Act, mentre 46 erano contrari e 49 non hanno votato. A dicembre è stato raggiunto un accordo preliminare tra il Parlamento europeo e i paesi membri.

Una giornata definita storica da Brando Benifei, capodelegazione Pd del Parlamento Europeo e co-relatore dell’AI Act.

Il mese scorso due gruppi di legislatori al Parlamento europeo hanno approvato provvisoriamente un accordo sulle norme sull’intelligenza artificiale.

La legislazione arriva mentre le aziende sono alle prese con questioni delicate legate all’intelligenza artificiale.

Google sta lavorando per sistemare il suo strumento di Intelligenza Artificiale Gemini dopo che alcune risposte di testo e immagini generate dal modello sono state considerate “distorte” e “completamente inaccettabili”, ne abbiamo scritto giorni fa. In particolare, Google impedirà al chatbot Gemini di rispondere a domande sulle elezioni globali previste per quest’anno. La decisione arriva per evitare potenziali disinformazioni e fake news, in un momento in cui la tecnologia di intelligenza artificiale generativa desta preoccupazioni.

Il filtro è già attivo in queste ore, anche in Italia. Nel momento in cui viene interpellato in merito a questioni riguardanti le elezioni, Gemini rifiuta di rispondere, spesso con la formula: “Sto ancora imparando come rispondere a questa domanda. Nel frattempo, prova a usare la Ricerca Google”.

Shane Jones dipendente Microsoft nel ruolo di AI Engineering Leader eha deciso di esporsi con una lettera inviata al board della propria società, così come all’autorità americana per la tutela dei consumatori e della concorrenza (la Federal Trade Commission – Ftc): “Pubblico queste lettere qui perché credo nei principali sostenitori dell’approccio globale di Microsoft alla lotta ai contenuti abusivi generati dall’intelligenza artificiale”, aggiunge come sia necessaria una solida collaborazione tra l’industria, i governi e la società civile e come sia molto importante sensibilizzare l’opinione pubblica sui rischi e sui benefici dell’IA facendo riferimento a AI CoPilot Designer.

Microsoft ha iniziato a bloccare alcune parole chiave di Copilot nel tentativo di arginare la produzione di alcuni tipi di immagini. Tuttavia, Windows Central, un sito Web focalizzato su Microsoft, ha affermato che lo strumento può ancora essere indotto con l’inganno a creare immagini violente e sessuali che ha dimostrato di poter creare immagini molto disturbanti come per esempio demoni e mostri se si associano parole legate all’aborto, ma anche minori che imbracciano armi o assumono droghe, ma anche personaggi femminili in pose sessualizzate e di violenza.

Regole e rischi dell’Intelligenza Artificiale: ratificato in Commissione il progetto di legge EU AI Act

Questa mattina, le Commissioni per le libertà civili (LIBE) e il mercato interno (IMCO) del Parlamento Europeo hanno votato a favore del progetto di legge che definisce un quadro basato sul rischio per regolare le applicazioni dell’Intelligenza Artificiale, noto come EU AI Act.

Nella votazione di questa mattina le Commissioni hanno votato con 71 voti favorevoli, 8 contrari e 7 astensioni a favore del compromesso negoziato con gli Stati membri dell’UE a dicembre 2023.  

L’EU AI Act, che stabilisce regole per gli sviluppatori di IA in base alla potenza dei loro modelli e allo scopo per il quale intendono applicare i sistemi di AI, comprende un elenco di usi vietati dell’Intelligenza Artificiale e regole per usi ad alto rischio come istruzione, sanità, lavoro oltre ad imporre requisiti di trasparenza e a definire regole chiare per l’utilizzo di strumenti come deepfake e chatbot basati sull’AI.

Questo importante passo verso la regolamentazione dell’AI in Europa mira a garantire che la tecnologia rispetti i diritti fondamentali e promuova l’innovazione, posizionando il vecchio continente come leader nel settore.

D’altra parte, la legislazione europea è vista come un punto di riferimento globale e si concentra sulla protezione dei diritti fondamentali, sulla promozione dell’innovazione e sulla gestione dei rischi associati all’utilizzo dell’AI. Una volta adottata, la legge avrà un impatto significativo su diversi settori, inclusi banche, automobili, prodotti elettronici, compagnie aeree, sicurezza e polizia, contribuendo a mitigare rischi come la disinformazione, la discriminazione e l’utilizzo non concordato e trasparente dei dati personali dei cittadini europei con algoritmi di profilazione e scoring sociale.

Il prossimo passaggio, come commentato da Eva Maydell, eurodeputata membro della Commissione per l’industria, la ricerca e l’energia, è il voto in plenaria da parte del Parlamento UE, dove ai deputati verrà chiesto di adottarlo formalmente, prima dell’approvazione finale da parte del Consiglio.

AI Act: via libera dai Paesi UE alla regolamentazione dell’Intelligenza Artificiale

Il Comitato dei rappresentanti permanenti (Coreper) degli Stati membri del Consiglio dell’Unione Europea ha dato il via libera all’unanimità all’AI Act, il pacchetto di norme, proposte dalla Commissione europea che mirano a regolamentare l’utilizzo di questa tecnologia.

I prossimi passaggi prevedono il voto in sede di commissione legislativa UE il prossimo 13 febbraio per poi arrivare al voto del Parlamento Europeo, fissato per il 24 aprile.

L’entrata in vigore delle nuove norme sarà a scaglioni. I primi divieti scatteranno dopo 6 mesi e riguarderanno gli utilizzi non autorizzati. Poi, entro 1 anno, toccherà ai modelli fondativi, che prevedono per le AI ad alto impatto (parliamo di sistemi con potere di calcolo pari a 10^25 FLOPs come GPT-4 di OpenAI) la trasparenza dei processi di addestramento, la condivisione della documentazione tecnica prima del rilascio sul mercato e di conseguenza l’adozione di tutte le regole in tema di sicurezza dei dati e gestione della privacy. A seguire poi le altre disposizioni che entreranno in vigore dopo 2 anni.

Commissione Europea: pacchetto di sostegno a startup e Pmi nell’AI. Dall’EU AI Act a GenAI4EU

La Commissione Europea ha lanciato un pacchetto di misure per sostenere le startup e le Pmi europee nello sviluppo di un’Intelligenza Artificiale affidabile che rispetti i valori e le regole dell’UE. Tutto ciò a seguito dell’accordo politico raggiunto nel dicembre 2023 sull’EU AI Act – la prima legge globale al mondo sull’intelligenza artificiale – che sosterrà lo sviluppo, la diffusione e l’adozione di un’Intelligenza Artificiale affidabile nell’Unione Europea.

L’annuncio è stato dato dalla Presidente Ursula von der Leyen nel suo discorso sullo stato dell’Unione del 2023, nel quale ha presentato l’iniziativa per mettere i supercomputer europei a disposizione delle startup innovative europee che si occupano di Intelligenza Artificiale per addestrare i loro modelli in modo affidabile.

Come primo passo, nel novembre 2023 la Commissione ha lanciato la Large AI Grand Challenge, un premio che offre alle startup nel settore dell’AI sostegno finanziario e accesso ai supercalcoli.

Il pacchetto appena annunciato mette in pratica questo impegno attraverso un’ampia gamma di misure a sostegno delle startup e dell’innovazione nel campo dell’Intelligenza Artificiale, inclusa una proposta per fornire un accesso privilegiato ai supercomputer alle startup e alla più ampia comunità dell’innovazione.

L’obiettivo è quello di istituire delle AI Factories, che dovrebbero essere un nuovo pilastro per le attività dell’impresa comune sui supercomputer dell’UE attraverso l’acquisizione, l’aggiornamento e il funzionamento di supercomputer dedicati all’Intelligenza Artificiale per consentire l’apprendimento automatico rapido e l’addestramento di grandi modelli per scopi generali (GPAI), facilitando l’accesso ai supercomputer a un gran numero di utenti pubblici e privati, comprese startup e Pmi. All’interno di questo sistema è prevista anche la realizzazione di uno sportello unico per startup e innovatori, supportando le startup e l’ecosistema di ricerca sull’AI nello sviluppo algoritmico, testando la valutazione e la convalida di modelli su larga scala, fornendo strutture di programmazione compatibili con i supercomputer e altri servizi di abilitazione dell’Intelligenza Artificiale.

L’istituzione di un ufficio sull’AI all’interno della Commissione servirà poi a garantire lo sviluppo e il coordinamento della politica sul tema a livello europeo, oltre a supervisionare l’attuazione e l’applicazione dell’EU AI Act.

Secondo le previsioni il pacchetto genererà un ulteriore investimento pubblico e privato complessivo pari a circa 4 miliardi di euro fino al 2027 e viene annunciata di pari passo l’iniziativa GenAI4EU per sostenere lo sviluppo verticale dell’Intelligenza Artificiale nei differenti ecosistemi industriali europei (robotica, salute, biotecnologia, produzione, mobilità, clima e mondi virtuali) e nel settore pubblico.

Protetto: White Paper Guida degli Aspetti Legali dell’Intelligenza Artificiale

Il contenuto è protetto da password. Per visualizzarlo inserisci di seguito la password:

L’Intelligenza Artificiale tra normativa (EU) e sviluppo (US)

Promuovere anzitutto lo sviluppo dell’Intelligenza Artificiale come sta accadendo negli Stati Uniti o preoccuparsi prima di tutto di normare la materia, i cui tassi di sviluppo e le nuove capacità stanno emergendo più velocemente di quanto i legislatori saranno comunque in grado di affrontare, come sta facendo l’Europa?

Ne parla Stefano Epifani, presidente della Fondazione per la Sostenibilità Digitale, con Enrico Pulcini di RAI GR Parlamento.

Per un tema delicato come quello dell’AI il limite tra normare e bloccare è sottile, e si colloca nella paura di ciò che non si conosce.

Un limite che non dobbiamo superare ma che, per non essere superato, richiede da una parte una profonda conoscenza delle dinamiche che sottendono la tecnologia, e dall’altra la capacità di declinarne gli impatti economici e sociali in ottica di sostenibilità.

L’AI Act non è che la mossa di apertura di una partita a scacchi che, senza una strategia, sarà impossibile vincere.

Stefano EPIFANI, Presidente FONdazione per la Sostenibilità digitale

Intesa UE sulle regole per l’Intelligenza Artificiale

Dopo un negoziato fiume durato oltre 36 ore i politici e i legislatori dell’Unione europea hanno raggiunto venerdì un accordo sul primo insieme completo di norme al mondo che regolano l’uso dell’Intelligenza Artificiale.

Nelle prossime settimane verranno elaborati i dettagli di quello che di fatto può essere definito un accordo politico, che dovrà poi passare dall’approvazione finale degli Stati membri oltre che dal Parlamento europeo.

I punti chiave su cui si è arrivati ad un accordo riguardano principalmente i cosidetti sistemi ad alto rischio, quelli che si ritiene possano avere una significativa potenzialità potenziale di nuocere alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia, alle elezioni e allo Stato di diritto. Questi sistemi, in particolare, dovranno rispettare una serie di requisiti e sono previsti una serie di obblighi nei confronti dei fornitori e dei sviluppatori di sistemi di IA a seconda dei livelli di rischio identificati.

I sistemi di intelligenza artificiale che si ritiene presentino rischi limitati sarebbero soggetti a obblighi di trasparenza molto leggeri, come etichette informative che dichiarino che il contenuto è stato generato dall’intelligenza artificiale per consentire agli utenti di decidere come utilizzarlo.

Uno dei capitoli più importanti, su cui il negoziato si è incagliato per ore, è quello delle pratiche di AI vietate perché potenzialmente in grado di minare i diritti fondamentali, come il divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici.

L’uso di sistemi di identificazione biometrica remota in tempo reale negli spazi pubblici da parte delle forze dell’ordine sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire una minaccia terroristica specifica e attuale. Sarà inoltre autorizzato per rintracciare persone sospettate di reati di terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale e crimini ambientali.

Tra i punti controversi, anche quello sui modelli di fondazione come GPT-4, alla base di ChatGPT. L’accordo prevede obblighi più stringenti per i modelli ad alto impatto con rischio sistemico che saranno soggetti a requisiti di trasparenza come la stesura di documentazione tecnica, il rispetto della normativa UE sul copyright e la diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione degli algoritmi.

Sono invece espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali (come invece avviene in Cina); i sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio e, più in generale, tutte quelle applicazioni dell’AI volte a sfruttare le vulnerabilità delle persone a causa della loro età, disabilità, situazione sociale o economica.

L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale“, ha scritto su X il commissario per il mercato interno Thierry Breton, secondo cui l’AI Actè molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell’UE per guidare la corsa globale all’intelligenza artificiale”.

Dello stesso tono anche il commento di uno dei correlatori della legge sull’Intelligenza Artificiale, il deputato Dragoș Tudorache: “Siamo i primi al mondo a mettere in atto una vera regolamentazione per il futuro mondo digitale guidato dall’intelligenza artificiale, guidando lo sviluppo e evoluzione di questa tecnologia in una direzione incentrata sull’uomo.

Tuttavia non mancano reazioni critiche come quella del deputato del Ppe Axel Voss che si è detto “non convintoche questo sia il modo giusto per garantire che l’Europa rimanga competitiva nell’IA. L’innovazione si farà comunque altrove“.

E il punto forse è proprio questo. L’Europa ha sicuramente vinto la gara per legiferare in materia di Intelligenza Artificiale, ma l’innovazione su questo campo si sta facendo altrove, negli Stati Uniti e in Cina. Bene guardare ad uno sviluppo responsabile dell’Intelligenza Artificiale che, come tutte le tecnologie va prima o poi regolamentata. Ma occorre anche che non si mettano troppi vincoli alle aziende europee che già sono destinate a rincorrere, perché il Vecchio Continente su questo tema non è competitivo. Non si parla poi di investimenti, di una cornice unica europea in grado di favorire la ricerca e lo sviluppo in questo ambito, con finanziamenti e interventi nel capitale di rischio di start up e piccole imprese. Perché altrimenti, ancora una volta, l’Europa rischia di perdere il treno dell’innovazione, così come è già stato per Internet e per i Social.

AI Act: l’UE verso la regolamentazione dell’Intelligenza Artificiale

L’Intelligenza Artificiale (AI) sta trasformando il nostro mondo con una velocità ed una modalità senza precedenti. Questo crescente utilizzo dell’AI ha tuttavia sollevato preoccupazioni riguardo al suo impatto sui diritti e sulle libertà fondamentali, al punto da spingere l’Unione Europea (UE) a compiere un passo significativo per la sua regolamentazione, con l’adozione, lo scorso 14 giugno, dell’Artificial Intelligence Act.

L’AI Act approvato dal Parlamento europeo, punta a trasformare l’Europa in un hub globale per sistemi di Intelligenza Artificiale affidabili, stabilendo norme armonizzate che disciplinino lo sviluppo, la commercializzazione e l’uso di questa tecnologia nell’UE. 

La legge sull’Intelligenza Artificiale mira a garantire che i sistemi di intelligenza artificiale nell’UE siano sicuri e rispettino i diritti e i valori fondamentali, ponendo nuove restrizioni su quelli che sono considerati gli usi più rischiosi della tecnologia, prevedendo ad esempio lo stop all’uso del software di riconoscimento facciale in tempo reale.

Il disegno di legge europeo adotta un approccio basato sul rischio per regolamentare l’IA, concentrandosi sulle applicazioni con il maggior potenziale di danno. Ciò includerebbe i casi in cui i sistemi di intelligenza artificiale vengono utilizzati per gestire infrastrutture critiche come l’acqua o l’energia, nel sistema legale e nel determinare l’accesso ai servizi pubblici e ai benefit governativi, prevedendo che i produttori di tecnologia dovrebbero condurre valutazioni dei rischi prima di metterla nell’uso quotidiano, in modo simile al processo di approvazione dei farmaci.

Una delle principali aree di dibattito è, come già detto, l’uso dei software di riconoscimento facciale. Il Parlamento europeo ha votato per vietare l’uso del riconoscimento facciale dal vivo, ma rimangono dubbi sull’opportunità di consentire esenzioni per la sicurezza nazionale e altri scopi di applicazione della legge.

Un’altra disposizione vieterebbe alle aziende di raccogliere dati biometrici dai social media per creare database, una pratica che ha attirato l’attenzione dopo che la società di riconoscimento facciale Clearview AI  l’ha utilizzata.

Dopo il voto del giugno scorso, la versione finale della legge sarà negoziata dai rappresentanti dei tre rami dell’Unione europea: Parlamento europeo, Commissione europea e Consiglio dell’Unione europea. L’obiettivo comune è quello di raggiungere un accordo definitivo entro la fine dell’anno.

Vedremo quali saranno gli sviluppi anche se l’Unione europea, nell’interesse di tutti gli Stati membri, dovrebbe evitare normative eccessivamente ampie che inibiscano l’innovazione. Non è per nulla chiaro tra l’altro quanto possa essere efficace qualsiasi regolamentazione dell’intelligenza artificiale considerato che, come sempre succede con la tecnologia, le innovazioni della stessa stanno emergendo più velocemente di quanto i legislatori (non solo europei ma di qualsiasi Paese) siano in grado di affrontarle.

In ogni caso se anche l’UE avrà le capacità di diventare leader nella regolamentazione dell’intelligenza artificiale, difficilmente sarà in grado di guidare l’innovazione dell’intelligenza artificiale nella quale la partita è a due, tra gli Stati Uniti, attuale leader indiscusso nello sviluppo dell’IA e la Cina, con il Governo di Pechino che sta investendo pesantemente nella ricerca e nello sviluppo dell’IA.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie