Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: ai italia

Italia: arriva la bozza del disegno di legge sull’Intelligenza Artificiale

Annunciato per la fine di marzo, arriva finalmente la bozza del disegno di legge sull’Intelligenza Artificiale promessa dal Governo italiano che “reca principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale”, “promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità” e “garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale”.

Il disegno di legge è composto da 25 articoli, divisi in cinque capitoli: stabilisce la creazione di una fondazione, introduce un “tag” anti-deep fake per certificare il falso e un’aggravante per l’AI nel codice penale, fissa i fondi dedicati alla causa (150 milioni) e prevede un controllo a due dell’Agenzia per l’Italia digitale e dell’Agenzia per la cybersicurezza nazionale.

All’art.17 del testo si legge che la “strategia nazionale per l’intelligenza artificiale è predisposta e aggiornata dalla struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale ed è approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione digitale (Citd)”.

L’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di Intelligenza Artificiale sono stabilite in capo all’Agenzia per l’Italia digitale (AgID) e all’Agenzia per la cybersicurezza nazionale (ACN) definite “Autorità nazionali per l’Intelligenza Artificiale”.

Nello specifico, l’Agenzia per l’Italia digitale (AgID) “è responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale” e “provvede altresì a definire le procedure e ad esercitare le funzioni e i compiti in materia di valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell’Unione europea”.

L’Agenzia per la cybersicurezza nazionale (ACN), invece, “ai fini di assicurare la tutela della cybersicurezza nazionale, è responsabile per la vigilanza, ivi incluse le attività ispettive e sanzionatorie, dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell’Unione europea. L’ ACN è, altresì, responsabile per la promozione e lo sviluppo dell’intelligenza artificiale relativamente ai profili di cybersicurezza”.

Nel ddl è anche prevista l’istituzione di una Fondazione per la ricerca, la sperimentazione, lo sviluppo e l’adozione di sistemi di intelligenza artificiale.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

CDP Venture Capital: 1 miliardo di euro per sviluppare l’Intelligenza Artificiale in Italia

Focus su Intelligenza Artificiale e Cybersecurity, con investimenti complessivi di 8 miliardi di euro, di cui 1 dedicato all’AI, per supportare lo sviluppo dell’economia e dell’innovazione italiana: queste le principali novità del Piano Industriale 2024-2028 di CDP Venture Capital appena presentato a Milano dalla Presidente Anna Lambiase e dall’Amministratore Delegato e Direttore Generale Agostino Scornajenchi.

Il focus è concentrato su 7 settori industriali ritenuti strategici per il futuro del Paese:

  1. Industry Tech;
  2. Infra Tech & Mobility;
  3. Agrifood Tech;
  4. Clean Tech;
  5. Aerospazio;
  6. Lifescience;
  7. Intelligenza Artificiale.

All’Intelligenza Artificiale, come aveva anticipato lo scorso mese di marzo la Presidente del Consiglio Giorgia Meloni, sono dedicate risorse per 1 miliardo di euro su 3 ambiti specifici:

  • 120 milioni di euro dedicati al trasferimento tecnologico, anello di congiunzione tra ricerca universitaria e mercato;
  • 580 milioni di euro di investimenti in startup con applicazioni settoriali per rafforzare gli attori già esistenti;
  • 300 milioni di euro di investimenti in aziende mature pronte a scalare all’estero e diventare i futuri campioni nazionali.

In merito a quest’ultimo punto Agostino Scornajenchi, amministratore delegato di Cdp Venture Capital ha commentato “abbiamo un silver bullet da 300 milioni di euro per una, due o tre operazioni di concentrazione. Dobbiamo supportare il nostro sistema in modo tale che faccia nascere un campione nazionale dell’Intelligenza Artificiale, dobbiamo fare massa critica su questo ambito e questa fase specifica di investimento sul nostro comparto large venture sarà dedicata a questo“.

Adesso il tema vero è il seguente: 1 miliardo di euro come investimento Paese è sufficiente per far si che l’Italia possa giocare un ruolo significativo nel panorama dell’Intelligenza Artificiale?

Nomina delle Autorità nazionali per l’AI in Italia: il ruolo conteso tra Garante per la Privacy e AgID

L’AI Act recentemente approvato dal Parlamento europeo prevede, tra le altre cose, che i singoli Paesi europei abbiano a disposizione 12 mesi di tempo per nominare le Autorità nazionali competenti che dovranno supervisionare l’applicazione del pacchetto di norme con il supporto dall’ufficio AI della Commissione europea.

Nei giorni scorsi il Sottosegretario all’Innovazione Alessio Butti, aveva anticipato che la funzione di vigilanza e controllo dell’Intelligenza Artificiale in Italia sarebbe andato all’AgID e per le competenze che riguardano la cybersecurity all’ACN: “la scelta è di affidare ad Agenzia per l’Italia digitale e Agenzia per la cybersicurezza nazionale i compiti di vigilanza e controllo sull’intelligenza artificiale: rispecchia una visione strategica incentrata sull’efficacia e l’efficienza nella governance dell’AI” le parole del sottosegretario, che prosegue “queste agenzie, con il loro focus specifico sul digitale e sulla cybersicurezza, offrono competenze tecniche e operazionali complementari e altamente specializzate, essenziali per affrontare le sfide poste dall’Ia in ambito di cittadinanza, industria, sicurezza, protezione dei dati e su tutto la difesa e l’interesse nazionale”.

Un’indicazione che non è piaciuta affatto al Garante per la protezione dei dati personali che, tramite il presidente dell’autority, Pasquale Stanzione, in una nota ai presidenti di Senato e Camera e al presidente del Consiglio avoca a se tale ruolo affermando che il Garante “possiede i requisiti di competenza e indipendenza necessari per attuare il regolamento europeo sull’intelligenza artificiale coerentemente con l’obiettivo di un livello elevato di tutela dei diritti fondamentali“.

La recente approvazione dell’AI Act da parte del Parlamento europeo, ha spiegato il Presidente dell’Authority, “impone agli Stati membri alcune scelte essenziali sulle norme di adeguamento degli ordinamenti interni“. La forte incidenza dell’AI sui diritti fondamentali “rende necessario attribuirne la competenza ad Autorità caratterizzate da requisiti d’indipendenza stringenti, come le Authority per la privacy, anche in ragione della stretta interrelazione tra intelligenza artificiale e protezione dati e della competenza già acquisita in materia di processo decisionale automatizzato“.

L’AI Act infatti, ricorda il Garante, “si fonda sull’articolo 16 del Trattato sul funzionamento dell’Unione europea, che è la base giuridica della normativa di protezione dei dati, e lo stesso Regolamento sull’intelligenza artificiale prevede il controllo delle Autorità di protezione dei dati personali su processi algoritmici che utilizzino dati personali. La sinergia tra le due discipline e la loro applicazione da parte di un’unica Autorità è quindi determinante per l’effettività dei diritti e delle garanzie sanciti“.

Detto questo, la domanda è chi si assicurerà che in Italia vengano rispettate le norme sull’Intelligenza artificiale? Non c’è il rischio di un conflitto di competenze?

Modello Italia: iGenius e Cineca lanciano il primo Large Language Model Italiano open-source per l’Intelligenza Artificiale responsabile

Realizzare un nuovo modello GPT completamente italiano, per aiutare aziende e Pubblica Amministrazione a sfruttare pienamente i vantaggi derivanti dall’Intelligenza Artificiale generativa, anche in settori sensibili come sanità, finanza, sicurezza nazionale. Tutto nel massimo rispetto delle normative sulla privacy e sulla sicurezza nazionale.

È l’obiettivo di “Modello Italia”, progetto presentato oggi da iGenius, azienda italiana attiva dal 2016 nel campo della ricerca e sviluppo di  tecnologie di Intelligenza Artificiale Generativa, riconosciuta da Gartner tra le aziende più dinamiche a livello globale nel settore delle AI Core Technologies, e il Cineca, Consorzio Interuniversitario formato da 118 Enti pubblici, tra i quali 2 Ministeri e 70 Università italiane, che ha come missione il supporto all’innovazione e alla promozione dell’utilizzo dei più avanzati sistemi di calcolo scientifico ad alte prestazioni (il supercomputer Leonardo, gestito da Cineca, è sesto nella classifica dei 500 supercalcolatori più potenti del mondo e al secondo posto in Europa).

L’accordo siglato da iGenius e Cineca porterà allo sviluppo di un Foundational Large Language Model (Foundational LLM), un modello di reti neurali alla base di strumenti di intelligenza artificiale come ChatGPT, di nuova generazione che sarà rilasciato con licenza completamente open-source, addestrato con diversi trilioni di token e caratterizzato da un’attenzione particolare all’ecosistema delle imprese e della Pubblica Amministrazione, italiane ed europee.

Riduzione di pregiudizi e discriminazioni

Un aspetto fondamentale della collaborazione tra iGenius e Cineca è l’attenzione alla riduzione dei pregiudizi e delle discriminazioni su cui spesso si fondano i sistemi di AI. Modello Italia sarà progettato e allenato con dati qualitativi e controllati per assicurare che l’Intelligenza Artificiale sia equa e imparziale. Questo approccio mira a garantire che i modelli AI siano privi di pregiudizi intrinseci e possano essere utilizzati in modo sicuro in una varietà di applicazioni.

Miglioramento della sicurezza per uso su larga scala in ambienti ad elevata criticità

La sicurezza è un pilastro fondamentale di questa iniziativa. iGenius e Cineca puntano a guidare un’innovazione responsabile e informata nei settori altamente regolamentati. I modelli sviluppati saranno progettati per essere robusti e affidabili, in modo da garantire prestazioni ottimali in ambienti di produzione mission critical, ad elevata complessità e delicatezza. L’obiettivo è di fornire soluzioni AI che possano essere implementate su larga scala con la massima sicurezza, contribuendo a migliorare significativamente i processi decisionali in settori chiave come la sanità, la finanza e la sicurezza nazionale.

Conformità e adattabilità regolamentare

I modelli LLM saranno progettati con una profonda comprensione delle esigenze di compliance, garantendo che le applicazioni di Intelligenza Artificiale rispettino pienamente le normative vigenti, nazionali e sovranazionali, come l’AI Act europeo. Questo aspetto è fondamentale per garantire che le tecnologie AI siano non solo avanzate dal punto di vista tecnologico, ma anche sicure, affidabili e conformi sotto il profilo legale e normativo.

Sicurezza dei dati e privacy

Un’enfasi particolare sarà posta sulla sicurezza dei dati e sulla privacy. In un’era dove la protezione dei dati è di massima importanza, iGenius e Cineca si impegnano a sviluppare modelli che rispettino gli standard più elevati in termini di sicurezza informatica e protezione della privacy, un fattore critico in tutti i settori ma particolarmente vitale in quelli altamente regolamentati.

Un futuro promettente per lo sviluppo di sistemi di AI in Italia

Con questa collaborazione, iGenius e Cineca si impegnano a plasmare il futuro dell’Intelligenza Artificiale, segnando l’ingresso dell’Italia nell’arena dello sviluppo di soluzioni di AI che in Europa vede già la presenza di realtà come Mistral AI in Francia e Aleph Alpha in Germania.

Modello Italia non solo rappresenta un passo in avanti significativo nell’applicazione su larga scala dell’Intelligenza Artificiale generativa, ma lo fa con un focus specifico su etica, sostenibilità e sicurezza, facendo sì che i benefici di questa tecnologia siano accessibili a tutti.

I modelli di linguaggio in ambito di intelligenza artificiale hanno il potenziale di democratizzare la conoscenza. Ciò sarà possibile solo se ogni paese e ogni lingua sarà rappresentato allo stato puro” il comment0 di Uljan Sharka, Fondatore e CEO di iGenius, che prosegue specificando come “nessuno meglio degli Italiani può trasformare la propria lingua in superpoteri, questo è Modello Italia, un sistema di AI Generativa che rappresenta non solo la nostra lingua ma una delle civiltà più sofisticate attraverso l’arte, la cultura e le eccellenze per cui siamo famosi nel mondo. Un vero modello di rinascimento digitale che mette l’uomo al centro”.

D’altra parte, evidenzia Francesco Ubertini, Presidente Cineca, “l’Italia può vantare un’infrastruttura pubblica di supercalcolo tra le migliori al mondo e, grazie a questa, oggi una startup italiana entra nell’arena internazionale dei modelli di linguaggio, con una soluzione completamente aperta, affidabile e pienamente conforme ai principi nazionali ed europei. Il Modello Italia costituirà uno straordinario fattore abilitante per imprese e pubblica amministrazione nell’accelerare l’innovazione digitale“.

Vedremo gli sviluppi futuri, ma è innegabile che attraverso l’uso dell’infrastruttura di supercalcolo messa a disposizione del Cineca, l’Italia ha la possibilità di sviluppare il primo modello di linguaggio per l’Intelligenza Artificiale nativa in lingua italiana, consentendo al nostro Paese di entrare nell’arena della competizione internazionale ed essere un protagonista attivo della transizione digitale.

Giuliano Amato lascia la presidenza della Commissione Algoritmi. Al suo posto padre Paolo Benanti.

L’ex presidente della Corte Costituzionale Giuliano Amato si dimette da presidente della Commissione Algoritmi dopo le critiche di Giorgia Meloni: “sul tema della commissione algoritmi credo si sappia che non è stata una mia iniziativa e ho detto tendenzialmente quello che pensavo, ma al di là di questo non ho nulla da dire nello specifico al professor Amato, sono rimasta francamente basita dalle sue dichiarazioni che riguardano la Corte Costituzionale” ha detto la Premier nella conferenza stampa del 4 gennaio.

Amato spiega che si tratta di “una commissione della presidenza del Consiglio e visto che la mia nomina non risulta essere un’iniziativa della presidente del Consiglio lascio senz’altro l’incarico“.

La nomina a presidente dell’organismo istituito per studiare rischi e opportunità legati all’Intelligenza Artificiale era arrivata lo scorso mese di ottobre, quando il sottosegretario a Palazzo Chigi Alberto Barachini (di Forza Italia) annunciò che Amato avrebbe presieduto il gruppo di studio sull’impatto dell’intelligenza artificiale su informazione e editoria, provocando una certa irritazione da parte della Premier che dichiarò di non saperne nulla, come pure il  sottosegretario plenipotenziario Alfredo Mantovano.

Il nuovo presidente della Commissione sarà il francescano padre Paolo Benanti, personalità di spicco in materia di Intelligenza Artificiale, già componente della commissione e unico italiano membro del Comitato sull’Intelligenza Artificiale delle Nazioni Unite.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie