Real time Artificial Intelligence news

Tag: eu

Continua l’indagine della Commissione Europea su META

Meta Platforms( enon solo) è al centro di un’indagine condotta dalla Commissione Europea in merito alle modalità con cui le sue piattaforme, in particolare Facebook e Instagram, affrontano le campagne di disinformazione orchestrate dalla Russia e da altre nazioni, come riportato dal Financial Times.

La comunità europea ritiene che l’azienda non faccia abbastanza per fermare la pubblicità politica che potrebbe potenzialmente minare il processo elettorale, ha detto il media, citando due persone a conoscenza della questione.

I funzionari del continente sono preoccupati che gli strumenti di Meta non siano abbastanza facili da usare per gli utenti per segnalare contenuti illegali, ha aggiunto il media.

Si prevede che un’indagine formale arriverà questa settimana, forse già oggi.

La direttiva fa parte del Digital Services Act, pubblicato nell’ottobre 2022, che ha dato alle aziende fino a gennaio 2024 per adeguarsi.

Il Digital Services Act ha costretto le aziende come Meta, X (precedentemente nota come Twitter) e Google a dire ai regolatori esattamente cosa stanno facendo per combattere la disinformazione online e liberare rapidamente le loro piattaforme da contenuti illegali, come l’istigazione al terrorismo e lo sfruttamento sessuale dei minori.

SIn caso di violazione, la Commissione può imporre multe fino al 10 per cento del fatturato mondiale dell’azienda, che arrivano fino al 20 per cento in caso di violazione reiterata.

Ue, il Parlamento europeo approva l’AI Act

Via libera del Parlamento europeo all’AI Act, l’impianto di norme europee sull’Intelligenza Artificiale. L’approvazione è arrivata ad ampia maggioranza: i deputati hanno approvato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.

L’Ue è la prima al mondo a dotarsi di regole sull’Intelligenza artificiale, con un impianto normativo che stabilisce obblighi per l’AI sulla base dei possibili rischi e del livello d’impatto e che, in assenza di altre disposizioni di legge a livello internazionale – gli Stati Uniti sono al momento fermi all’Ordine esecutivo firmato dal presidente Biden sull’AI lo scorso mese di ottobre che si limita a delle raccomandazioni – potrebbe diventare il punto di riferimento per la legislazione in materia, almeno nel mondo occidentale.

Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di AI saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’AI” è quanto ha dichiarato il correlatore dell’AI Act Brando Benifei nel dibattito in plenaria sull’approvazione delle norme.

Abbiamo un testo che rispecchia moltissimo le priorità del Parlamento europeo” ha spiegato l’europarlamentare, soffermandosi in particolare sulla parte legata ai divieti, ulteriormente rafforzate nel negoziato, e su quella dedicata alla trasparenza e sicurezza dei modelli fondativi più potenti.

L’impianto della legge prevede in particolare il divieto di utilizzo dell’AI per una serie di attività, a partire dal divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici e sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire minacce terroristiche.

Sono poi espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali e una serie di altre pratiche ritenute appunto “a rischio” per i diritti dei cittadini.

L’AI Act diventerà legge dopo la firma degli Stati membri e dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue. A tale proposito, Markus Beyrer, direttore generale di Business Europe, l’associazione degli industriali europei, afferma che “la legge sull’IA mantiene giustamente un quadro di riferimento basato sul rischio e impedisce l’emergere di leggi nazionali divergenti. Tuttavia, la necessità di un’ampia legislazione secondaria e di linee guida solleva questioni significative sulla certezza del diritto e sull’interpretazione della legge nella pratica” avvisando altresì che c’è un altro tema fondamentale che l’Europa è ora chiamata a prendere in considerazione: quello dei capitali e degli investimenti per promuovere, sostenere e far crescere l’AI nel vecchio continente.

L’Europa deve non solo essere leader nella definizione delle regole, ma anche facilitare l’accesso ai capitali e ai finanziamenti per lo sviluppo dell’IA“, sottolinea su questo punto Beyrer, concludendo che “gran parte del lavoro reale per garantire il successo dello sviluppo dell’AI in Europa è solo all’inizio“.

Positivo il giudizio di Innocenzo Cipolletta, presidente dell’Associazione Italiana Editori (AIE) e di Confindustria Cultura Italia (CCI), secondo cui “è importante che siano previste regole chiare sulla trasparenza delle fonti utilizzate dai sistemi di Intelligenza Artificiale per addestrare gli algoritmi: la trasparenza è infatti il requisito per poter analizzare criticamente gli output dell’Intelligenza Artificiale e, per chi detiene i diritti, sapere quali opere sono utilizzate nello sviluppo di questi strumenti, se provengono da fonti legali e se l’uso è stato autorizzato”.

Favorevole a continuare a sostenere lo sviluppo di un’Intelligenza Artificiale responsabile anche Salvatore Nastasi, presidente Siae, secondo cui “l’approvazione dell’AI Act da parte del Parlamento Europeo, oltre a dotare l’Ue di una legge, la prima al mondo, che disciplina lo sviluppo e l’utilizzo di sistemi di AI anche nell’industria creativa, è la dimostrazione di quanto può essere efficace il nostro comparto quando si muove in maniera congiunta e unitaria” nell’ottica della massima trasparenza e della tutela degli autori ed editori.

Entusiasmi a parte va detto che l’approvazione dell’AI Act da parte del Parlamento UE è solo il primo passo: occorre non solo armonizzare le modalità con le quali i singoli Paesi europei accoglieranno il regolamento ma anche riuscire a tenere il passo con la rapidità di evoluzione della tecnologia e del cambiamento che l’adozione di questa necessariamente comporta.

News ore 12.15 Approvato l’ AI Act

I legislatori del parlamento dell’Unione Europea hanno approvato la prima legislazione al mondo per regolamentare l’intelligenza artificiale mentre il pianeta è alle prese con il modo in cui la tecnologia sta sconvolgendo ogni settore.

Accolgo con favore lo straordinario sostegno del Parlamento europeo al nostro #AIAct, le prime regole complete e vincolanti al mondo per un’intelligenza artificiale affidabile“, ha affermato Thierry Breton, commissario europeo per il mercato interno, in un post su X. “L’Europa è ora un punto di riferimento globale nel campo dell’intelligenza artificiale. Stiamo regolamentando il meno possibile, ma quanto necessario!

Accolgo con favore il voto di @Europarl_EN sull’AI Act“, ha scritto su X Ursula von der Leyen, presidente della Commissione europea. “Ciò andrà a beneficio del fantastico bacino di talenti dell’Europa“, ha aggiunto. “E stabilire un modello per un’intelligenza artificiale affidabile in tutto il mondo“.

Cinquecentoventitré legislatori hanno votato a favore dell’AI Act, mentre 46 erano contrari e 49 non hanno votato. A dicembre è stato raggiunto un accordo preliminare tra il Parlamento europeo e i paesi membri.

Una giornata definita storica da Brando Benifei, capodelegazione Pd del Parlamento Europeo e co-relatore dell’AI Act.

Il mese scorso due gruppi di legislatori al Parlamento europeo hanno approvato provvisoriamente un accordo sulle norme sull’intelligenza artificiale.

La legislazione arriva mentre le aziende sono alle prese con questioni delicate legate all’intelligenza artificiale.

Google sta lavorando per sistemare il suo strumento di Intelligenza Artificiale Gemini dopo che alcune risposte di testo e immagini generate dal modello sono state considerate “distorte” e “completamente inaccettabili”, ne abbiamo scritto giorni fa. In particolare, Google impedirà al chatbot Gemini di rispondere a domande sulle elezioni globali previste per quest’anno. La decisione arriva per evitare potenziali disinformazioni e fake news, in un momento in cui la tecnologia di intelligenza artificiale generativa desta preoccupazioni.

Il filtro è già attivo in queste ore, anche in Italia. Nel momento in cui viene interpellato in merito a questioni riguardanti le elezioni, Gemini rifiuta di rispondere, spesso con la formula: “Sto ancora imparando come rispondere a questa domanda. Nel frattempo, prova a usare la Ricerca Google”.

Shane Jones dipendente Microsoft nel ruolo di AI Engineering Leader eha deciso di esporsi con una lettera inviata al board della propria società, così come all’autorità americana per la tutela dei consumatori e della concorrenza (la Federal Trade Commission – Ftc): “Pubblico queste lettere qui perché credo nei principali sostenitori dell’approccio globale di Microsoft alla lotta ai contenuti abusivi generati dall’intelligenza artificiale”, aggiunge come sia necessaria una solida collaborazione tra l’industria, i governi e la società civile e come sia molto importante sensibilizzare l’opinione pubblica sui rischi e sui benefici dell’IA facendo riferimento a AI CoPilot Designer.

Microsoft ha iniziato a bloccare alcune parole chiave di Copilot nel tentativo di arginare la produzione di alcuni tipi di immagini. Tuttavia, Windows Central, un sito Web focalizzato su Microsoft, ha affermato che lo strumento può ancora essere indotto con l’inganno a creare immagini violente e sessuali che ha dimostrato di poter creare immagini molto disturbanti come per esempio demoni e mostri se si associano parole legate all’aborto, ma anche minori che imbracciano armi o assumono droghe, ma anche personaggi femminili in pose sessualizzate e di violenza.

Commissione Europea: pacchetto di sostegno a startup e Pmi nell’AI. Dall’EU AI Act a GenAI4EU

La Commissione Europea ha lanciato un pacchetto di misure per sostenere le startup e le Pmi europee nello sviluppo di un’Intelligenza Artificiale affidabile che rispetti i valori e le regole dell’UE. Tutto ciò a seguito dell’accordo politico raggiunto nel dicembre 2023 sull’EU AI Act – la prima legge globale al mondo sull’intelligenza artificiale – che sosterrà lo sviluppo, la diffusione e l’adozione di un’Intelligenza Artificiale affidabile nell’Unione Europea.

L’annuncio è stato dato dalla Presidente Ursula von der Leyen nel suo discorso sullo stato dell’Unione del 2023, nel quale ha presentato l’iniziativa per mettere i supercomputer europei a disposizione delle startup innovative europee che si occupano di Intelligenza Artificiale per addestrare i loro modelli in modo affidabile.

Come primo passo, nel novembre 2023 la Commissione ha lanciato la Large AI Grand Challenge, un premio che offre alle startup nel settore dell’AI sostegno finanziario e accesso ai supercalcoli.

Il pacchetto appena annunciato mette in pratica questo impegno attraverso un’ampia gamma di misure a sostegno delle startup e dell’innovazione nel campo dell’Intelligenza Artificiale, inclusa una proposta per fornire un accesso privilegiato ai supercomputer alle startup e alla più ampia comunità dell’innovazione.

L’obiettivo è quello di istituire delle AI Factories, che dovrebbero essere un nuovo pilastro per le attività dell’impresa comune sui supercomputer dell’UE attraverso l’acquisizione, l’aggiornamento e il funzionamento di supercomputer dedicati all’Intelligenza Artificiale per consentire l’apprendimento automatico rapido e l’addestramento di grandi modelli per scopi generali (GPAI), facilitando l’accesso ai supercomputer a un gran numero di utenti pubblici e privati, comprese startup e Pmi. All’interno di questo sistema è prevista anche la realizzazione di uno sportello unico per startup e innovatori, supportando le startup e l’ecosistema di ricerca sull’AI nello sviluppo algoritmico, testando la valutazione e la convalida di modelli su larga scala, fornendo strutture di programmazione compatibili con i supercomputer e altri servizi di abilitazione dell’Intelligenza Artificiale.

L’istituzione di un ufficio sull’AI all’interno della Commissione servirà poi a garantire lo sviluppo e il coordinamento della politica sul tema a livello europeo, oltre a supervisionare l’attuazione e l’applicazione dell’EU AI Act.

Secondo le previsioni il pacchetto genererà un ulteriore investimento pubblico e privato complessivo pari a circa 4 miliardi di euro fino al 2027 e viene annunciata di pari passo l’iniziativa GenAI4EU per sostenere lo sviluppo verticale dell’Intelligenza Artificiale nei differenti ecosistemi industriali europei (robotica, salute, biotecnologia, produzione, mobilità, clima e mondi virtuali) e nel settore pubblico.

Aleph Alpha, la startup tedesca di Intelligenza Artificiale Generativa raccoglie 500 milioni di dollari

Aleph Alpha è una start-up tedesca che fornisce sistemi di intelligenza artificiale generativa ad aziende e governi. Nel suo ultimo round di finanziamento ha raccolto più di 500 milioni di dollari da Innovation Park Artificial Intelligence (Ipai), Bosch Ventures e le società del Gruppo Schwarz, diventando un questo modo una delle start-up di AI in più rapida crescita e più apprezzate in Europa, assieme alla francese Mistral AI.

Il finanziamento farà avanzare la ricerca proprietaria sull’intelligenza artificiale e accelererà lo sviluppo e la commercializzazione dell’intelligenza artificiale generativa.

Aleph Alpha, che è stata fondata nel 2019 da Jonas Andrulis (che aveva maturato una precedente esperienza lavorando sull’intelligenza artificiale in Apple), si concentra sulla costruzione di modelli linguistici di grandi dimensioni (LLM) ma, a differenza della francese Mistral AI, è già attiva a livello commerciale. I clienti dell’azienda, che vanno dalle banche alle agenzie governative, utilizzano i LLM di Aleph Alpha per scrivere nuovi rapporti finanziari, riassumere report di centinaia di pagine e creare chatbot aziendali. Ma gli LLM sono solo una parte dell’attività su cui è concentrata l’azienda che punta allo sviluppo dell’intelligenza artificiale generale e la cui specializzazione è nella protezione e nella sicurezza dei dati regolamentati.

Proprio per questo ha aperto il suo primo data center a Berlino in modo da poter soddisfare meglio settori altamente regolamentati, come quello delle aziende governative o della sicurezza, che ritengono mandatorio il fatto che i propri dati sensibili siano ospitati in Germania o comunque all’interno dell’UE. A tale proposito il modello sviluppato da Aleph Alpha può già comunicare oltre che in tedesco, in francese, spagnolo, italiano e inglese, e i suoi dati di addestramento includono il vasto archivio di documenti pubblici multilingue pubblicati dal Parlamento Europeo.

I cambiamenti recenti e imminenti nella regolamentazione europea dell’IA generativa con l’AI Act potrebbero contribuire a detreminarne il successo nel prossimo futuro, grazie ai suoi collegamenti con enti governativi e con le forze dell’ordine. Nonostante ciò Aleph Alpha deve ancora dimostrare che la sua tecnologia sia sufficientemente avanzata da poter diventare un competitor effettivo delle grandi aziende Usa del settore.

Intesa UE sulle regole per l’Intelligenza Artificiale

Dopo un negoziato fiume durato oltre 36 ore i politici e i legislatori dell’Unione europea hanno raggiunto venerdì un accordo sul primo insieme completo di norme al mondo che regolano l’uso dell’Intelligenza Artificiale.

Nelle prossime settimane verranno elaborati i dettagli di quello che di fatto può essere definito un accordo politico, che dovrà poi passare dall’approvazione finale degli Stati membri oltre che dal Parlamento europeo.

I punti chiave su cui si è arrivati ad un accordo riguardano principalmente i cosidetti sistemi ad alto rischio, quelli che si ritiene possano avere una significativa potenzialità potenziale di nuocere alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia, alle elezioni e allo Stato di diritto. Questi sistemi, in particolare, dovranno rispettare una serie di requisiti e sono previsti una serie di obblighi nei confronti dei fornitori e dei sviluppatori di sistemi di IA a seconda dei livelli di rischio identificati.

I sistemi di intelligenza artificiale che si ritiene presentino rischi limitati sarebbero soggetti a obblighi di trasparenza molto leggeri, come etichette informative che dichiarino che il contenuto è stato generato dall’intelligenza artificiale per consentire agli utenti di decidere come utilizzarlo.

Uno dei capitoli più importanti, su cui il negoziato si è incagliato per ore, è quello delle pratiche di AI vietate perché potenzialmente in grado di minare i diritti fondamentali, come il divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici.

L’uso di sistemi di identificazione biometrica remota in tempo reale negli spazi pubblici da parte delle forze dell’ordine sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire una minaccia terroristica specifica e attuale. Sarà inoltre autorizzato per rintracciare persone sospettate di reati di terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale e crimini ambientali.

Tra i punti controversi, anche quello sui modelli di fondazione come GPT-4, alla base di ChatGPT. L’accordo prevede obblighi più stringenti per i modelli ad alto impatto con rischio sistemico che saranno soggetti a requisiti di trasparenza come la stesura di documentazione tecnica, il rispetto della normativa UE sul copyright e la diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione degli algoritmi.

Sono invece espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali (come invece avviene in Cina); i sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio e, più in generale, tutte quelle applicazioni dell’AI volte a sfruttare le vulnerabilità delle persone a causa della loro età, disabilità, situazione sociale o economica.

L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale“, ha scritto su X il commissario per il mercato interno Thierry Breton, secondo cui l’AI Actè molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell’UE per guidare la corsa globale all’intelligenza artificiale”.

Dello stesso tono anche il commento di uno dei correlatori della legge sull’Intelligenza Artificiale, il deputato Dragoș Tudorache: “Siamo i primi al mondo a mettere in atto una vera regolamentazione per il futuro mondo digitale guidato dall’intelligenza artificiale, guidando lo sviluppo e evoluzione di questa tecnologia in una direzione incentrata sull’uomo.

Tuttavia non mancano reazioni critiche come quella del deputato del Ppe Axel Voss che si è detto “non convintoche questo sia il modo giusto per garantire che l’Europa rimanga competitiva nell’IA. L’innovazione si farà comunque altrove“.

E il punto forse è proprio questo. L’Europa ha sicuramente vinto la gara per legiferare in materia di Intelligenza Artificiale, ma l’innovazione su questo campo si sta facendo altrove, negli Stati Uniti e in Cina. Bene guardare ad uno sviluppo responsabile dell’Intelligenza Artificiale che, come tutte le tecnologie va prima o poi regolamentata. Ma occorre anche che non si mettano troppi vincoli alle aziende europee che già sono destinate a rincorrere, perché il Vecchio Continente su questo tema non è competitivo. Non si parla poi di investimenti, di una cornice unica europea in grado di favorire la ricerca e lo sviluppo in questo ambito, con finanziamenti e interventi nel capitale di rischio di start up e piccole imprese. Perché altrimenti, ancora una volta, l’Europa rischia di perdere il treno dell’innovazione, così come è già stato per Internet e per i Social.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie