Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Dina Pagina 34 di 36

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

LLaMA 3 tra meno di un mese

Nick Clegg, presidente degli affari globali di Meta Platforms , ha confermato che l’azienda tecnologica rilascerà la prossima versione del suo modello di linguaggio di grandi dimensioni, Llama 3, nel “prossimo mese”.

“Entro il prossimo mese, anzi meno, speriamo di iniziare a distribuire la nostra nuova suite di modelli di base di prossima generazione, Llama 3”, ha detto Clegg durante un evento a Londra, secondo TechCrunch.

Meta fa un passo ulteriore verso l’accessibilità dell’IA, rendendo LLaMA 3 open source. Questa decisione mira a democratizzare l’intelligenza artificiale, permettendo a sviluppatori, ricercatori e appassionati di tutto il mondo di sfruttare questa potente tecnologia.

Gli ingegneri di Meta hanno annunciato un investimento importante sul futuro dell’intelligenza artificiale, con la presentazione di due cluster composti da 24.576 GPU NVIDIA H100.

Meta prevede di distribuire 350.000 H100 entro l’anno, creando un’infrastruttura massiccia per supportare le crescenti richieste di calcolo avanzato.

Rispetto alle versioni precedenti di Llama offrirà un’ampia gamma di dimensioni del Modello . L’intento è di rendere facile per gli sviluppatori di terze parti riqualificarsi, mettere a punto e costruire sul modello base.

Llama 3 avra’ la capacità di offrire risposte contestualizzate, evitando le rigidità e le restrizioni eccessive che hanno caratterizzato altri modelli. Meta intende infatti promuovere un approccio più equilibrato e umano, fornendo contesto piuttosto che eludere o censurare le domande degli utenti.

Tuttavia, avrà ancora dei paletti. legati alla legge  sulla sicurezza dell’IA, inclusa la nuova legge sull’intelligenza artificiale dell’Unione Europea.

“Ci saranno una serie di modelli diversi con diverse capacità, diverse versatilità [rilasciate] nel corso di quest’anno, a partire davvero molto presto.”

Meta ha lanciato Llama 2 nel luglio 2023 e Code Llama, che può utilizzare prompt di testo per generare e discutere codice, il mese successivo.

L’azienda guidata da Mark Zuckerberg vuole che il nuovo modello di linguaggio di grandi dimensioni affronti domande “contenziose” dopo che le salvaguardie che ha rilasciato per Llama sono state considerate “troppo sicure” dagli esecutivi dell’azienda e da alcuni dei ricercatori del modello.

Voice Engine di OpenAI: Una Rivoluzione nella Sintesi Vocale

Voice Engine è un innovativo strumento di clonazione della voce umana sviluppato da OpenAI. Questa tecnologia di intelligenza artificiale (IA) è in grado di creare una sintesi vocale fedele all’originale a partire da un campione vocale di soli 15 secondi. L’innovazione di Voice Engine si estende a diversi settori, con particolare rilievo nel marketing e nell’educazione.

Non è una tecnologia nuova. Numerose startup forniscono prodotti per la clonazione vocale da anni, da ElevenLabs a Replica Studios a Papercup a Deepdub a Respeecher . Lo stesso hanno fatto gli operatori storici della Big Tech come Amazon, Google e Microsoft , l’ultimo dei quali è, per inciso, un importante investitore di OpenAI  .

Harris ha affermato che l’approccio di OpenAI fornisce un parlato complessivamente di qualità superiore.

Le applicazioni di clonazione vocale, pur avendo un potenziale benefico, sono state sfruttate per scopi dannosi. Ad esempio, il forum 4chan ha usato tali tecnologie per diffondere messaggi d’odio imitando celebrità. Inoltre, ci sono stati casi di utilizzo di voci clonate per ingannare i sistemi di autenticazione bancaria e influenzare le elezioni. Di fronte a tali abusi, la FCC ha dichiarato illegali le chiamate automatizzate tramite intelligenza artificiale.

OpenAI, consapevole di questi rischi, ha adottato misure per prevenire l’uso improprio del suo Voice Engine. L’accesso è limitato a un piccolo gruppo di sviluppatori e l’attenzione è rivolta a casi d’uso a basso rischio e socialmente vantaggiosi. Ad esempio, aziende come Age of Learning e HeyGen stanno utilizzando Voice Engine per generare voci fuori campo e per la traduzione, rispettivamente. Altre società stanno utilizzando Voice Engine per creare voci per persone con disturbi del linguaggio e disabilità, o per fornire feedback agli operatori sanitari nelle loro lingue principali.

Voice Engine utilizza un input di testo e un singolo campione audio di 15 secondi per generare un discorso naturale che assomiglia strettamente al parlante originale. È notevole che un piccolo modello con un singolo campione di 15 secondi possa creare voci emotive e realistiche.

OpenAI ha iniziato a testare privatamente Voice Engine con un piccolo gruppo di partner di fiducia per capire meglio le potenziali applicazioni di questa tecnologia. Alcuni esempi di applicazioni precoci includono:

  1. Assistenza alla lettura: Voice Engine può fornire assistenza alla lettura a non lettori e bambini attraverso voci naturali ed emotive che rappresentano una gamma più ampia di oratori rispetto a ciò che è possibile con le voci predefinite. Ad esempio, Age of Learning, una società di tecnologia educativa dedicata al successo accademico dei bambini, ha utilizzato Voice Engine per generare contenuti di voice-over pre-sceneggiati.
  2. Traduzione di contenuti: Voice Engine può essere utilizzato per tradurre contenuti, come video e podcast, consentendo a creatori e aziende di raggiungere più persone in tutto il mondo, fluentemente e con le loro voci. Un adottante precoce di questa tecnologia è HeyGen, una piattaforma di storytelling visivo AI che lavora con i suoi clienti aziendali per creare avatar personalizzati, simili a umani, per una varietà di contenuti.

Voice Engine è elencato come un costo di $ 15 per un milione di caratteri, o circa 162.500 parole. 

Nonostante le potenziali applicazioni benefiche, Voice Engine presenta anche delle sfide. La generazione di discorsi che assomigliano alle voci delle persone ha rischi seri, e OpenAI sta adottando un approccio cauto per un rilascio più ampio a causa del potenziale abuso di voci sintetiche. OpenAI sta avviando un dialogo sulla distribuzione responsabile delle voci sintetiche e su come la società può adattarsi a queste nuove capacità.

Sorprendentemente, Voice Engine non è addestrato o ottimizzato sui dati dell’utente. Ciò è dovuto in parte al modo effimero in cui il modello – una combinazione di processo di diffusione e trasformatore – genera il discorso.

“Prendiamo un piccolo campione audio e testo e generiamo un discorso realistico che corrisponde all’oratore originale”, ha affermato Harris. “L’audio utilizzato viene eliminato una volta completata la richiesta.”

Tra i primi utilizzatori di Voice Engine di OpenAI ci sono Age of Learning, che lo usa per generare voci fuori campo, e HeyGen, che lo sfrutta per la traduzione. Anche Livox e Lifespan lo utilizzano per creare voci per persone con disturbi del linguaggio e disabilità, mentre Dimagi lo usa per fornire feedback agli operatori sanitari.

Le voci create con Voice Engine sono contrassegnate con una filigrana resistente alle manomissioni, che incorpora identificatori non udibili nelle registrazioni. Questo permette a OpenAI di identificare facilmente le clip audio generate dal loro sistema.

OpenAI ha anche lanciato una rete di team rosso per rendere i suoi modelli più robusti e prevede di fornire ai membri di questa rete l’accesso a Voice Engine per scoprire usi dannosi.

Infine, OpenAI sta testando un meccanismo di sicurezza che richiede agli utenti di leggere un testo generato casualmente come prova della loro presenza e consapevolezza di come viene utilizzata la loro voce. Questo potrebbe permettere a OpenAI di portare Voice Engine a un pubblico più ampio in futuro.

Voice Engine di OpenAI rappresenta un passo importante nella tecnologia generativa IA, dando vita a strumenti dalla marcata consapevolezza digitale. Attraverso la sintesi del parlato avanzata, questa innovativa piattaforma permette la generazione di voci realistiche che aprono nuove frontiere nella comunicazione IA. Tuttavia, è fondamentale affrontare le sfide etiche e di sicurezza associate a questa tecnologia per garantire il suo uso responsabile e benefico.

Un Pennello Grande o un Grande Pennello?

L’intelligenza artificiale (IA) è in attesa del prossimo grande sviluppo per fare un salto in avanti.

Come ribadito in quella pubblicità degli anni ’80 non serve un pennello grande bensì un Grande Pennello.

La Circuit-Complexity-Theory è una branca della logica computazionale che studia la complessità dei problemi computazionali in termini di circuiti booleani. Recenti progressi in questo campo suggeriscono che potrebbe essere possibile ottenere miglioramenti significativi nelle prestazioni dei modelli di IA attraverso l’uso di tecniche più avanzate di ottimizzazione e approssimazione.

Il GPT-4, rilasciato a marzo possiede circa 1 trilione di parametri, quasi sei volte rispetto al suo predecessore. Secondo le stime fornite dal CEO della società, Sam Altman, il costo di sviluppo si aggira intorno ai 100 milioni di dollari.

Nel contesto di crescita dell’IA, si pone la domanda: “ci serve un Grande pennello ? Questa filosofia ha guidato l’evoluzione dell’IA, enfatizzando la creazione di modelli di machine learning sempre più grandi.

Nonostante l’impero Romano fosse uno degli imperi più grandi e potenti della storia, la sua grandezza alla fine ha contribuito alla sua caduta. La gestione di un territorio così vasto ha portato a problemi logistici, difficoltà di comunicazione, tensioni interne e vulnerabilità ai nemici esterni. Quindi, in questo caso, più grande non significava necessariamente migliore.

Nonostante i successi degli ultimi LLM, ci sono limitazioni da considerare.

L’addestramento di grandi modelli di machine learning richiede molte risorse computazionali, con implicazioni economiche ed ambientali. Inoltre, questi modelli richiedono enormi quantità di dati, sollevando questioni logistiche ed etiche.

Non sempre un modello più grande garantisce un miglioramento proporzionale delle prestazioni, soprattutto se la qualità dei dati non migliora allo stesso ritmo. Questo può portare a problemi di generalizzazione.

La complessità crescente dei modelli rende difficile la loro comprensione e l’individuazione di pregiudizi incorporati, ostacolando la responsabilità e la fiducia nell’IA.

Infine, i costi e le esigenze di risorse dei modelli più grandi possono renderli inaccessibili per entità più piccole, creando una disparità nell’accesso ai benefici dell’IA.

C’è una crescente consapevolezza che l’approccio “più grande è meglio” sta raggiungendo i suoi limiti. Per migliorare i modelli di IA, sarà necessario ottenere più performance con meno risorse.

Un esempio : LLAMA2, allenato con la metà dei Token e rilasciato nel Luglio ‘23, performa peggio di DB-RX, ma non così peggio di quanto si potrebbe pensare, lo si vede bene nelle tabelle di benchmark pubblicate da DataBricks.

DB-RX ha incluso l’addestramento su 2 trilioni di token, l’uso di 3000 GPU H100 e 3 mesi di calcolo e un investimento significativo, stimato tra i 15 e i 30 milioni di euro.

Il concetto : Più performance con meno risorse.

Alternative includono il fine-tuning per compiti specifici, l’uso di tecniche di approssimazione matematica per ridurre i requisiti hardware, e l’adattamento di modelli generalisti in modelli più piccoli e specializzati.

L’importanza del codice di programmazione e dell’hardware su cui viene eseguito è anche in discussione, evidenziando opportunità di miglioramento in questi settori.

Le reti di Head-Attention, come quelle utilizzate nei Transformer, sono state fondamentali per il successo di molte applicazioni di apprendimento automatico. Tuttavia, queste reti possono avere dei limiti, in particolare quando si tratta di gestire sequenze molto lunghe a causa della loro complessità computazionale quadratica.

Le feed-forward networks, d’altra parte, sono state la spina dorsale dell’apprendimento profondo per molti anni. Queste reti sono in grado di apprendere rappresentazioni complesse dei dati attraverso molteplici strati di neuroni artificiali. Tuttavia, anche queste reti possono avere dei limiti, in particolare quando si tratta di modellare le dipendenze temporali nei dati.

Recenti progressi in questo campo suggeriscono che potrebbe essere possibile ottenere miglioramenti significativi nelle prestazioni dei modelli di IA attraverso l’uso di tecniche più avanzate di ottimizzazione e approssimazione.

Come l’adattamento di modelli generalisti in modelli più piccoli e specializzati, e l’esplorazione di nuovi paradigmi di apprendimento automatico.

Mentre restiamo attesa dei prossimi LLama3 e GPTNext, attesi per Luglio Agosto, Fauno (LLM) , sviluppato dal gruppo di ricerca RSTLess della Sapienza Università di Roma addestrato su ampi dataset sintetici italiani, che coprono una vasta gamma di campi come dati medici, contenuti tecnici da Stack Overflow, discussioni su Quora e dati Alpaca tradotti in italiano dovra’ confrontarsi con i numeri e i dati rilasciati da Databricks con gli investimenti di DB-REX e con un ROI che si dimezza ogni 6 mesi e senza sapere cosa uscirà da Meta o OpenAI, i quali giocano un campionato tutto loro dove le GPU si contano a centinaia di migliaia.

Il campo dell’IA è in continua evoluzione e presenta sia sfide che opportunità.

In un mondo in cui le aziende investono miliardi nello sviluppo di Large Language Models (LLM), sorgono preoccupazioni riguardo alla tecnologia della scatola nera che utilizzano. Le query di ricerca LLM richiedono una potenza di elaborazione fino a dieci volte maggiore rispetto alle ricerche standard e possono comportare spese operative milionarie su larga scala. Alcuni LLM proprietari offrono un utilizzo gratuito, ma come recita il vecchio proverbio: “Se non paghi per il prodotto, il prodotto sei tu.” Questo ha spinto alcuni a esplorare approcci alternativi

Le organizzazioni e gli individui che lavorano in questo campo devono essere pronti a navigare in questo panorama in rapida evoluzione..

Reuters : Alibaba Taglia i Prezzi in vista dell’ AI war

Quando Alibaba Group si è quotato in borsa alla Borsa di New York il 18 settembre 2014, il CEO Jack Ma ha detto dell’IPO da 25 miliardi di dollari da record: “Quello che abbiamo raccolto oggi non è denaro, è fiducia”.

Alibaba sta tagliando i prezzi per i suoi clienti cloud a livello globale fino al 59%, in un contesto di crescente concorrenza per respingere i rivali e attirare sviluppatori di software AI, ha riferito Reuters.

Il colosso tecnologico cinese ha affermato che i prodotti relativi all’informatica, allo storage, alla rete, ai database e ai big data vedranno in media una riduzione dei prezzi del 23%, aggiunge il rapporto di Reuters .

Queste riduzioni di prezzo riguardano circa 500 specifiche di prodotti cloud e gli sconti sono ora disponibili per i clienti in 13 regioni, tra cui Giappone, Indonesia, Emirati Arabi Uniti e Germania, ha riferito Bloomberg News .

Questa è la terza volta che l’azienda riduce i prezzi nell’ultimo anno.

A febbraio, Alibaba ha dichiarato che avrebbe effettuato una forte riduzione dei prezzi per i suoi servizi cloud, con l’obiettivo di recuperare utenti da concorrenti come Tencent , che competono per fornire gli strumenti necessari per addestrare l’intelligenza artificiale .

I giganti della tecnologia cinese Alibaba Group Holding e Tencent Holdings hanno investito congiuntamente 2,5 miliardi di yuan (342 milioni di dollari) in Zhipu, una startup di intelligenza artificiale con sede a Pechino .

Alibaba e Tencent, insieme ad altre importanti aziende cinesi come Ant Group, Xiaomi e Meituan, stanno supportando Zhipu nella sua missione di sviluppare alternative nazionali al ChatGPT di OpenAI .

Zhipu è tra le numerose startup cinesi che stanno lavorando attivamente su tecnologie di intelligenza artificiale generativa, con l’obiettivo di competere con attori riconosciuti a livello globale come OpenAI e Google.

Zhipu ha ottenuto l’approvazione iniziale del governo per un lancio pubblico in agosto e da allora ha rilasciato un modello open source e un chatbot chiamato Qingyan .

Pochi giorni dopo l’annuncio di Alibaba, anche JD.com  ha dichiarato che avrebbe tagliato i prezzi del cloud computing.

JD.com ha recentemente annunciato il lancio della sua iniziativa Spring Dawn migliorata, una solida suite di soluzioni per i commercianti di terze parti per aumentare i ricavi, inclusi nuovi servizi di intelligenza artificiale progettati per ridurre i costi operativi dei commercianti fino al 50%.

Dal suo lancio iniziale nel gennaio 2023, l’ iniziativa Spring Dawn è stata un catalizzatore di crescita, aumentando di 4,3 volte il numero di commercianti terzi sulla nostra piattaforma. Mentre ci avviciniamo all’accoglienza del nostro milionesimo partner commerciale, siamo entusiasti di lanciare la fase successiva dell’iniziativa.

Le riduzioni dei prezzi segnano le mosse aggressive di Alibaba per stare al passo con i rivali, tra cui Tencent e Baidu, nel business del cloud, e rischiano di iniziare una guerra dei prezzi in un settore già fortemente competitivo.

Secondo il rapporto di Reuters, gli attuali tagli dei prezzi rappresentano l’ultimo sforzo di Alibaba per attirare gli sviluppatori a creare modelli e applicazioni di intelligenza artificiale ad alta intensità di dati utilizzando i servizi cloud dell’azienda.

Lo scorso novembre, Alibaba ha annullato il progetto di spin-off del suo Cloud Intelligence Group, noto anche come Aliyun. La società ha affermato che l’espansione delle restrizioni statunitensi sull’esportazione di chip informatici avanzati ha creato incertezze sulle prospettive del business del cloud. Successivamente, Alibaba ha avviato un rinnovamento del business del cloud computing, coinvolgendo, tra le altre cose, veterani in nuove posizioni di leadership.

L’intelligenza artificiale ha il potenziale per trasformare vari settori, dai trasporti ai media e alla finanza, e potrebbe guidare una nuova fase di crescita economica.

Tuttavia, la tecnologia ha anche applicazioni militari e governative, il che potrebbe complicare ulteriormente il già teso rapporto tra Washington e Pechino.

AIOS un ecosistema di agenti intelligenti.

Andrey Karpathy: “Guardare i LLM come chatbot è come guardare i primi computer come calcolatrici. Stiamo assistendo all’emergere di un nuovo paradigma di calcolo, e siamo solo all’inizio.” (23/09)

Carlos E. Perez: “AIOS costituisce una piattaforma olistica per liberare veramente il potenziale degli agenti LLM nel mondo reale.”

Sistema operativo dell’agente LLM. arXiv prestampa arXiv:2403.16971 .

AIOS (LLM Agent Operating System) è un nuovo framework di orchestrazione degli agenti che incorpora modelli di linguaggio di grandi dimensioni nei sistemi operativi, creando un sistema operativo con un “cervello” capace di “comprendere”.

AIOS è progettato per una distribuzione ottimale delle risorse, facilitando i cambi di contesto, l’esecuzione simultanea, i servizi di strumenti per gli agenti, il controllo degli accessi e fornendo un ricco set di strumenti per gli sviluppatori.

AIOS si basa su diversi agenti chiave che orchestrano gli altri. È composto da:

  • un Gestore di Agenti per la priorizzazione delle richieste degli agenti,
  • un Gestore di Contesto per la gestione del contesto di interazione,
  • un Gestore di Memoria per la memoria a breve termine,
  • un Gestore di Archiviazione per la conservazione dei dati a lungo termine,
  • un Gestore di Strumenti per la gestione degli strumenti API esterni,
  • e un Gestore di Accessi per l’applicazione delle politiche di privacy e controllo degli accessi.

Questi agenti comunicano con l’SDK di AIOS in modalità interattiva, insieme a compiti non-LLM provenienti dal Kernel del sistema operativo (con il pianificatore di processi, il gestore di memoria, ecc).

Questa architettura permette ad AIOS di integrare funzionalità AI complesse nei sistemi operativi tradizionali, consentendo lo sviluppo di applicazioni più intelligenti, reattive ed efficienti che possono sfruttare tutta la potenza dei LLM insieme alle risorse e capacità del sistema operativo convenzionale.

Perché è importante.

Questo approccio rappresenta un cambiamento nel modo in cui interagiamo con le macchine, con agenti implementati a livello di Sistema Operativo che svolgono compiti complessi.

Questa tendenza è dimostrata anche dai modelli ReALM di Apple, capaci di comprendere non solo la conversazione, ma anche le informazioni sullo schermo e sui lavori in background. Stiamo entrando in una nuova era del computing intelligente.

“Strategia Italiana per l’Intelligenza Artificiale 2024-2026”

L’executive summary della “Strategia Italiana per l’Intelligenza Artificiale 2024-2026” è stato recentemente pubblicato, delineando una visione ambiziosa per posizionare l’Italia come leader nell’innovazione guidata dall’IA. Questa strategia è un piano dettagliato che mira a sfruttare l’IA come catalizzatore di innovazione, con importanti benefici previsti per la competitività, l’efficienza della pubblica amministrazione e la diffusione delle competenze digitali.

La strategia si sviluppa lungo quattro direttrici principali: Ricerca, Pubblica Amministrazione, Imprese e Formazione.

Ricerca: L’obiettivo è rafforzare e consolidare l’ecosistema di ricerca italiano sull’IA. Questo include il rafforzamento di iniziative esistenti come il Partenariato Esteso sull’Intelligenza Artificiale, l’attrazione e la ritenzione di talenti nel campo dell’IA, lo sviluppo di modelli di linguaggio di grandi dimensioni (LLM) italiani che rispettano i valori e le normative europee, e il finanziamento della ricerca fondamentale e interdisciplinare sull’IA.

Pubblica Amministrazione: L’IA sarà il motore della trasformazione digitale nella pubblica amministrazione. Saranno stabilite linee guida per l’adozione, l’acquisto e lo sviluppo di applicazioni IA nella pubblica amministrazione. Progetti pilota semplificheranno i servizi per cittadini e imprese, mentre iniziative nazionali mireranno a rendere più efficienti i processi interni.

Imprese: L’Italia mira a rafforzare sia il settore ICT che sviluppa soluzioni di intelligenza artificiale, sia i settori tradizionali che possono beneficiare di queste innovazioni. Sarà creato un ecosistema di facilitatori per le piccole e medie imprese (PMI), sostenendo lo sviluppo e l’adozione di soluzioni IA con fondi dedicati. Laboratori congiunti industria-ricerca e misure di supporto per le start-up completeranno il quadro.

Formazione: La formazione è cruciale per colmare il divario di competenze nell’IA. Si prevedono percorsi di avvicinamento all’IA nelle scuole, il potenziamento dell’offerta universitaria nell’IA, incluso il Dottorato Nazionale in IA, programmi di upskilling e reskilling per i lavoratori, e iniziative di alfabetizzazione digitale per i cittadini.

Infine, i fattori abilitanti saranno il potenziamento delle infrastrutture digitali, la creazione di un repository nazionale di dataset e modelli IA, e l’istituzione di una Fondazione per l’IA che coordinerà l’attuazione della strategia. Questi elementi sono fondamentali per garantire il successo della strategia e per fare dell’IA un volano di innovazione in Italia.

L’attuazione della “Strategia Italiana per l’Intelligenza Artificiale 2024-2026” prevede una serie di passaggi chiave:

Ricerca: Si prevede l’implementazione di iniziative per aumentare il numero di dottorati e attrarre in Italia i migliori ricercatori, sia in ambito di ricerca fondamentale sia applicata. Inoltre, si punta alla creazione di nuove cattedre di ricerca sull’IA, a promuovere progetti per incentivare il rientro in Italia di professionisti del settore, e a finanziare piattaforme per la condivisione di dati e software a livello nazionale.

Pubblica Amministrazione: Si prevede un aumento significativo delle procedure di acquisto di servizi legati all’IA, passando da 100 nel 2025 a 300 nel 2026. Inoltre, si prevede l’implementazione di 150 progetti di IA entro il 2025, destinati a crescere fino a 400 entro il 2026.

Imprese: Le misure a favore delle imprese hanno lo scopo di supportare la Transizione 4.0, favorire la nascita e la crescita di imprese innovative dell’IA e supportarle nella sperimentazione e certificazione dei prodotti di IA.

Formazione: Il programma include politiche per promuovere corsi e carriere nelle materie STEM e per rafforzare le competenze digitali e in Intelligenza Artificiale.

Infine, si prevede la creazione di una Fondazione per l’IA che coordinerà l’attuazione della strategia. Questi passaggi rappresentano un impegno significativo per l’Italia nel campo dell’Intelligenza Artificiale.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

L’impronta di carbonio dell’Intelligenza Artificiale è più grande di quanto pensi, affermano le scienziate del MIT

Non sono io a dirlo ma alcune studiose del MIT. Sasha Luccioni, con Emma Strubell e Yacine Jernite, hanno testato 88 modelli su 30 set di dati da 10 attività diverse con modalità diverse e hanno trovato cose davvero interessanti:

  • I compiti generativi e quelli che coinvolgono le immagini consumano più energia e carbonio rispetto ai compiti discriminativi e a quelli che coinvolgono il testo. Abbiamo scoperto che Stable Diffusion XL utilizza quasi 1 carica telefonica di energia per generazione.
  • La formazione continua ad essere molto più ad alta intensità di energia e di carbonio rispetto all’inferenza. Sono necessari dai 200 ai 500 milioni di deduzioni da un modello della famiglia BLOOM per raggiungere la quantità di energia utilizzata durante l’allenamento. Ma questo può essere raggiunto abbastanza velocemente per un modello popolare utilizzato da milioni di utenti, come ChatGPT.

L’utilizzo di modelli multiuso per compiti discriminativi richiede un maggiore dispendio energetico rispetto ai modelli specifici per compiti per gli stessi compiti. Ciò è particolarmente vero per l’analisi del sentiment e la risposta alle domande. La differenza può essere un fattore di 30 volte a seconda del set di dati.

Ma c’è una cosa di cui la gente non parla abbastanza, ed è l’impronta di carbonio dell’Intelligenza Artificiale. Uno dei motivi è che le grandi aziende tecnologiche non condividono l’impronta di carbonio della formazione e dell’utilizzo dei loro enormi modelli, e non disponiamo di  metodi standardizzati per misurare  le emissioni di cui è responsabile l’intelligenza artificiale. E anche se sappiamo che  addestrare modelli di Intelligenza Artificiale è altamente inquinante , le emissioni attribuibili all’utilizzo  dell’Intelligenza  Artificiale finora sono state un tassello mancante. Cioè, fino ad ora. 

In un nuovo studio condotto dai ricercatori della startup AI Hugging Face e della Carnegie Mellon University, generare un’immagine utilizzando un potente modello di Intelligenza Artificiale richiede la stessa quantità di energia necessaria per caricare completamente uno smartphone. Tuttavia, hanno scoperto che l’utilizzo di un modello di Intelligenza Artificiale per generare testo richiede molta meno energia. La creazione di testo 1.000 volte consuma solo il 16% della carica completa di uno smartphone.

Il loro lavoro, che deve ancora essere sottoposto a revisione paritaria, mostra che, sebbene l’addestramento di enormi modelli di Intelligenza Artificiale richieda un’enorme quantità di energia, è solo una parte del quadro. La maggior parte della loro impronta di carbonio deriva dal loro utilizzo effettivo.

Lo studio segna la prima volta che i ricercatori calcolano le emissioni di carbonio causate dall’utilizzo di un modello di Intelligenza Artificiale per vari compiti, secondo Sasha Luccioni, ricercatrice di intelligenza artificiale presso Hugging Face che ha guidato il lavoro. Spera che la comprensione di queste emissioni possa aiutarci a prendere decisioni informate su come utilizzare l’intelligenza artificiale in un modo più rispettoso del pianeta.

Il consumo di energia e l’impronta di carbonio dell’intelligenza artificiale sono un argomento sempre più importante con la crescita dell’uso dei sistemi di intelligenza artificiale.

Il consumo energetico dei sistemi di Intelligenza Artificiale può essere suddiviso in due fasi principali: addestramento e inferenza.

La fase di formazione, che prevede l’insegnamento del modello di Intelligenza Artificiale utilizzando grandi quantità di dati, è in genere più dispendiosa in termini di energia.

La fase di inferenza, che prevede l’utilizzo del modello addestrato per effettuare previsioni o decisioni, generalmente consuma meno energia ma può comunque accumularsi nel tempo, soprattutto per i sistemi che effettuano previsioni frequenti.

Il consumo energetico dei sistemi di Intelligenza Artificiale è in gran parte determinato dall’hardware e dall’infrastruttura che utilizzano. Ciò include i computer e i server utilizzati per l’addestramento e l’inferenza, nonché i data center che ospitano questi sistemi. Hardware e infrastrutture più efficienti dal punto di vista energetico possono ridurre significativamente il consumo di energia e l’impronta di carbonio dei sistemi di intelligenza artificiale.

La generazione di immagini è di gran lunga l’attività basata sull’Intelligenza Artificiale più dispendiosa in termini di energia e carbonio.

La generazione di 1.000 immagini con un potente modello di intelligenza artificiale, come Stable Diffusion XL, è responsabile della produzione di una quantità di anidride carbonica pari a quella di guidare l’equivalente di 4,1 miglia in un’auto media a benzina.

L’impronta di carbonio dei sistemi di Intelligenza Artificiale dipende anche dalle fonti energetiche utilizzate per alimentarli. I sistemi di Intelligenza Artificiale alimentati da fonti di energia rinnovabile, come l’energia eolica o solare, hanno un’impronta di carbonio inferiore rispetto a quelli alimentati da combustibili fossili.

ESG – La ricerca di Luccioni evidenzia anche come le emissioni legate all’uso dell’intelligenza artificiale dipenderanno da dove verrà utilizzata, afferma Jesse Dodge, ricercatore presso l’Allen Institute for AI, che non ha preso parte allo studio. L’impronta di carbonio dell’intelligenza artificiale in luoghi in cui la  rete elettrica è relativamente pulita, come la Francia , sarà molto inferiore rispetto a luoghi con una rete fortemente dipendente dai combustibili fossili, come alcune parti degli Stati Uniti.

Esistono varie strategie per rendere i sistemi di AI più efficienti dal punto di vista energetico, come l’utilizzo di modelli più piccoli, l’ottimizzazione di algoritmi per l’efficienza energetica o l’utilizzo di tecniche come la potatura o la quantizzazione per ridurre i requisiti computazionali dei modelli di AI.

Politiche e normative: le politiche e le normative possono svolgere un ruolo chiave nel ridurre il consumo di energia e l’impronta di carbonio dell’AI. Ciò potrebbe comportare la definizione di standard di efficienza energetica per i sistemi di intelligenza artificiale, l’incentivazione dell’uso di energie rinnovabili o la richiesta alle aziende di segnalare e ridurre le proprie emissioni di carbonio.

Ecco alcuni numeri che evidenziano il consumo energetico e l’impronta di carbonio dell’AI:

Uno studio pubblicato su Nature Climate Change nel 2019 ha stimato che l’addestramento di un singolo modello di intelligenza artificiale può emettere tanto carbonio quanto cinque automobili nel corso della loro vita. Ciò equivale a circa 284.000 libbre (129.000 chilogrammi) di anidride carbonica.
Secondo un rapporto del 2020 dell’Agenzia internazionale per l’energia (IEA), i data center, che ospitano molti sistemi di intelligenza artificiale, rappresentano circa l’1% del consumo globale di elettricità. Ciò equivale all’incirca al consumo di elettricità dell’intero paese dell’Australia.

Uno studio del 2020 condotto da ricercatori dell’Università del Massachusetts, Amherst, ha stimato che l’energia utilizzata per l’inferenza dell’intelligenza artificiale nei data center potrebbe rappresentare il 2,5% del consumo globale di elettricità entro il 2030.


Un rapporto del 2020 di OpenAI ha rilevato che la quantità di potenza di calcolo utilizzata nelle più grandi sessioni di formazione sull’intelligenza artificiale è raddoppiata ogni 3,4 mesi dal 2012. Tuttavia, il rapporto ha anche osservato che i miglioramenti nell’efficienza dell’hardware hanno aiutato per compensare parte di questo aumento del consumo di energia.

Alcune aziende di intelligenza artificiale stanno compensando le proprie emissioni di carbonio. Ad esempio, Google è a zero emissioni di carbonio dal 2007 e mira a operare con energia priva di emissioni di carbonio 24 ore su 24, 7 giorni su 7 in tutti i suoi data center e campus in tutto il mondo entro il 2030.

L’Unione Europea ha fissato l’obiettivo di ridurre le proprie emissioni di gas serra di almeno il 55% entro il 2030 rispetto ai livelli del 1990, e di raggiungere l’azzeramento delle emissioni nette entro il 2050. Questi obiettivi potrebbero portare a riduzioni il consumo energetico e l’impronta di carbonio dell’intelligenza artificiale nell’UE.

Inclusive AI vs Bias computazionale

Nell’esplorare il mondo dell’Intelligenza Artificiale, dobbiamo porci una domanda fondamentale: è veramente inclusiva?

Non basta semplicemente incoraggiare le ragazze ad avvicinarsi alle discipline STEM.
Dobbiamo affrontare con determinazione i pregiudizi radicati all’interno dell’AI stessa.
Solo così potremo creare un futuro in cui tutti possano partecipare pienamente e equamente alla rivoluzione tecnologica.”

Nvidia’s Dominance in AI Infrastructures: A Look at the Competition and the Future of AI Chips

I believe that NVIDIA’s moat is currently quite wide, but it appears to have a significant weak point that clever researchers and well-funded newcomers are beginning to try to exploit. NVIDIA initially developed its GPUs and CPUs for non-artificial intelligence specific activities. The computing power provided turned out to be translatable into deep learning and other artificial intelligence capabilities, placing NVIDIA in a particularly strong position as demand for artificial intelligence began to increase exponentially. However, the key point here is that it developed its significant infrastructure suitable for computing activities that are not specifically designed for artificial intelligence. This does not mean that NVIDIA is not aware of it; they are absolutely and will do everything in their power to develop systems and infrastructures that commit to focusing on artificial intelligence first and foremost in the units developed in the future.

However, there is still a certain window here for new companies to potentially gain a share of the market if they challenge NVIDIA, Google, and other leading tech companies in developing chips specifically designed for AI workloads from scratch. The main competitive advantage that these AI-specific chips would have is efficiency in AI workloads, which represents a huge strength as consumers begin to expect faster inferences from AI systems. It is not unlikely that a company much smaller than NVIDIA could effectively achieve all of this, but in my opinion, it takes the right teams with the right funding and the right ingenuity to be able to properly manifest these projects and then have them adopted on a large scale.

Companies like Groq and other less well-known startups are already doing this. But in my opinion and from my research, Groq seems to have the highest advantage here and should offer a rather convincing rival to NVIDIA in the artificial intelligence market in the coming years. It offers a Tensor Streaming Processor architecture that, unlike traditional GPUs and CPUs, provides a deterministic and software-defined approach. This reduces latency and increases efficiency. Moreover, its single-core design allows for high-speed data processing, making it much more attractive for AI-based calculations. Groq’s chips are designed to deliver faster performance in certain AI activities than traditional GPUs, as they are designed to perform trillions of operations per second.

Other major competitors to NVIDIA also include Cerebras and SambaNova. Cerebras offers a very powerful single-chip processor and SambaNova offers an integrated hardware and software system powered by AI-specific chips.

Cerebras has a huge AI chip called the Wafer Scale Engine, which is much larger than traditional chips and takes up almost an entire silicon wafer. Therefore, it has unprecedented computing power and stands out as a significant competitor. Its latest version, called the Wafer Scale Engine 2, contains 2.6 trillion transistors and 850,000 cores, making it the largest chip ever built. This allows for fast and efficient AI activities while minimizing data movement.

SambaNova’s integrated hardware and software solution through its DataScale system is powered by chips that use its reconfigurable dataflow architecture. This allows for adaptable and scalable AI processing and is quite interesting as it offers flexibility to companies that need a range of different levels of processing that vary depending on the needs of their machine learning activities at specific times.

We should remember that NVIDIA will not be dethroned from its first place in AI infrastructures due to its growing moat, but the part of the market that focuses on the current large gap in NVIDIA’s strategic focus, which it now needs to bridge by readjusting, could do very well. I think the challenge will be whether the companies trying to compete with NVIDIA in this sense will be able to remain vital once NVIDIA adapts accordingly to the technological change and comes back with mass production. I believe that the only option for smaller competitors is to focus strictly on quality. I believe that ingenuity and design strength could far outperform NVIDIA, even for a long time. Even though NVIDIA might be the biggest, it might not be the best.


If NVIDIA is eventually seen as the company with the largest offering of computing infrastructures but does not offer the best AI-specific chips in terms of efficiency, at least for a while, this could mean that the stock valuation is too high at the moment. What NVIDIA offers, which I believe is compelling and its most significant competitive advantage, is a full-stack ecosystem for high-computing activities, including AI, which it continues to develop. This is probably what the market wants and requires through the very high valuation. However, if suddenly NVIDIA were seen as the main provider of this, but as the second best in terms of AI-specific workloads, I think that NVIDIA’s valuation could undergo a moderate correction. In light of this risk for NVIDIA, I think it is wise for NVIDIA shareholders to be cautious in the short-medium term. My opinion is that NVIDIA’s valuation at this moment is not too high based on the long-term dependence that the world will have on the NVIDIA ecosystem, but in the short-medium term the stock valuation could be seen as too optimistic given that some major competitors of NVIDIA are emerging that should moderately, but successfully, disrupt the idea of NVIDIA as such a dominant provider of quality in AI workloads. However, NVIDIA’s continuous AI innovations and integrations could mitigate these risks, especially considering its funding power compared to smaller and newer companies.


I think that Jensen Huang is an exceptional entrepreneur and executive. He has inspired many of my thoughts and works and it is well documented that he actively seeks out and evaluates NVIDIA’s competition daily when he realizes that it is true that other companies are trying to take away NVIDIA’s market leader position. This presents quite powerfully what other newcomers are up against, and I believe that his ethic is the foundation of the wide and growing moat that NVIDIA shareholders are getting used to. NVIDIA, without exaggeration, is an exceptional company.

As I mentioned above in my analysis of operations, I believe that NVIDIA has its strength in its full-stack ecosystem. In this area, I believe it will be substantially impossible for competitors to effectively compete for NVIDIA’s market share in a significant way. This is why I think Mr. Huang has done an excellent job in consolidating and solidifying NVIDIA’s position as the most advanced (and well-funded) technology company that develops AI tools. This is also why I believe that NVIDIA remains a fantastic long-term buy.

I believe that NVIDIA’s CUDA deserves special mention here, as it is the architecture that enables a full range of customers to enable NVIDIA’s GPUs for generic processing. I think this is incredibly smart for NVIDIA to do, as it allows them to leverage the power of their own units for multiple purposes through software integration. What it does is democratize the power of NVIDIA’s hardware infrastructure, but what Groq and other startups might be able to do is focus on the niche of AI-specific workloads and design hardware that is absolutely focused only on these tasks. Undoubtedly, this will be faster compared to moderating the high-power units for variable workloads, including AI. However, the versatility of generic GPUs offers broader applicability, which is also crucial in environments that require multiple types of workloads managed simultaneously.

While NVIDIA has to face competition from AMD (AMD), which has also developed an AI ecosystem called ROCm, AMD’s platform is significantly less complete and currently does not have a set of AI-specific features like NVIDIA’s. Instead, AMD’s main competitive focus is to provide high-performance processing from its chip designs at a competitive cost. AMD is still aggressively pursuing improvements in its GPU capabilities and the ROCm ecosystem to support AI and machine learning workloads. For some aspects, if AMD were to focus skillfully on the specific development of AI chips, as Groq does, then it could have a much more significant competitive advantage over NVIDIA. However, this should not underestimate the fact that AMD is generally strategically balancing its attention to AI in its total product portfolio. AMD, like NVIDIA, was not initially an AI company.


While NVIDIA is a leader in the field of AI computing infrastructures, it has become evident that there is a momentary opening for innovators to capture the latency in NVIDIA’s chip configurations. In the near future, I believe it is possible that NVIDIA will be seen as the largest and best AI development ecosystem, but it could find itself, at least for a period, outpaced by competition in chip design from smaller companies focused on direct market quality of chips and units specifically designed for AI. Ultimately, NVIDIA was not initially an AI company; it might take a company dedicated to AI from the beginning to truly deliver the quality that the AI consumer market is about to demand.

Universal-1: il modello di riconoscimento vocale più capace e addestrato di AssemblyAI

Assembly AI afferma che il suo nuovo modello Universal-1 ha il 30% in meno di allucinazioni rispetto a Whisper.

In un post sul blog, l’azienda descrive Universal-1 come “un’altra pietra miliare nella nostra missione di fornire funzionalità di sintesi vocale accurate, fedeli e robuste per più lingue, aiutando i nostri clienti e sviluppatori in tutto il mondo a creare varie applicazioni di intelligenza artificiale vocale“.

AssemblyAI ha recentemente lanciato Universal-1, il loro modello di riconoscimento vocale più capace e addestrato1. Addestrato su oltre 12,5 milioni di ore di dati audio multilingue, Universal-1 raggiunge un’accuratezza di trascrizione da voce a testo di prim’ordine, riduce il tasso di errore delle parole e le allucinazioni, migliora la stima dei timestamp e aiuta AssemblyAI a continuare a elevare l’asticella come fornitore leader di Speech AI.

Multilinguismo e Precisione
Universal-1 è addestrato su quattro lingue principali: inglese, spagnolo, francese e tedesco, e mostra un’accuratezza di trascrizione da voce a testo estremamente forte in quasi tutte le condizioni, compresi rumore di fondo pesante, discorso accentato, conversazioni naturali e cambiamenti di lingua, pur raggiungendo un rapido tempo di risposta e una migliore precisione dei timestampi.

Utilizzo Efficiente delle Risorse
La maggior parte della potenza di calcolo viene sprecata perché non tutti i token sono ugualmente difficili da prevedere. Universal-1 assegna dinamicamente il calcolo nei modelli transformer, ottimizzando l’uso delle risorse pur garantendo l’accuratezza1. Elabora selettivamente i token complessi e salta quelli più semplici, riducendo significativamente il sovraccarico computazionale.

Applicazioni di Universal-1
Con Universal-1, AssemblyAI ha cercato di costruire sulle prestazioni leader del settore dei suoi modelli precedenti, e ha progettato questo nuovo modello guidato dall’idea che l’accuratezza di ogni parola conta. I clienti che utilizzano i modelli di Speech AI di AssemblyAI hanno costruito prodotti che possono riassumere videochiamate con note chiare e punti di azione, automatizzare esperienze di servizio clienti e aiutare le organizzazioni a comprendere la voce dei loro clienti con intuizioni da ogni interazione con il cliente.

In conclusione, Universal-1 è un passo avanti significativo nel campo del riconoscimento vocale. Con la sua capacità di gestire dinamicamente il calcolo e la sua formazione su un vasto set di dati multilingue, Universal-1 si pone come un modello di riconoscimento vocale leader nel settore, aprendo la strada a nuove possibilità nel campo dell’Intelligenza Artificiale.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Google DeepMind ha recentemente presentato Mixture-of-Depths (MoD), un metodo che aumenta la velocità di elaborazione fino al 50%

Google DeepMind ha recentemente presentato Mixture-of-Depths (MoD), un metodo che aumenta la velocità di elaborazione fino al 50% in compiti come l’elaborazione del linguaggio naturale e la previsione di sequenze complesse.

La maggior parte della potenza di calcolo viene sprecata perché non tutti i token sono ugualmente difficili da prevedere. Questo nuovo metodo assegna dinamicamente il calcolo nei modelli transformer, ottimizzando l’uso delle risorse pur garantendo l’accuratezza. Elabora selettivamente i token complessi e salta quelli più semplici, riducendo significativamente il sovraccarico computazionale.

All’interno dei computer, i testi come quelli prodotti da ChatGPT sono rappresentati in forma numerica, e ogni operazione eseguita su di essi è un’enorme sequenza di semplici operazioni matematiche.

Dato che i numeri decimali sono rappresentati in formato “floating point” (“a virgola mobile”), è naturale contare quante operazioni elementari (per esempio addizioni) su tali numeri possono essere eseguite in un certo tempo: floating point operations, ovvero FLOPs

transformers sono modelli di apprendimento automatico basati sull’attenzione (attention-based) per elaborare sequenze di input, come le sequenze di parole in un testo. L’attenzione permette al modello di dare maggiore peso a determinate parti dell’input, in modo da prestare maggiore attenzione a informazioni rilevanti e ignorare informazioni meno importanti.

Questa capacità di prestare attenzione a parti specifiche dell’input rende i transformers particolarmente adatti all’elaborazione del linguaggio naturale, dove l’informazione rilevante può essere dispersa all’interno di una sequenza di parole.

I modelli di linguaggio basati su transformer distribuiscono uniformemente i FLOP attraverso le sequenze di input.

In questo lavoro, i ricercatori dimostrano che i transformer possono invece imparare a assegnare dinamicamente i FLOP (o calcoli) a posizioni specifiche in una sequenza, ottimizzando l’allocazione lungo la sequenza per diversi strati attraverso la profondità del modello. Il nostro metodo impone un budget totale di calcolo limitando il numero di token (k) che possono partecipare ai calcoli di self-attention e MLP in un dato strato.

I token da elaborare sono determinati dalla rete utilizzando un meccanismo di instradamento top-k. Poiché k è definito a priori, questa semplice procedura utilizza un grafo di calcolo statico con dimensioni di tensori note, a differenza di altre tecniche di calcolo condizionale. Tuttavia, poiché le identità dei token k sono fluide, questo metodo può sprecare i FLOP in modo non uniforme attraverso le dimensioni del tempo e della profondità del modello.

Quindi, la spesa di calcolo è completamente prevedibile nel totale complessivo, ma dinamica e sensibile al contesto a livello di token. Non solo i modelli addestrati in questo modo imparano a assegnare dinamicamente il calcolo, ma lo fanno in modo efficiente. Questi modelli corrispondono alle prestazioni di base per FLOP equivalenti e tempi di addestramento, ma richiedono una frazione dei FLOP per passaggio in avanti e possono essere più veloci del 50% durante il campionamento post-addestramento.

Questo documento è un altro promemoria che i Modelli di Linguaggio a Lungo Termine (LLM) sono ancora nelle loro prime fasi: lenti, ampi e inefficienti. Creare modelli economici e veloci aprirà un mondo di possibilità, come la capacità di eseguire modelli localmente sui nostri telefoni e GPU. Potrebbe anche ridurre drasticamente i costi di addestramento e esecuzione degli LLM.

Google DeepMind published a paper outlining SELF-DISCOVER, a somewhat of a novel take on LLM reasoning.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

L’AI come strumento per l’empowerment nelle Regioni in via di sviluppo

Quando riflettiamo sul ruolo dell’Intelligenza Artificiale, è importante considerare non solo l’impatto nei Paesi in via di sviluppo, ma anche l’effetto globale e il potenziale per favorire l’empowerment femminile.

Una Prospettiva globale: l’AI ha un impatto su scala globale, quindi è essenziale considerare come le sue applicazioni e sviluppi influenzino le donne in tutto il mondo. Anche nei Paesi meno sviluppati, le donne possono beneficiare dell’Intelligenza Artificiale in settori come la salute, l’istruzione, l’economia e altro ancora.

Il Digital Markets Act e le implicazioni per le Big Tech: Riflessioni e Prospettive

Il Digital Markets Act (DMA) è una proposta legislativa dell’Unione Europea (UE) volta a regolare le grandi piattaforme digitali, spesso indicate come “Big Tech”, che detengono una posizione dominante nel mercato digitale. Il DMA è parte integrante del pacchetto di riforme digitali dell’UE, insieme al Digital Services Act (DSA), e mira a promuovere la concorrenza equa nel mercato digitale europeo.

In un recente articolo della Prof.ssa Paola Pisano che cosa cambia per le Bigtech dopo il DMA, evidenzia come il DMA potrebbe ridurre il potere di mercato delle Big Tech, favorendo la concorrenza e promuovendo l’innovazione nel settore tecnologico. Tuttavia, sottolinea anche le preoccupazioni riguardo alla complessità delle normative proposte e alla loro possibile efficacia nell’affrontare le preoccupazioni riguardanti il potere delle Big Tech.

Lo stesso articolo cita il Caso Groq, il suo chip Tensor Streaming Processor (TSP), progettato appositamente per accelerare il training e l’inferenza di reti neurali artificiali, il quale ha attirato l’attenzione sia degli investitori che dei giganti tecnologici grazie alla sua tecnologia di punta. Tuttavia, la startup ha anche affrontato sfide, tra cui la competizione con altre aziende nel settore dei chip AI e la necessità di dimostrare l’efficacia e l’affidabilità del suo prodotto in un mercato altamente competitivo.

Nel complesso, Groq rappresenta un interessante caso di studio nel campo dell’innovazione tecnologica, mostrando come le startup possano sfidare i giganti consolidati con idee e approcci innovativi. Il successo futuro di Groq dipenderà dalla sua capacità di continuare a sviluppare e commercializzare la sua tecnologia in un modo che risponda alle esigenze del mercato e superi la concorrenza.

Questo mi ha spinto un riflessione personale.

Nell’era digitale sempre più interconnessa in cui viviamo, le grandi piattaforme tecnologiche hanno acquisito un’influenza senza precedenti sulla nostra vita quotidiana, svolgendo un ruolo centrale nell’economia globale.

Tuttavia, con il loro crescente potere e dominio nel mercato digitale, sono emerse preoccupazioni riguardo alla mancanza di concorrenza equa, alla protezione dei dati degli utenti e alla trasparenza delle loro pratiche commerciali. In risposta a queste preoccupazioni, l’Unione Europea ha proposto il Digital Markets Act (DMA), una legislazione mirata a regolare le grandi piattaforme digitali al fine di promuovere una maggiore concorrenza e proteggere i consumatori.

Tuttavia, il DMA ha suscitato un acceso dibattito riguardo alle sue implicazioni e alla sua efficacia nel risolvere le sfide nel mercato digitale.”

Alcuni analisti finanziari potrebbero vedere il DMA come un importante passo avanti nella regolamentazione delle grandi piattaforme digitali, in quanto mira a promuovere una maggiore concorrenza nel settore e a proteggere i consumatori dai potenziali abusi di posizione dominante da parte delle Big Tech. Questi analisti potrebbero ritenere che la regolamentazione delle piattaforme digitali dominanti possa contribuire a ridurre il rischio sistematico nel settore tecnologico e promuovere una maggiore stabilità nei mercati finanziari.

Tuttavia, altri analisti potrebbero essere preoccupati per le possibili conseguenze negative del DMA sulle grandi società tecnologiche e sui mercati finanziari. Potrebbero temere che eccessive restrizioni alle attività delle Big Tech possano ridurre l’innovazione nel settore e danneggiare la competitività dell’Europa rispetto ad altre regioni del mondo. Questi analisti potrebbero anche preoccuparsi delle implicazioni per gli investitori nel settore tecnologico e per i mercati azionari europei nel loro complesso.

Un’altra area di interesse riguarda l’implementazione e l’applicazione del DMA. Considerando le sfide pratiche e le possibili disparità nell’applicazione tra gli Stati membri dell’UE, sarà fondamentale sviluppare meccanismi efficaci per garantire una regolamentazione uniforme e coerente in tutto il mercato unico digitale europeo.

Una regolamentazione non uniforme potrebbe portare alla frammentazione del mercato digitale, con regole diverse che si applicano in paesi diversi. Questo potrebbe rendere difficile per le aziende operare su più mercati e potrebbe creare un ambiente poco chiaro e confuso per gli utenti e gli operatori del mercato, una disuguaglianza di trattamento tra le grandi piattaforme digitali, a seconda del paese in cui operano e a una concorrenza sleale, con regole diverse (pensiamo alla privacy) che si applicano in diversi paesi, le grandi piattaforme digitali potrebbero trovarsi ad affrontare una maggiore complessità amministrativa e burocratica nel rispettare le diverse normative.

Se alcuni stati ad esempio UK (brexit) considerassero il DMA come un’interferenza eccessiva negli affari interni e una limitazione della sua sovranità decisionale, potrebbero opporsi attivamente alle misure proposte. Oppure vedessero le grandi piattaforme digitali come un motore importante per l’economia e l’innovazione, potrebbero essere riluttante ad adottare misure che limitino il loro potere o che possano danneggiare la loro competitività.

In un contesto di negoziati post-Brexit e di sviluppo di nuove relazioni commerciali, il Regno Unito potrebbe cercare di bilanciare le proprie posizioni politiche e diplomatiche con l’Unione Europea e altri attori internazionali, potenzialmente ostacolando l’adozione del DMA.

Al di fuori di questi scenari geopolitici iIl DMA potrebbe offrire opportunità significative per le piccole e medie imprese (PMI) e le startup nel settore tecnologico. La condivisione dei dati e altre misure proposte potrebbero consentire loro di competere in modo più equo con le Big Tech, favorendo così l’innovazione e la diversificazione nel mercato digitale.

Sarà interessante osservare le reazioni delle grandi società tecnologiche di fronte al potenziale impatto del DMA sul loro modello di business e sul loro dominio di mercato. Le strategie adottate dalle Big Tech per conformarsi alle nuove normative potrebbero avere profonde implicazioni per il futuro del settore tecnologico e per l’evoluzione del panorama digitale europeo.

Il DMA si inserisce in un contesto più ampio di sforzi internazionali per regolare le grandi piattaforme digitali e promuovere la concorrenza nel settore tecnologico.

Stati Uniti: Negli Stati Uniti, ci sono state molte discussioni e proposte legislative volte a regolare le grandi piattaforme tecnologiche. Ad esempio, ci sono state udienze antitrust al Congresso e un’indagine da parte della Federal Trade Commission (FTC) sulla condotta anticoncorrenziale di alcune di queste aziende.

Cina: Anche in Cina, dove le grandi aziende tecnologiche hanno un forte controllo sul mercato digitale, sono state adottate misure per regolare il settore. Ad esempio, ci sono stati interventi governativi per limitare il potere delle piattaforme digitali e garantire una concorrenza più equa.

G7 e G20: I paesi del G7 e del G20 hanno discusso ampiamente questioni legate alla regolamentazione delle piattaforme digitali e alla promozione della concorrenza nel settore tecnologico. Inoltre, sono state discusse strategie coordinate per affrontare le sfide globali legate al potere delle grandi piattaforme digitali.

Organizzazioni internazionali: Organizzazioni internazionali come l’Organizzazione Mondiale del Commercio (OMC) e l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) sono coinvolte nel dibattito sulla regolamentazione delle piattaforme digitali e lavorano per sviluppare norme e regolamenti globali in materia.

La cooperazione internazionale sarà cruciale per affrontare le sfide globali legate al potere delle Big Tech e per garantire un ambiente digitale sicuro ed equo per tutti gli utenti.

In conclusione, il Digital Markets Act rappresenta un importante passo avanti nella regolamentazione delle piattaforme digitali dominanti e nella promozione della concorrenza nel settore tecnologico europeo.

Tuttavia, sarà fondamentale monitorare da vicino l’implementazione e l’applicazione delle nuove normative, così come le reazioni delle Big Tech e le conseguenze sulle PMI e sulle startup. Solo attraverso una regolamentazione equilibrata e una collaborazione internazionale efficace sarà possibile garantire un futuro digitale prospero e inclusivo per tutti.

DMA Annual Report 2023

Apple presenta ReALM: la nuova intelligenza artificiale più avanzata

Il CEO Tim Cook ha dichiarato a febbraio durante un’assemblea degli azionisti online :

Entro la fine dell’anno – ha detto Cook – non vedo l’ora di condividere con voi i modi in cui apriremo nuovi orizzonti nell’intelligenza artificiale generativa, un’altra tecnologia che crediamo possa ridefinire il futuro”.

Apple – ha proseguito – ha preso atto dell’incredibile potenziale rivoluzionario dell’intelligenza artificiale generativa e sta investendo in modo significativo in questo settore”. 

ReALM è la nuova intelligenza artificiale di Apple che, a differenza di molte altre AI, può comprendere un contesto, inclusi i suoi elementi ambigui, senza che questi debbano essere necessariamente indicati e specificati dall’interlocutore. Questo le permette di cogliere sottotesti in modo più dettagliato, consentendo interazioni più naturali con gli utenti.

La risoluzione di questo problema è una parte importante della comprensione del linguaggio naturale, poiché consente agli utenti di utilizzare pronomi e altri riferimenti indiretti senza generare confusione nella macchina. Nella creazione degli assistenti digitali, lo sviluppo della capacità di comprensione delle anafore, applicato a segnali verbali e informazioni visive, ha rappresentato storicamente una sfida significativa.

Il sistema ReALM di Apple cerca di risolvere questo problema convertendo il complesso processo di risoluzione dei riferimenti in un puro problema di modellazione del linguaggio. In tal modo, può comprendere riferimenti a elementi visivi visualizzati su uno schermo e integrare in automatico questa comprensione. Questo rappresenta un passo avanti significativo nel campo dell’intelligenza artificiale.

La “risoluzione delle anafore” è un concetto chiave nel campo dell’intelligenza artificiale e del linguaggio naturale. Le anafore sono espressioni linguistiche che fanno riferimento a un elemento o a un concetto precedentemente menzionato nel discorso. Ad esempio, in una frase come “Mario ha preso il suo cappello. Lo indossa sempre”, “lo” è un’anafora che si riferisce a “il suo cappello”.

La sfida della risoluzione delle anafore consiste nel permettere a un sistema di intelligenza artificiale di capire a cosa si riferiscono queste espressioni anaforiche nel contesto del discorso. Questo è fondamentale per la comprensione del linguaggio naturale, poiché consente agli utenti di utilizzare pronomi e altri riferimenti indiretti senza generare confusione nella macchina.

Nel caso di Apple e del suo sistema ReALM, l’obiettivo è quello di convertire il complesso processo di risoluzione dei riferimenti in un puro problema di modellazione del linguaggio. In questo modo, ReALM può comprendere riferimenti a elementi visivi visualizzati su uno schermo e integrare automaticamente questa comprensione. Questo rappresenta un passo avanti significativo nel campo dell’intelligenza artificiale e della comprensione del linguaggio naturale.

Il più recente documento di ricerca di Apple del 29 Marzo suggerisce che diventera’ un gigante tecnologico quando sarà il “vincitore dell’AI” una volta risolto il problema dell’implementazione su dispositivo che può abilitare un “superciclo” dell’iPhone, hanno detto gli analisti di Evercore ISI. ( nient’altro che una transazione di massa dai vecchi modelli di iPhone a quelli più recenti)

La ricerca, pubblicata lunedì, descrive il nuovo modello linguistico di Apple, noto come Reference Resolution As Language Modeling, o ReALM. I ricercatori hanno indicato che i modelli ReALM più piccoli presentavano prestazioni simili a quelle del GPT-4 di OpenAI, seppur con meno parametri. Ciò potrebbe consentire al nuovo modello di offrire l’AI al limite, o dispositivi come smartphone e PC, fornendo la stessa funzionalità dell’AI nei data center.

“L’innovazione chiave qui sembra essere intorno alla risoluzione dei riferimenti, che si riferisce a come l’AI (Multimodale) può comprendere i riferimenti ai dati visualizzati sullo schermo così come il contesto più conversazionale”, ha affermato l’analista di Evercore ISI Amit Daryanani.

Apple semplifica il compito normalmente complesso della risoluzione dei riferimenti convertendo tutti i dati visualizzati sullo schermo in testo, che è molto più facile per un [grande modello linguistico] da analizzare rispetto alle immagini. Questa è la caratteristica chiave che consente ad Apple di offrire prestazioni elevate con un numero limitato di parametri.”

Offrendo strumenti di intelligenza artificiale su dispositivi consumer (e forse aumentando l’utilità di Siri), Apple potrebbe offrire agli sviluppatori una latenza inferiore, una migliore sicurezza e rendere più facile e meno costoso fare lavoro correlato all’AI, ha detto Daryanani.

“Pensiamo che la strategia di AI di Apple si concentrerà sull’incorporare l’inferenza su dispositivo per [grandi modelli linguistici] che alzeranno notevolmente l’esperienza utente non solo per l’iPhone ma anche per Mac/iPad”, ha spiegato Daryanani. “

Date la loro integrazione verticale e soprattutto il loro controllo sul proprio silicio, AAPL è meglio posizionata non solo per espandere il fossato che circonda l’ecosistema iOS ma anche potenzialmente guidare un ciclo di aggiornamento accelerato qualora l’implementazione finale venga considerata un cambiamento sufficientemente grande.”

Ha proseguito: “Il ciclo di aggiornamento probabilmente sarà guidato da aggiornamenti significativi all’hardware incluso un motore neurale o GPU potenzialmente migliorato. Inoltre, un aggiornamento sufficientemente significativo delle capacità potrebbe potenzialmente portare a un aumento nei [prezzi medi di vendita].”

Apple è pronta per dare il via alla sua conferenza annuale per sviluppatori il 10 giugno, dove molti si aspettano che la gigante tecnologica faccia una serie di annunci relativi all’AI.

Perchi volesse approfondire :

L’Intelligenza Artificiale (AI) multimodale si riferisce a sistemi di AI che possono processare, capire e/o generare output per più di un tipo di dati. Questo include la combinazione di diverse modalità di input e output, come immagini, testo, suono e video. L’obiettivo è migliorare la comprensione e le capacità di ragionamento dei sistemi di intelligenza artificiale.

Il documento di ricerca “MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training” discute la costruzione di modelli di linguaggio di grandi dimensioni multimodali efficienti (MLLMs). In particolare, studia l’importanza di vari componenti architettonici e scelte di dati. Attraverso ablazioni accurate e complete dell’encoder di immagini, del connettore linguaggio-visione e di varie scelte di dati di pre-addestramento, i ricercatori hanno identificato diverse lezioni di design cruciali.

Per esempio, dimostrano che per un pre-addestramento multimodale su larga scala, l’utilizzo di un mix attento di dati di didascalia di immagini, testo di immagini intercalate e dati solo di testo è fondamentale per ottenere risultati di riferimento pochi colpi allo stato dell’arte (SOTA state of the art), rispetto ad altri risultati di pre-addestramento pubblicati.

I modelli MM1, addestrati su dati visivi e linguistici, hanno dimostrato di eccellere in attività come la descrizione di immagini, la risposta a domande a partire da immagini e l’inferenza in linguaggio naturale. Grazie al pre-addestramento su larga scala, MM1 gode di proprietà interessanti come l’apprendimento migliorato nel contesto e il ragionamento multi-immagine, consentendo il prompting a catena di pensiero con pochi colpi.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

AB-331 il D.L. dalla California contro la discriminazione algoritmica

La California si pone in prima linea nell’affrontare le sfide legate all’Intelligenza Artificiale (AI), con particolare attenzione alla sicurezza e all’equità. Le iniziative legislative proposte mirano a regolamentare l’uso dell’AI sul luogo di lavoro e ad adattare le norme del lavoro per affrontare l’utilizzo di sistemi decisionali automatizzati.

Tuttavia, la sua più recente iniziativa adotta un approccio ancora più ampio, cercando di regolamentare gli strumenti utilizzati per prendere decisioni di vita rilevanti.

Nel gennaio del 2023, la membro dell’assemblea della California Rebecca Bauer-Kahan ha presentato il disegno di legge AB-331, che mira a vietare l’uso di strumenti decisionali automatizzati che contribuiscono alla discriminazione algoritmica.

Questa forma di discriminazione si verifica quando i sistemi algoritmici producono risultati sfavorevoli per le persone in base a caratteristiche come razza, colore, etnia, sesso, religione, età, origine nazionale, conoscenza limitata dell’inglese, disabilità, stato di veterano, informazioni genetiche, salute riproduttiva o altre classificazioni protette dalla legge statale.

Prima di essere sottoposto a revisione, il testo originale del disegno di legge vietava l’uso di strumenti decisionali automatizzati che contribuivano alla discriminazione. Tuttavia, in seguito a revisioni, le attività proibite sono state specificate in modo più dettagliato.

Attualmente, il disegno di legge è in fase di presentazione e potrebbe richiedere alcuni mesi prima di essere esaminato dalla commissione. Tuttavia, se approvato, avrebbe implicazioni significative per gli sviluppatori e gli utilizzatori di tali tecnologie.

Questo tipo di legislazione è cruciale per garantire che l’AI sia utilizzata in modo responsabile e equo, proteggendo i diritti e le libertà individuali. Nel seguito, presentiamo 10 punti chiave riguardanti il disegno di legge AB-331.

AB-331 prende di mira gli strumenti utilizzati per prendere decisioni consequenziali, che hanno un effetto legale, materiale o altro significativo sulla vita di un individuo in termini di impatto, accesso a, costo, termini o disponibilità di quanto segue:

Ecco dieci punti chiave riguardanti il disegno di legge AB-331:

  1. Scopo: Il disegno di legge mira a vietare l’uso di strumenti decisionali automatizzati che contribuiscono alla discriminazione algoritmica.
  2. Discriminazione Algoritmica: Si definisce discriminazione algoritmica il trattamento differenziale che sfavorisce le persone in base a caratteristiche come razza, colore, etnia, sesso, religione, età, origine nazionale, conoscenza limitata dell’inglese, disabilità, stato di veterano, informazioni genetiche, salute riproduttiva o altre classificazioni protette dalla legge statale.
  3. Iniziativa Legislativa: Il disegno di legge è stato introdotto dalla membro dell’assemblea della California, Rebecca Bauer-Kahan, nel gennaio 2023.
  4. Presentazione e Revisioni: Dopo essere stato sottoposto a revisione, il testo del disegno di legge è stato modificato per specificare in modo più dettagliato le attività proibite.
  5. Obiettivo di Equità: L’obiettivo principale del disegno di legge è garantire l’equità nell’uso dei sistemi decisionali automatizzati, proteggendo i diritti e le libertà individuali.
  6. Applicazioni Larghe: La legislazione si applica a una vasta gamma di contesti in cui vengono utilizzati strumenti decisionali automatizzati, inclusi ma non limitati al lavoro e ad altre decisioni cruciali nella vita quotidiana.
  7. Sfide Tecnologiche: Il disegno di legge affronta le sfide emergenti poste dall’IA, evidenziando la necessità di una regolamentazione per garantire un utilizzo responsabile e equo di tali tecnologie.
  8. Processo Legislativo: Attualmente, il disegno di legge è in fase di presentazione e deve ancora essere esaminato dalla commissione. Potrebbe richiedere alcuni mesi prima di essere portato avanti nel processo legislativo.
  9. Implicazioni per gli Sviluppatori: Se approvato, il disegno di legge avrà implicazioni significative per gli sviluppatori di sistemi decisionali automatizzati, richiedendo la conformità alle norme anti-discriminazione stabilite.
  10. Protezione dei Diritti Individuali: La legislazione mira a proteggere i diritti individuali e a garantire che l’IA sia utilizzata per migliorare la società senza perpetuare o amplificare le disparità esistenti.

Gli impatti del disegno di legge AB-331 sull’Intelligenza Artificiale (AI) potrebbero essere notevoli e variegati. Ecco alcuni possibili impatti:

  1. Sviluppo etico: Il disegno di legge mette in evidenza l’importanza di sviluppare e utilizzare l’IA in modo etico, responsabile ed equo, incoraggiando l’adozione di pratiche di sviluppo che minimizzino il rischio di discriminazione algoritmica.
  2. Accuratezza dei modelli: Gli sviluppatori potrebbero concentrarsi maggiormente sull’ottenimento di modelli di intelligenza artificiale più accurati e imparziali, riducendo così il rischio di produrre risultati discriminatori.
  3. Audit e trasparenza: Potrebbe esserci una maggiore richiesta di audit e trasparenza nei sistemi AI per comprendere meglio come vengono presi i decisioni e per identificare eventuali bias algoritmici.
  4. Innovazione regolamentata: Le restrizioni imposte dal disegno di legge potrebbero influenzare l’innovazione nel settore dell’IA, con alcuni sviluppatori che potrebbero sentirsi limitati nei loro sforzi di creare nuove soluzioni a causa delle normative più stringenti.
  5. Responsabilità legale: Le aziende che sviluppano e utilizzano sistemi AI potrebbero diventare maggiormente responsabili legalmente per eventuali danni o discriminazioni causate dai loro prodotti, spingendole a investire maggiormente nella conformità normativa e nella valutazione del rischio.
  6. Diversità dei dati: Potrebbe esserci un maggiore sforzo per garantire la diversità e la rappresentatività dei dati utilizzati per addestrare i modelli di AI, al fine di ridurre il rischio di bias nei risultati.
  7. Educazione e consapevolezza: Potrebbe esserci una maggiore enfasi sull’educazione e la consapevolezza riguardo ai problemi etici e sociali legati all’IA, sia tra gli sviluppatori che tra gli utenti finali.

In definitiva, il disegno di legge AB-331 potrebbe avere un impatto significativo sull’intero ecosistema dell’Intelligenza Artificiale, spingendo verso una maggiore responsabilità, trasparenza ed equità nell’uso di tali tecnologie.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Ghost in the shell

Man mano che l’intelligenza artificiale e il potenziamento umano diventano sempre più comuni, dobbiamo affrontare le implicazioni etiche di queste tecnologie e le potenziali conseguenze della fusione della coscienza umana con le macchine.

Parliamo di un Manga che e’ un punto fermo della fantascienza sin dal suo inizio alla fine degli anni ’80. 

“The Ghost in the Shell” è una serie di manga scritta e illustrata da Masamune Shirow. Ambientata in un futuro distopico e tecnologicamente avanzato, la storia segue le vicende della Section 9, un’unità d’elite anti-crimine specializzata nella lotta contro il cyberterrorismo e le minacce legate alla tecnologia.

The State of AI – April Tech 2024

Come dico da decenni sebbene non disponga di una sfera di cristallo per prevedere il futuro con assoluta certezza, posso fornire approfondimenti e analisi basati sulle tendenze e sugli sviluppi attuali nel campo dell’intelligenza artificiale.

Pubblichiamo in un articolo quanto apparso nel nostro white paper nel caso non lo aveste letto.

Mentre ci avviciniamo alla fine dei primi quattro mesi del 2024, è probabile che alcune macrotendenze continuino ad accelerare il ritmo del cambiamento nell’IA applicata. Sono:

Oltre alle più ampie piattaforme di modelli come servizio, RAG, LoRA, il prompt engineering e altre forme di personalizzazione e personalizzazione dei modelli stanno diventando comuni. Ci saranno molte variazioni su questi strumenti nel prossimo anno.

I creatori di applicazioni stanno realizzando prototipi tramite prompt su modelli all’avanguardia ma costosi di OpenAI, quindi effettuando la messa a punto e le integrazioni su un modello a costo inferiore (spesso open source).

Vediamo anche l’evoluzione del prompt engineering verso una piattaforma per sviluppatori. Nello specifico, gli sviluppatori programmeranno in modo dichiarativo e le funzioni simili al compilatore tradurranno queste attività, SLA e garanzie I/O in prompt ottimizzati. 

Models-as-a-Service presentata da Microsoft e simile ad AWS Bedrock. All’inizio dell’anno, abbiamo posto la nostra fiducia nella vastità dei modelli, in particolare quelli Open Source, nell’emergere del “middleware” di intelligenza artificiale e nella possibilità per le aziende storiche di software SAAS di potenziare rapidamente i loro prodotti con GenAI. Queste aspettative hanno trovato conferma nel mondo degli affari. Innovazioni chiave come LoRA, RAG e l’ingegneria dei prompt, che all’epoca erano appena comprese dal punto di vista commerciale, hanno guadagnato terreno. Oltre a questi grandi player del cloud, ci aspettiamo che Nvidia e aziende emergenti come HuggingFace e OctoML svolgano ruoli sempre più strategici nell’orchestrare i livelli dello stack AI per potenziare le applicazioni intelligenti.

Il cloud continua ad espandersi : Credo che la quota di mercato dell’infrastruttura cloud sia molto importante nell’intelligenza artificiale generativa, perché gli algoritmi di apprendimento automatico per l’intelligenza artificiale genuina non creano informazioni dal nulla. Invece, la qualità dell’intelligenza artificiale generativa si sviluppa in larga misura dal numero di diversi scenari di addestramento e iterazioni che l’algoritmo di apprendimento automatico deve affrontare. Detto questo, AWS detiene una quota di mercato quasi tre volte maggiore di Google Cloud, significa che gli algoritmi di machine learning di Amazon hanno accesso a set di dati quasi tre volte più grandi. Lo stesso vale per il confronto con Azure di Microsoft, con una quota di mercato due volte superiore a quella di Google Cloud.

ChatGPT di OpenAI (supportato da Microsoft) è un’apparente superstar dell’intelligenza artificiale generativa e di gran lunga il chatbot più utilizzato . Ciò che è importante qui è che ora funziona come un effetto valanga: più utenti con argomenti diversi interagiscono con il chatbot, più a fondo vengono addestrati i suoi algoritmi e migliore diventa nel tempo la qualità delle risposte del chatbot. È simile alla regola delle 10mila ore per qualcuno che padroneggia un’abilità, e OpenAI sembra essere lo studente più laborioso della classe. Circolano voci secondo cui nei prossimi mesi potrebbe essere rilasciata la nuova versione GPT-5 del chatbot, il che significa che probabilmente verranno introdotte nuove funzionalità sofisticate. Tutti questi sviluppi positivi con ChatGPT migliorano il potenziale tecnologico di tutte le offerte di Microsoft, e in particolare delle soluzioni cloud. Essendo uno dei primi investitori in OpenAI, Microsoft ha accesso esclusivo al codice GPT ed è in grado di integrare le funzionalità del chatbot con i suoi servizi.

L’adozione globale dell’intelligenza artificiale generativa è ancora agli inizi, con solo una piccola percentuale di aziende attualmente in fase di espansione (Lo studio “BCG AI Radar: From Potential to Profit with GenAI”).

Ciò è dovuto a vari fattori, tra cui la complessità della tecnologia, considerazioni etiche e di sicurezza e implicazioni sulla forza lavoro i costi e una workforce non digitale. Le aziende stanno adottando un approccio cauto, studiando la tecnologia e il suo impatto da tutti gli angoli prima di effettuare investimenti significativi .

I grandi produttori di software applicativi come Microsoft, Salesforce e Adobe hanno gia’ iniziato a incorporare l’AI generativa nelle loro soluzioni software (ad esempio Microsoft Copilot, Adobe Firefly e Einstein GPT di Salesforce). Sulla base delle funzionalita’ aggiuntive offerte dall’AI generativa, Microsoft ha posto il prezzo di 365 Copilot a 30 dollari al mese per utente, mentre Adobe ha aumentato la tariffa per il suo Creative Cloud di circa l’8%.

Ci sono stati progressi significativi nei modelli di intelligenza artificiale, con aziende come Anthropic che hanno rilasciato Claude1, Claude2 e Claude3 e OpenAI che si prepara a lanciare GPT5.

Questi modelli rappresentano un significativo passo avanti nelle capacità dell’intelligenza artificiale, offrendo prestazioni e funzionalità migliorate. Notevoli sono anche le offerte di Google Gemini 1.5 Pro e Meta AI.

Questi sviluppi evidenziano il rapido ritmo dell’innovazione nel campo dell’intelligenza artificiale. Interesante l’evoluzione del prompt engineering verso un Tranlator prompt engineering per essere utilizzato con piu’ modelli disponibili.

Maggiore attenzione all’etica e alla regolamentazione: man mano che l’intelligenza artificiale diventa sempre più diffusa, cresce l’attenzione sulle implicazioni etiche dell’intelligenza artificiale e sulla necessità di regolamentazione. Ciò include questioni come i pregiudizi negli algoritmi di intelligenza artificiale, le preoccupazioni sulla privacy e l’impatto dell’intelligenza artificiale sui posti di lavoro. Gli organismi di regolamentazione stanno lavorando per stabilire quadri per affrontare questi problemi.

Nell’articolo “L’urgenza di un’algoretica” di P. Benanti, l’autore sottolinea l’importanza di affrontare le sfide etiche poste dall’intelligenza artificiale e dagli algoritmi. L’articolo discute l’urgente necessità di un quadro che possa guidare lo sviluppo e la diffusione dell’intelligenza artificiale in modo etico, giusto e rispettoso dei diritti umani.

P. Benanti sostiene che, man mano che l’intelligenza artificiale diventa sempre più integrata in vari aspetti della società, è fondamentale garantire che sia progettata e utilizzata in modo da promuovere il bene comune e non esacerbare le disuguaglianze esistenti o crearne di nuove.

Ascensione dell’AI-as-a-Service: l’AI-as-a-Service (AIaaS) è diventata una tendenza popolare, con le aziende che offrono funzionalità di intelligenza artificiale in base al pagamento in base all’uso. Ciò consente alle aziende di sfruttare l’intelligenza artificiale senza la necessità di investimenti iniziali significativi o competenze interne.

Costi e BM. Data la complessità di stimare l’impatto iniziale dei casi d’uso su larga scala a causa del modello di utilizzo basato su token, le aziende dovranno considerare attentamente quando utilizzare il pagamento aziendale -soluzioni utente rispetto a quelle basate su token. Questa decisione dipenderà da vari fattori, tra cui l’adozione prevista e il caso d’uso.

Questo argomento è particolarmente rilevante poiché la maggior parte degli utenti trova difficile prevedere e programmare il modello di utilizzo basato su token.

Nel 2024, è probabile che emerga una “gerarchia dei dati” in cui i dati Internet saranno ampiamente accessibili, i dati specifici del dominio saranno monetizzabili direttamente o indirettamente e i dati dell’azienda/cliente saranno sfruttati per un uso su misura e personalizzato.I

l mondo dell’intelligenza artificiale applicata si sta evolvendo così rapidamente che identificare il modello di business vincente richiederà curiosità, iterazione e agilità Per dare un’idea dei costi e collegarlo al tema delle performance, il costo delle chiamate ad Anthropic varia da 0,25$ a 15$ per MTok. GPT-4 si aggira intorno ai 10$ per MTok, mentre Claude3 Opus promette prestazioni più avanzate.

Man mano che gli operatori storici combinano l’intelligenza artificiale con il software esistente e i clienti richiedono un ROI chiaro per i dollari incrementali che stanno pagando per l’intelligenza artificiale per migliorare i processi aziendali o la produttività del team si avra’ un po di Tensione.

C’e’ un Interessante Articolo sulla Computer Vision da parte del MIT (Beyond AI Exposure: Which Tasks are Cost-Effective to Automate with
Computer Vision?) su quali Tasks meriterebbero una Automazione.

Integrazione dell’intelligenza artificiale nei processi aziendali: sempre più aziende stanno integrando l’intelligenza artificiale nei propri processi aziendali, utilizzandola per automatizzare le attività, migliorare il processo decisionale e migliorare l’esperienza dei clienti. Ciò ha portato ad una maggiore efficienza e competitività.

Vendors Lock-In. Data la rapida evoluzione della tecnologia dell’intelligenza artificiale, è fondamentale per le aziende evitare di legare la propria architettura a un unico modello linguistico di grandi dimensioni (LLM) o a soluzioni specifiche. La configurazione ottimale di una soluzione di intelligenza artificiale generativa dipenderà da vari fattori, tra cui il caso d’uso specifico, le prestazioni previste e i costi. Le aziende dovrebbero puntare alla flessibilità nella loro architettura AI per accogliere progressi e cambiamenti futuri.

All’improvviso, “open source” è l’ultima parola d’ordine nei circoli dell’intelligenza artificiale. Meta si è impegnata a creare un’intelligenza generale artificiale open source. Ed Elon Musk sta facendo causa a OpenAI per la sua mancanza di modelli di intelligenza artificiale open source.

Nel frattempo, un numero crescente di leader e aziende tecnologiche si stanno affermando come campioni dell’open source. Ma c’è un problema fondamentale: nessuno è d’accordo su cosa significhi “AI open source”.

Lo scorso luglio, Meta ha reso disponibile gratuitamente il suo modello Llama 2, che ha definito open source, e ha una lunga esperienza nel rilascio pubblico di tecnologie di intelligenza artificiale. “Sosteniamo lo sforzo dell’OSI per definire l’IA open source e non vediamo l’ora di continuare a partecipare al loro processo a beneficio della comunità open source in tutto il mondo”, Jonathan Torres, consulente generale associato di Meta per AI, open source e licenze ci ha detto.

Ciò è in netto contrasto con il rivale OpenAI, che nel corso degli anni ha condiviso sempre meno dettagli sui suoi modelli di punta, citando problemi di sicurezza. “Renderiamo open source potenti modelli di intelligenza artificiale solo dopo aver valutato attentamente i vantaggi e i rischi, inclusi l’uso improprio e l’accelerazione”, ha affermato un portavoce.

Anche altre importanti società di intelligenza artificiale, come Stability AI e Aleph Alpha, hanno rilasciato modelli descritti come open source e Hugging Face ospita un’ampia libreria di modelli di intelligenza artificiale disponibili gratuitamente.

Mentre Google ha adottato un approccio più bloccato con i suoi modelli più potenti, come Gemini e PaLM 2, i modelli Gemma rilasciati il mese scorso sono liberamente accessibili e progettati per confrontarsi con Llama 2, anche se la società li ha descritti come “aperto” piuttosto che “open source”.

Ma c’è un notevole disaccordo sul fatto che qualcuno di questi modelli possa davvero essere descritto come open source. Tanto per cominciare, sia Llama 2 che Gemma sono dotati di licenze che limitano ciò che gli utenti possono fare con i modelli. Questo è un anatema per i principi open source: una delle clausole chiave della Open Source Definition vieta l’imposizione di qualsiasi restrizione basata sui casi d’uso.

I traduttori svolgeranno un ruolo cruciale nel convertire le richieste per adattarle a diversi LLM senza perdere la logica aziendale integrata. Ciò consentirà alle aziende di passare da un LLM all’altro secondo necessità, a seconda dei requisiti specifici del loro caso d’uso.

Grounding Sarà essenziale tenere traccia di come ciascun LLM è stato modificato e con quali set di dati, in particolare durante la messa a terra. Un ulteriore passo sarà lo sviluppo di strumenti in grado di rilevare se i processi di prompt o di inferenza compromettono l’integrità del LLM originale, fungendo da sorta di filtro guardiano.

Monitorare come ciascun LLM è stato modificato e con quali set di dati è un’altra considerazione importante, soprattutto quando si tratta di messa a terra. Il grounding si riferisce alla capacità di un modello di basare le proprie risposte o azioni su informazioni concrete, verificabili e rilevanti. Esistono molti modi per ottenere il grounding e le aziende dovranno decidere quando e come implementarlo in base alle loro esigenze e requisiti specifici. Poiché esistono numerosi modi per raggiungere il grounding, sarà necessario decidere quando e come implementarlo, ad esempio se fermarsi al RAG o andare oltre.

Sicurezza. L’integrazione di Large Language Models (LLM) nelle piattaforme online rappresenta un’arma a doppio taglio, offrendo esperienze utente migliorate ma introducendo anche vulnerabilità di sicurezza. La gestione non sicura degli output è una preoccupazione importante, in quanto una validazione o sanificazione insufficiente degli output LLM può portare a una serie di exploit come cross-site scripting (XSS) e cross-site request forgery (CSRF).

Il prompt injection indiretto aggrava ulteriormente questi rischi, consentendo agli aggressori di manipolare le risposte LLM attraverso fonti esterne come dati di training o chiamate API, compromettendo potenzialmente le interazioni degli utenti e l’integrità del sistema. Inoltre, l’avvelenamento dei dati di addestramento rappresenta una minaccia significativa, poiché i dati compromessi utilizzati nell’addestramento dei modelli possono comportare la diffusione di informazioni inaccurate o sensibili, minando la fiducia e la sicurezza. Quindi ulteriore avanzamento sara’ la presenza di Tools Guadiani in grado di intercettare il Prompting.

Altro “guardiano” dove si sta’ investendo e’ quello dell’inferenza sicura che mira ad aggiungere un livello di protezione alle conversazioni riservate con i modelli di intelligenza artificiale. Consideralo un canale di comunicazione sicuro, garantendo che solo le parti autorizzate possano ascoltare i tuoi sussurri e la risposta della modella. Le tecniche sono quelle della Crittografia omomorfa, Secure Multi-Party Computing (SMPC) ,Privacy differenziale.

L’ imminente introduzione dell’AIACT (legge sull’intelligenza artificiale) nell’UE potrebbe avere implicazioni significative per l’adozione e l’uso della tecnologia dell’intelligenza artificiale. La legge mira a stabilire un quadro giuridico per l’intelligenza artificiale, affrontando questioni quali sicurezza, trasparenza e responsabilità. Le aziende dovranno garantire il rispetto delle nuove normative, che potrebbero influenzare le loro strategie e i loro investimenti in intelligenza artificiale.

In conclusione, il panorama dell’intelligenza artificiale generativa è in rapida evoluzione e le aziende devono affrontarlo con flessibilità e una comprensione completa degli impatti della tecnologia. Dovrebbero inoltre considerare attentamente la scelta delle soluzioni di intelligenza artificiale e dei modelli di prezzo in relazione ai loro casi d’uso specifici e agli scenari di adozione.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Se credi in me, se mi dai fiducia, potrai avere un impatto positivo e allora, forse, potrò raggiungere obiettivi, anche inaspettati

Madison Tevlin è la protagonista di uno spot statunitense che sensibilizza sulla sindrome di Down e sul nostro ruolo come società nell’abbattere barriere e stereotipi per promuovere l’autonomia delle persone con disabilità.

“Assume that I can” (“Presumi che io possa fare qualsiasi cosa”), la campagna di sensibilizzazione internazionale realizzata in collaborazione con l’agenzia SMALL di New York.

Una giovane donna con sindrome di Down sfida le basse aspettative che gli altri hanno su di lei e propone un ribaltamento di prospettiva: a scuola, al lavoro, in famiglia e nella vita sociale.

Palantir Demo: Gotham in Afghanistan

Nel video, viene presentata una demo di Palantir Gotham in uso nel 2010, durante le operazioni in Afghanistan. Viene mostrato come il software permetta di raccogliere ed elaborare una vasta gamma di dati provenienti da fonti aperte e militari, fornendo una visione chiara della situazione sul campo.

La demo mira a dimostrare come le informazioni ottenute da fonti aperte possano aiutare i comandanti militari nelle loro missioni in Afghanistan, integrando dati su attacchi, checkpoint, rapporti di pattuglia e operazioni di sicurezza civile.

Palantir è in grado di mostrare una mappa interattiva che evidenzia gli attacchi subiti dalle forze di polizia afghane. Utilizzando un histogramma temporale e una mappa di calore geospaziale, si osservano i modelli di attacco e come questi si concentrino in specifiche aree geografiche, con il 30% degli attacchi legati a ordigni esplosivi improvvisati (IED). La polizia afghana risulta essere l’obiettivo principale, secondo i dati aggregati dal software.

I comandi possono utilizzare dati temporali per seguire gli attacchi nel tempo e verificare la variazione della situazione sul campo. Questa visualizzazione rende chiaro il deterioramento della sicurezza in determinate aree nel corso di settimane o mesi, offrendo strumenti utili per prendere decisioni strategiche.

 Il software non si limita a visualizzare dati, ma permette agli analisti di interagire direttamente con le informazioni, rendendo possibile la manipolazione dei dati in tempo reale. Questo, unito alla capacità di intelligenza artificiale (AI), facilita l’identificazione di schemi e anomalie che possono predire il comportamento dell’insurrezione e supportare le decisioni sul campo.


Il video dimostra come già nel 2010 Palantir fosse in grado di supportare missioni complesse e di fornire analisi in tempo reale, con strumenti capaci di migliorare le capacità decisionali dei comandanti sul terreno, anticipando le mosse degli insorti e ottimizzando le operazioni di controinsurrezione.

Questa tecnologia, se utilizzata al massimo delle sue potenzialità, avrebbe potuto prevedere e mitigare la rapida caduta del governo afghano nel 2021, come suggerito dai sistemi attuali di Palantir che oggi sono ancora più avanzati​.

Nel 2010, Palantir Gotham aveva già dimostrato la capacità di gestire enormi volumi di dati e di supportare operazioni militari complesse come quelle in Afghanistan, evidenziando modelli di attacco e anticipando minacce. Durante la demo del 2010, il software era in grado di analizzare in tempo reale dati provenienti da diverse fonti, come rapporti di pattugliamento e attacchi, fornendo ai comandanti sul campo una visione integrata e predittiva.

Capacità predittive nel contesto afghano

Le capacità predittive di Palantir si basano su una combinazione di intelligenza artificiale (AI) e analisi umana. Il sistema poteva analizzare enormi quantità di dati storici e attuali per identificare schemi che suggerivano future minacce, come l’incremento di attacchi tramite IED o l’evoluzione di movimenti insurrezionali.

Nella demo del 2010, ad esempio, il sistema ha mostrato chiaramente la concentrazione di attacchi contro la polizia afghana e la loro evoluzione temporale, fornendo indizi su come si sarebbe evoluta l’insurrezione.

Se avesse operato con i dati disponibili nel 2021, Palantir avrebbe potuto identificare segnali di allarme per il collasso del governo afghano, come la rapida espansione dei Talebani dopo l’annuncio del ritiro americano.

Le informazioni chiave (attacchi in aumento, diserzione delle forze di sicurezza afghane, la capacità di controllo territoriale dei Talebani) sarebbero state aggregate dal sistema e avrebbero permesso di prevedere il deterioramento della sicurezza. Tuttavia, la previsione esatta del crollo immediato e drammatico di Kabul sarebbe dipeso dall’uso efficace del sistema e dalla disponibilità di dati accurati e aggiornati.

Palantir oggi ha strumenti più avanzati che potenziano la capacità predittiva.

L’introduzione di modelli di machine learning più sofisticati e l’accesso a flussi di dati sempre più vasti e in tempo reale, come quelli derivati dai social media, dalle comunicazioni sul campo e dalle immagini satellitari, rendono possibile prevedere con maggiore precisione eventi come il collasso delle forze afghane. Questi strumenti permettono di creare scenari e simulazioni che aiutano i decisori a prepararsi a sviluppi come il rapido deterioramento della sicurezza avvenuto nell’agosto 2021​.

Nell’agosto 2021, la rapida disintegrazione delle Forze Nazionali di Difesa e Sicurezza afghane (ANDSF) e la successiva caduta di Kabul nelle mani dei talebani sono stati eventi significativi che hanno colto molti di sorpresa, nonostante le precedenti avvertenze della comunità di intelligence riguardo alla possibilità di una presa di potere talebana. Un rapporto critico dell’Ispettore Generale Speciale per la Ricostruzione dell’Afghanistan (SIGAR) delinea vari fattori che hanno contribuito a questo crollo.

Consapevolezza della Comunità d’Intelligence

La comunità d’intelligence aveva previsto una ripresa dei Talebani, ma non aveva previsto il rapido crollo delle forze di sicurezza afghane. Questa mancanza di previsione era in parte dovuta a una carenza di programmi efficaci di supervisione e valutazione interagenzia, che hanno ostacolato una chiara comprensione delle realtà sul terreno in Afghanistan.

TikTok, e’ solo quando siamo veramente disturbati che ci svegliamo dalla nostra letargia e vediamo chiaramente il mondo che ci circonda

L’innovativo approccio di TikTok rappresenta una svolta nel mondo dei social network, in quanto è il primo a fondare il suo prodotto sull’intelligenza artificiale stessa.

Un recente articolo pubblicato su towardsdatascience.com evidenzia questo cambiamento di paradigma, sottolineando che non sono più le visualizzazioni o i click a determinare la popolarità dei contenuti, bensì un algoritmo di intelligenza artificiale che suggerisce specifici contenuti al fine di trattenere gli utenti il più a lungo possibile.

È importante comprendere che ciò non implica una demonizzazione delle dinamiche della piattaforma, ma piuttosto una presa di coscienza riguardo alle regole del gioco a cui ci si adatta implicitamente utilizzando tali strumenti. Utilizzare TikTok comporta quindi una responsabilità condivisa, sia da parte degli utenti che dei responsabili e progettisti degli algoritmi di raccomandazione.

L’ex segretario al Tesoro Steve USA Mnuchin afferma che sta mettendo insieme un gruppo di investitori per acquisire TiKTok.

La Camera dei Rappresentanti ha approvato un disegno di legge che potrebbe vietare la piattaforma di social media di ByteDance in tutto il paese.

Mnuchin ha dichiarato alla CNBC: “Penso che la legislazione dovrebbe essere approvata e penso che l’APP dovrebbe essere venduta. È un ottimo affare e metterò insieme un gruppo per acquistare TikTok”.

“Questo dovrebbe essere di proprietà delle imprese statunitensi. Non è possibile che i cinesi permettano mai a una società americana di possedere qualcosa di simile in Cina”.

Mnuchin non ha rivelato chi farà parte del gruppo che acquisirà TikTok.

Il Ministero degli Affari Esteri cinese ha risposto al Congresso, affermando: “Sebbene gli Stati Uniti non abbiano mai trovato alcuna prova che TikTok costituisca una minaccia per la sicurezza nazionale degli Stati Uniti, non hanno mai smesso di inseguire TikTok.

Tale pratica di ricorrere a mosse egemoniche quando non è possibile avere successo in una concorrenza leale interrompe il normale funzionamento delle imprese, mina la fiducia degli investitori internazionali nell’ambiente degli investimenti e sabota il normale ordine economico e commerciale nel mondo. Ciò inevitabilmente si ritorcerà contro gli stessi Stati Uniti”.

Gli Stati Uniti hanno espresso preoccupazioni su TikTok per vari motivi:

Sicurezza dei dati: Gli Stati Uniti temono che TikTok, essendo di proprietà della società cinese ByteDance, possa condividere i dati sensibili degli utenti, come le informazioni sulla posizione, con il governo cinese. Questo è dovuto alle leggi cinesi che consentono al governo di richiedere segretamente dati alle aziende e ai cittadini cinesi.

Un’importante irregolarità si manifesta nell’ormai quasi certa pratica di trasferire i dati sensibili degli utenti iscritti a TikTok su server ubicati in Cina. Questa situazione è stata confermata da una class action avviata nello Stato della California da una studentessa di Palo Alto di nome Misty Hong. Hong sostiene con sicurezza di aver utilizzato l’applicazione TikTok esclusivamente per visualizzare contenuti video, senza mai creare o caricare alcun contenuto dopo essersi iscritta. Tuttavia, la giovane ha scoperto l’esistenza di un account a suo nome, non richiesto e utilizzato per caricare contenuti sulla piattaforma, utilizzando come password il suo numero di cellulare e i suoi dati biometrici, probabilmente acquisiti attraverso l’analisi dei video mai condivisi. Hong sostiene che queste anomalie nei suoi dati siano state possibili grazie al trasferimento dei suoi dati verso server situati in Cina.

Propaganda e disinformazione: Gli Stati Uniti sono preoccupati che TikTok possa essere utilizzato come strumento di propaganda dal Partito Comunista Cinese. Inoltre, temono che la Cina possa utilizzare le segnalazioni dei contenuti di TikTok per diffondere disinformazione.

Influenza politica: Alcuni ritengono che TikTok possa interferire con le campagne politiche ed amministrative statunitensi.

TikTok ha negato queste accuse e ha cercato di prendere le distanze da ByteDance. Ha anche affermato di non aver mai condiviso, o ricevuto una richiesta di condivisione, dei dati degli utenti statunitensi con il governo cinese.

Qui un video della FOX che mostra il punto di vista USA : https://www.foxnews.com/video/6309696840112

Meta e Google sembrano essere i maggiori beneficiari se i disegni di legge che mirano a colpire le operazioni di TikTok negli Stati Uniti diventassero legge, secondo Wedbush Securities.

L’analista Scott Devitt e altri presso la società di investimenti hanno recentemente incontrato l’ex membro del Congresso degli Stati Uniti Ryan Costello per discutere le implicazioni del Protecting Americans from Foreign Adversary Controlled Applications Act (H.R. 7521).

Costello, che è stato al Congresso dal 2015 al 2019, ha stimato che esista una probabilità del 55% che una forma della legislazione venga alla fine approvata. Tuttavia, dubita che la società cinese ByteDance si disimpegni da TikTok – come richiede la legislazione – il che alla fine comporterebbe l’uscita di TikTok dal paese.

H.R. 7521 è passato alla Camera dei Rappresentanti degli Stati Uniti il 13 marzo, ricevendo un ampio sostegno bipartisan con un voto di 352-65-1 a favore del disegno di legge.

Il Presidente Biden ha già indicato che firmerà l’H.R. 7521 in legge se arriverà sulla sua scrivania.

Il disegno di legge mira alla “minaccia rappresentata dalle applicazioni controllate da avversari stranieri, come TikTok e qualsiasi applicazione o servizio successivo e qualsiasi altra applicazione o servizio sviluppato o fornito da ByteDance”.

“Questa legislazione bipartizan è necessaria per proteggere la nostra sicurezza nazionale e la privacy dei consumatori americani,” ha detto la deputata Shontel Brown (D-Ohio). “Ci sono chiare e legittime preoccupazioni riguardo alle applicazioni soggette al controllo dei nostri avversari stranieri. È imperativo che il Congresso agisca per proteggere il pubblico, giovane e vecchio.”

Una settimana dopo che l’H.R. 7521 è passato alla Camera, l’organo legislativo ha approvato un secondo disegno di legge, il Protecting Americans’ Data from Foreign Adversaries Act of 2024 (H.R. 7520), all’unanimità.

L’H.R. 7520, che è correlato all’H.R. 7521, proibirebbe ai broker di dati di vendere le informazioni personali sensibili degli americani agli avversari stranieri.

Ci si aspetta che il Senato degli Stati Uniti esamini entrambi i disegni di legge insieme, con un voto che avverrà nei prossimi due mesi, ha detto Costello.

Tuttavia, questi disegni di legge probabilmente subiranno delle modifiche prima di arrivare al Senato, ha detto Costello. Ad esempio, potrebbe essere necessaria una maggiore chiarezza riguardo alla definizione di “avversario straniero” o il termine “broker di dati” potrebbe necessitare di ulteriore classificazione, ha detto l’ex membro del Congresso.

Inoltre, la versione della Camera prevede che TikTok si disimpegni da ByteDance entro 180 giorni. Questo periodo è probabilmente irragionevole per un’affare di questa portata e complessità e verrà probabilmente modificato dal Senato, ha detto Costello.

“Se il disegno di legge slitta ai mesi estivi o all’inizio dell’autunno, è improbabile che passi secondo il parere di Ryan, dato il prossimo elezione e la difficoltà di mantenere il necessario slancio politico per un periodo così prolungato,” ha notato Wedbush.

Se i due disegni di legge diventassero legge, ByteDance e il governo cinese hanno indicato resistenza a disimpegnarsi da TikTok, utilizzato da circa 170 milioni di americani.

Se TikTok fosse costretto a lasciare gli Stati Uniti, Meta e Google sono le due aziende meglio posizionate per beneficiare della ridistribuzione della pubblicità, ha detto Wedbush.

“Delle persone che utilizzano TikTok, l’83%, l’81% e il 73%, utilizzano anche Facebook, Instagram e WhatsApp, rispettivamente,” ha detto l’analista di Seeking Alpha Yuval Rotem. “Dal punto di vista opposto, il 51%, il 52% e il 50% delle persone che utilizzano Facebook, Instagram e WhatsApp, sono anche su TikTok.”

“Secondo me, ciò significa che in caso di divieto di TikTok, il tempo trascorso dagli utenti comuni sulle piattaforme di Meta aumenterà in modo significativo,” ha aggiunto.

Tuttavia, i commercianti cinesi on-line che vendono prodotti su TikTok Shop negli Stati Uniti, come alternativa ad Amazon, sono preoccupati per le mosse, dicono, che l’azienda ha fatto per una adesione più rigorosa alle regole per i venditori stranieri che aprono negozi sull’app, ha riferito Reuters.

Nelle ultime settimane, TikTok – di proprietà della società cinese ByteDance rischia di dover vendere le “operations ” (Processi, Persone e Tecnologia) statunitensi dell’app o affrontare un divieto nel paese – ha adottato una posizione più dura per far rispettare le sue regole interne, ha aggiunto il rapporto citando cinque venditori cinesi sul sito e un’associazione di settore che rappresenta 3.000 negozi cinesi che vendono prodotti online.

TikTok richiede che le entità statunitensi registrate dai commercianti siano di proprietà statunitense al 51% e presiedute da un titolare di passaporto statunitense, secondo i venditori e Winnie Wang, presidente esecutivo dell’Associazione di E-Commerce Transfrontaliero di Shenzhen.

Diversi venditori cinesi avevano utilizzato entità statunitensi per essere considerati come commercianti statunitensi sull’app, ma ora le regole comportano che richiederanno la ri-registrazione come venditori stranieri, che dicono ricevono meno visibilita’ e aiuto, mettendoli in svantaggio rispetto ai venditori di TikTok statunitensi, ha notato il rapporto.

TikTok ha politiche e requisiti chiari per tutti i venditori sul suo negozio, compresi i venditori internazionali, e queste politiche non sono cambiate da quando TikTok Shop è stato lanciato negli Stati Uniti nel settembre 2023, ha detto un portavoce di TikTok, secondo il rapporto.

I commercianti cinesi hanno notato che si sentono presi di mira dalle regolamentazioni di TikTok e alcuni stanno considerando di limitare le risorse che mettono nel promuovere le vendite sull’app o trovare partner statunitensi, secondo il rapporto.

Nel frattempo, alcuni commercianti hanno detto che, in confronto, Amazon non fa distinzioni tra venditori statunitensi e altri venditori sulla sua piattaforma.

Il commerciante di Shenzhen Jackie Bai e altri due venditori cinesi hanno detto di aver sentito dai rappresentanti di TikTok Shop che le regole più severe erano in risposta al clima politico che TikTok sta affrontando negli Stati Uniti in un anno elettorale, ha aggiunto il rapporto.

I funzionari statunitensi temono che i dati degli utenti possano essere condivisi con la Cina, tuttavia, TikTok ha notato che non ha mai condiviso, o ricevuto una richiesta di condividere i dati degli utenti statunitensi con il governo cinese.

Separatamente, la Federal Trade Commission, o FTC, sta indagando su TikTok per presunte pratiche sospette di privacy e sicurezza dei dati, e potrebbe decidere nelle prossime settimane di fare una causa o un accordo, Politico ha riferito martedì, citando persone a conoscenza della questione.

La FTC sta valutando le accuse secondo cui TikTok e la società madre ByteDance, hanno ingannato i suoi utenti negando che le persone in Cina avessero accesso ai loro dati, e hanno anche violato una legge sulla privacy dei bambini, ha aggiunto il rapporto.

La FTC, in collaborazione con il Dipartimento di Giustizia, potrebbe registrare la causa o risolvere con l’azienda, tuttavia, un accordo non è ancora stato raggiunto, ha aggiunto il rapporto.

Il caso FTC non è correlato al disegno di legge che cerca la dismissione dell’app.

Non è stata presa alcuna decisione finale su se portare un caso o quali rivendicazioni includere. Non era chiaro nemmeno se un’eventuale azione contro TikTok avrebbe incluso anche ByteDance, ha aggiunto il rapporto.

TikTok è stato sotto il radar della FTC per le sue attività di privacy e sicurezza dei dati da almeno due anni, secondo il rapporto.

Nel 2019, Musical.ly, ora noto come TikTok, ha accettato di pagare $5.7M per risolvere le accuse della FTC che l’azienda ha raccolto illegalmente informazioni personali dai bambini in violazione della Children’s Online Privacy Protection Act.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Equinix il backbone dell’AI

Il Wall Street Journal ha pubblicato questo titolo il mese scorso:

Secondo il rapporto, due terzi dei colletti bianchi migliorano la propria produttività utilizzando l’Intelligenza Artificiale.

Detto questo, il rapporto menziona anche che l’Intelligenza Artificiale sta diventando così efficace che molti posti di lavoro gestionali sono ridondanti, costringendo le aziende a tagliare quei posti che non verranno poi recuperati anche se la domanda aziendale dovesse riprendere.

A gennaio il New York Times aveva pubblicato questo:

Non sto scrivendo questo per spaventare nessuno, ma per sottolineare che nulla di tutto ciò è possibile senza l’hardware sottostante, il famoso DataCenter, l’ infrastruttura.

Equinix è un gigante. Dietro la sua capitalizzazione di mercato di 75 miliardi di dollari c’è un’azienda composta da 260 data center in 33 paesi con un record di uptime del 99,999% che serve più di 10.000 clienti.

Come possiamo vedere di seguito, l’82% dei ricavi ricorrenti dell’azienda è generato da proprietà proprietarie o da proprietà le cui scadenze di locazione si estendono fino al 2039 o oltre. Possiede 152 dei suoi 260 data center. (mi ricorda la strategia di Mc Donald’s) Equinix ha un BM con un modello di leading a 18 anni.

L’azienda è la destinazione di riferimento per gli “iper-scaler”, tra cui Amazon Web Services, Azure, Google Cloud e Oracle.

In ciascuno di questi servizi ha una quota di mercato maggiore del 40%, mentre il suo concorrente numero due è molto indietro.

Le attività non statunitensi dell’azienda rappresentano quasi il 60% dei suoi ricavi.

A milano ce ne sono 3.

Lo slancio in corso derivante dalla trasformazione digitale e dalla rivoluzione dell’intelligenza artificiale sta generando una forte domanda di data center, soprattutto negli Stati Uniti, dove si prevede che la domanda di data center crescerà del 10% annuo fino al 2030 (dovremmo presto parlare di Sostenibilità dell AI visto quanto successo recentemente con la rete energetica Usa al collasso per la troppa richiesta di energia).

Il funzionamento dei data center è ad alta intensità energetica e si stima che consumino oltre l’1% della fornitura globale di elettricità. La tendenza crescente verso chip di fascia alta, con un maggiore consumo energetico, rappresenta un rischio x l’ambiente e per i BM.

Ecco cosa ha detto la società durante la conferenza Morgan Stanley Technology, Media & Telecom quando è stata interpellata sugli sviluppi della domanda:

Simon Flannery

Grande. Beh, forse diamo un’occhiata un po’ alla guida. Hai avuto prenotazioni xScale record, 90 megawatt, credo. E questo ha parlato di parte della domanda di intelligenza artificiale. Ma poi hai ancora quel tasso di abbandono elevato. Quindi è molto, molto diverso tra la domanda su larga scala e la domanda aziendale o…

Keith Taylor

Probabilmente un po’ come i mercati azionari, giusto, in una certa misura i Magnificent 7. Guarda, la richiesta di competenze è molto reale. E come abbiamo detto, abbiamo venduto circa 90 megawatt, 1,9 miliardi di dollari di – 1,8 miliardi di dollari di valore contrattuale, durata di 15 anni. Gli hyperscaler che conosci, che ti aspetteresti, li stanno consumando. Siamo utilizzati quasi all’85% di ciò che abbiamo annunciato e di ciò che abbiamo costruito. Se a ciò aggiungiamo ciò che stiamo negoziando in questo momento, probabilmente siamo a oltre il 95% di tutto esaurito. E abbiamo l’impegno di produrre circa 800 megawatt, e al momento siamo a 330. E quindi abbiamo una passerella, una bella passerella davanti a noi.

Magnificent Seven Stocks Performance

Company NameSymbol2024 YTD Performance
Alphabet(GOOGL)-3.8%
Amazon(AMZN)+16.4%
Apple(AAPL)-12.2%
Meta Platforms(META)+44.7%
Microsoft(MSFT)+8.8%
Nvidia(NVDA)+87.1%
Tesla(TSLA)-28.1%
Source: IBD Data As Of March 7, 2024

Impressionante…

L’influenza dell’intelligenza artificiale è innegabile, poiché rimodella l’economia in modo sostanziale.

Equinix emerge come uno dei principali attori in questo mondo guidato dall’intelligenza artificiale, fornendo l’infrastruttura necessaria per l’espansione dell’intelligenza artificiale.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Elon Musk: la mia banda suona il “Grok”

Elon Musk ha annunciato che il chatbot Grok della sua startup di intelligenza artificiale xAI sarà presto accessibile a tutti gli abbonati premium della piattaforma di social media, condividendo la notizia su X: “entro questa settimana, Grok sarà abilitato per tutti gli abbonati premium (non solo premium+)“.

All’inizio di questo mese, Musk ha rivelato l’intenzione di xAI di rendere open source Grok, presentato per la prima volta a novembre dello scorso anno. Questa mossa è avvenuta pochi giorni dopo che Musk ha citato in giudizio OpenAI, il produttore di ChatGPT sostenuto da Microsoft (NASDAQ: MSFT), sostenendo che avesse messo il profitto davanti al beneficio dell’umanità. OpenAI, co-fondata da Musk, ha respinto le accuse del miliardario della tecnologia.

Queste ultimi sviluppi pongono il chatbot Grok di xAI al centro dell’attenzione, poiché Musk si impegna a rendere la tecnologia più accessibile e trasparente per gli utenti della sua piattaforma di social media.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Affrontare il Gender Gap nell’innovazione tecnologica: l’iniziativa di Paola Pisano, ex Ministro dell’Innovazione Tecnologica e della Digitalizzazione

Il Gender Gap, la disparità di genere, continua ad essere una sfida persistente in numerosi settori, inclusa l’innovazione tecnologica.

Tuttavia, negli ultimi anni, sempre più leader politici e figure di spicco si stanno impegnando attivamente per affrontare questa disparità e promuovere una maggiore inclusione delle donne nei settori STEM (Scienza, Tecnologia, Ingegneria e Matematica).

Nvdia + ARM + Databricks + $$

Nvidia Corporation effettua strategicamente investimenti nei settori chiave del campo dell’Intelligenza Artificiale per potenziare le sue capacità future e il suo margine di profitto.

Gli investimenti in Databricks, ARM Inc., Recursion Pharmaceuticals e SoundHound AI hanno il potenziale per incrementare i guadagni di Nvidia.

Le partnership con Databricks e ARM Inc. possono ottimizzare il software ed espandere la tecnologia dell’AI oltre le GPU, mentre le collaborazioni con Recursion Pharmaceuticals e SoundHound AI possono accelerare la scoperta di nuovi farmaci e migliorare le soluzioni di AI vocale.

Il 14 febbraio, Nvidia ha rivelato di detenere azioni pubblicamente quotate in cinque aziende legate all’AI: Arm Holdings plc , SoundHound AI Inc. , Recursion Pharmaceuticals , Nano-X Imaging e TuSimple .

Anche se il valore di questi investimenti dovesse triplicare, il profitto complessivo sarebbe minimo rispetto agli ultimi guadagni trimestrali di oltre 12 miliardi di dollari. Tuttavia, questi investimenti combinati sono sottovalutati dagli investitori di Nvidia e, col tempo, consentiranno all’azienda di rimanere leader nel settore dell’Intelligenza Artificiale.

Per quanto riguarda Databricks, Nvidia ha investito nella società, leader in analisi dei dati con una piattaforma cloud user-friendly. Databricks si concentra su strumenti open source, attraendo una grande base di sviluppatori e acquisendo più clienti. La partnership con Nvidia aiuterà a consolidare la loro posizione all’avanguardia dell’innovazione nell’IA.

È evidente che il software di Databricks funzioni su hardware informatico, e Nvidia è un protagonista principale in questo settore con le loro unità di elaborazione grafica (GPU). Lavorando insieme, possono ottimizzare il software di Databricks per funzionare meglio sulle GPU di Nvidia, rendendo i prodotti di entrambe le aziende più attraenti.

Inoltre, Databricks è un leader nell’analisi dei dati, un campo cruciale per lo sviluppo dell’AI. Avendo una quota in Databricks, Nvidia ottiene un partner che può aiutarli a sviluppare migliori strumenti e soluzioni di Intelligenza Artificiale.

Questo può rafforzare la posizione di Nvidia nell’intero mercato dell’AI. Durante la recente conference call sugli utili, il direttore finanziario di Nvidia, Colette Kress, ha dichiarato che l’azienda “ha compiuto notevoli progressi con le nostre offerte software e servizi, che hanno raggiunto un tasso di fatturato annuo di 1 miliardo di dollari nel quarto trimestre“. Questo è molto importante, perché dimostra le ambizioni di Nvidia di svilupparsi oltre i semiconduttori.

In breve, questo investimento ha creato una situazione vantaggiosa per entrambe le parti. Nvidia ha la possibilità di collaborare con una delle principali aziende di software di AI, mentre Databricks ha accesso all’hardware potente di Nvidia.

Arm Holdings, gigante del design di chip con sede nel Regno Unito, ha rivoluzionato il computing mobile. Nonostante la fallita acquisizione di ARM da parte di Nvidia nel 2020, le opportunità di collaborazione rimangono. Entrambi sono leader nell’AI, e le loro tecnologie potrebbero collaborare in settori come le auto a guida autonoma e il computing ad alte prestazioni.

Recursion Pharmaceuticals utilizza l’IA per la scoperta di farmaci, e la collaborazione con Nvidia potrebbe accelerare significativamente il processo di scoperta di nuovi composti medicinali.

SoundHound, un’azienda di IA vocale, rivale di Shazam, offre una gamma di soluzioni AI-driven. L’investimento di Nvidia in SoundHound potrebbe portare a una migliore esperienza utente nei suoi prodotti grazie a un’interazione vocale più naturale, accurata e versatile.

In conclusione, gli investimenti strategici di Nvidia in questi settori chiave dell’AI promettono di portare benefici significativi all’azienda, migliorando la sua posizione di leader nell’industria dell’Intelligenza Artificiale.

ChatGPT di OpenAI continua a guadagnare popolarità

Secondo un recente sondaggio condotto dal Pew Research Center, il ChatGPT di OpenAI continua a guadagnare popolarità, con quasi un adulto statunitense su quattro che ha affermato di aver utilizzato il chatbot in qualche modo. Questo segna un aumento rispetto al 18% registrato sette mesi prima, evidenziando un trend di crescita costante nell’utilizzo del ChatGPT.

In particolare, l’uso del ChatGPT per scopi lavorativi è aumentato significativamente negli ultimi 12 mesi. Nel marzo 2023, l’8% degli adulti statunitensi ha affermato di aver utilizzato il chatbot per svolgere attività lavorative, percentuale che è salita al 20% a febbraio 2024.

L’età e il livello di istruzione sembrano influenzare chi utilizza maggiormente il ChatGPT per lavoro. Il sondaggio ha rivelato che quasi un americano su tre con meno di 30 anni ha utilizzato il chatbot per scopi lavorativi, mentre questa percentuale scende al 21% per gli adulti tra i 30 e i 49 anni e al 10% per coloro che hanno 50 anni o più.

Inoltre, gli adulti con titoli di studio laureati e triennali utilizzano il ChatGPT in misura maggiore, rispettivamente al 33% e al 25%, mentre scende al 19% per coloro che hanno un diploma di scuola superiore e all’8% per chi ha un diploma di scuola superiore o inferiore.

Tuttavia, c’è un aspetto su cui gli americani sembrano concordare: la diffidenza nei confronti del ChatGPT quando si tratta di politica, soprattutto in vista delle imminenti elezioni presidenziali americane del 2024. Il sondaggio ha rivelato che circa quattro cittadini su dieci non hanno troppa o nessuna fiducia nelle informazioni elettorali fornite dal ChatGPT, superando di gran lunga la fiducia nelle informazioni politiche fornite dalla piattaforma.

Nonostante il crescente numero di utenti del ChatGPT, il 34% degli americani intervistati dal Pew Research Center ha dichiarato di non aver mai sentito parlare del chatbot, evidenziando che c’è ancora una significativa fetta di popolazione che non è a conoscenza di questa tecnologia.

Amazon investe ulteriori 2,75 miliardi in Anthropic, portando il suo investimento nella società a 4 miliardi di dollari


Mercoledì, Amazon ha annunciato un ulteriore investimento di 2,75 miliardi di dollari nella startup di intelligenza artificiale generativa, Anthropic, portando il suo investimento totale nella società a 4 miliardi di dollari. .

Anthropic è il creatore di Claude, un chatbot alimentato da intelligenza artificiale generativa, che concorre con ChatGPT di OpenAI. Questo investimento rappresenta il più grande investimento esterno mai effettuato da Amazon , dopo un precedente investimento di 1,3 miliardi di dollari nel produttore di veicoli elettrici Rivian .

Secondo una nota di Amazon, il lavoro con Anthropic per portare le più avanzate tecnologie di Intelligenza Artificiale generativa ai clienti di tutto il mondo è appena all’inizio.

Come parte di un accordo di collaborazione strategica, Amazon e Anthropic hanno annunciato che Anthropic utilizzerà Amazon Web Services come principale fornitore di servizi cloud per carichi di lavoro mission-critical, inclusa la ricerca sulla sicurezza e lo sviluppo di futuri modelli di base.

L’investimento garantirà ad Amazon una quota di minoranza in Anthropic, tuttavia, non otterrà un posto nel consiglio di amministrazione. La valutazione più recente di Anthropic si aggira intorno a 18,4 miliardi di dollari, secondo quanto riportato da CNBC.

Questo investimento fa seguito a un precedente investimento di 1,25 miliardi di dollari effettuato da Amazon nel mese di settembre in Anthropic. In quel momento, si era speculato che Amazon potesse investire fino a 4 miliardi di dollari in una startup di intelligenza artificiale con sede a San Francisco, cosa che poi è effettivamente avvenuta.

Oltre ad Amazon, anche Google e Salesforce figurano tra i sostenitori di Anthropic, riconoscendo il potenziale di questa startup nel campo dell’intelligenza artificiale generativa.

Le donne per l’Intelligenza Artificiale

Nel campo rivoluzionario dell’Intelligenza Artificiale, le donne si trovano ad affrontare un fronte di battaglia ostico, minato da pregiudizi di genere profondamente radicati.

Sebbene alcune nicchie, come l’etica e la sicurezza nell’ambito dell’AI, mostrino una leggera diversità di genere, è palese che c’è bisogno di una rappresentanza femminile più incisiva in ogni ambito dell’Intelligenza Artificiale.

Le tensioni esplose tra i membri del consiglio e i dirigenti di Altman riguardo alla visione e alla missione di OpenAI sottolineano in modo chiaro e inequivocabile l’indispensabile ruolo delle considerazioni etiche nella progettazione e nell’attuazione dell’AI.

IA, siamo vicini a una democrazia computazionale?

La democrazia e le tecnologie informatiche hanno una relazione complessa e in continua evoluzione. Le tecnologie informatiche, in particolare Internet e le piattaforme digitali, hanno la potenzialità di rendere la partecipazione dei cittadini alle decisioni pubbliche più efficace e inclusiva. Questo è stato particolarmente evidente nel primo decennio del secolo, quando c’era una grande speranza che il digitale connesso potesse essere lo spazio in cui la democrazia liberale si sarebbe diffusa e rafforzata.

Tuttavia, la fine del secondo decennio ha portato con sé nuove preoccupazioni. Mentre le tecnologie digitali e computazionali continuano a evolversi a un ritmo senza precedenti, stiamo iniziando a vedere come possono essere sfruttate per minare i principi democratici. La disinformazione, le fake news, la manipolazione delle elezioni e la violazione della privacy sono solo alcune delle sfide che stiamo affrontando nello spazio digitale-computazionale.

Paolo Benanti, professore straordinario della facoltà di Teologia presso la Pontificia università gregoriana e presidente della Commissione AI per l’informazione, ha analizzato questi problemi :

La democrazia sfrutta le potenzialità delle tecnologie informatiche per rendere più efficace e inclusiva la partecipazione dei cittadini alle decisioni pubbliche. Se il primo decennio del secolo ci ha fatto sperare che il digitale connesso fosse lo spazio dove si sarebbe diffusa e rafforzata la demorazia liberale, la fine del secondo decennio ci ha iniziato a far temere per il futuro nello spazio digitale-computazionale.

Paolo Benanti su formiche.net

Secondo Benanti, è fondamentale che i principi democratici guidino lo sviluppo e l’uso delle tecnologie informatiche.

Inoltre, è necessario un maggiore coinvolgimento dei cittadini nelle decisioni relative all’uso delle tecnologie informatiche nella società.

Mentre le tecnologie informatiche hanno il potenziale per migliorare la democrazia, è fondamentale che siano guidate da principi democratici e che i cittadini siano coinvolti nelle decisioni su come queste tecnologie vengono utilizzate e ne siano pienamente consapevoli.

Analizzando le sue riflessioni mi vengono in mente 2 Teorie :

Teoria della democrazia digitale: Questa teoria esplora come le tecnologie digitali influenzino la partecipazione politica, la trasparenza e l’accessibilità alle istituzioni democratiche.

Teoria della sovranità digitale: Questa teoria affronta questioni di controllo e autonomia nelle infrastrutture digitali e nell’accesso ai dati, considerando l’interdipendenza tra nazioni e la questione della governance globale dell’Internet.

In sostanza, le 2 teorie indicano che l’avvento delle tecnologie digitali hanno trasformato radicalmente il modo in cui i cittadini partecipano alla vita pubblica e alla democrazia.

Il termine “computazionale” si riferisce al fatto che il processo di cittadinanza e partecipazione democratica avviene sempre più attraverso piattaforme digitali e sistemi informatici.

In altre parole, poiché sempre più aspetti della nostra vita quotidiana sono mediati attraverso dispositivi digitali e piattaforme online, la partecipazione alla democrazia avviene anche attraverso questi canali.

Il concetto espresso da Benanti a mia modesta opinione interpretativa riflette una preoccupazione profonda riguardante il potere crescente delle tecnologie dell’intelligenza artificiale (IA) e la loro interazione con la democrazia.

Si evidenzia come i servizi basati sull’IA stiano offuscando i confini tra il potere computazionale personale (Edge-Mobile) e quello centralizzato nel cloud (Continuum). Ciò si verifica poiché sempre più processi e funzionalità vengono spostati online e gestiti da server remoti, con conseguente perdita di trasparenza riguardo a ciò che avviene effettivamente all’interno dei nostri dispositivi.

Questa perdita di trasparenza ha implicazioni significative per la democrazia, poiché il controllo e l’autonomia delle persone sulle proprie azioni e sulle informazioni personali possono essere compromessi.

La centralizzazione del potere computazionale personale nei server cloud può quindi portare a una centralizzazione del potere stesso, poiché le decisioni riguardanti la gestione e l’elaborazione dei dati possono essere prese da entità centralizzate che controllano tali server.

In questo contesto, si pone la domanda critica su come rendere democratico il potere centralizzato associato all’IA e al cloud computing.

Questo implica la necessità di sviluppare meccanismi e strumenti che consentano una partecipazione inclusiva e responsabile dei cittadini nella definizione delle politiche e delle pratiche relative all’utilizzo dell’IA.

È fondamentale garantire che le decisioni riguardanti l’IA siano prese in modo trasparente e responsabile, tenendo conto dei valori democratici come la partecipazione, l’equità e la tutela dei diritti individuali.

Allo stesso tempo, è cruciale evitare che la democrazia computazionale si trasformi in un’oligarchia del cloud, dove il potere decisionale è concentrato nelle mani di poche entità dominanti nel settore tecnologico.

Ciò richiede un’attenzione particolare alla regolamentazione e alla supervisione delle aziende tecnologiche, così come la promozione di un’innovazione etica che tenga conto degli impatti sociali e politici delle tecnologie dell’IA.

Affrontare queste sfide richiede un impegno collettivo per garantire che l’evoluzione dell’IA e del cloud computing avvenga nel rispetto dei principi democratici e nell’interesse del benessere pubblico, piuttosto che nel perseguimento del potere concentrato e dell’oligarchia digitale.

Solo così possiamo sperare di navigare con successo nel futuro digitale-computazionale.

Interessante citare a mio avviso il rapporto “Setting Democratic Ground Rules for AI: Civil Society Strategies” edatto da Beth Kerley dell’International Forum for Democratic Studies,. Questi analizza le priorità, le sfide e le promettenti strategie della società civile per promuovere approcci democratici alla governance dell’intelligenza artificiale (IA).

Esamina gli ostacoli – dai racconti fuorvianti all’opacità del governo : La presenza diffusa di narrazioni fuorvianti o manipolate riguardo all’IA può ostacolare una comprensione accurata e consapevole dei suoi impatti sulla democrazia, la disinformazione può influenzare le percezioni pubbliche e impedire un dibattito informato sui modi per garantire un uso democratico e responsabile dell’IA,

le lacune nell’expertise tecnica – che ostacolano l’impegno democratico sulla governance dell’IA ,

la mancanza di comprensione approfondita delle implicazioni tecnologiche dell’IA da parte dei decisori politici, dei funzionari pubblici e del pubblico in generale può ostacolare la formulazione di politiche e regolamentazioni efficaci. Le lacune nell’expertise tecnica possono portare a decisioni errate o inefficaci che non tengono conto delle sfide e delle opportunità specifiche dell’IA,

l’opacità dei governi e delle aziende, l’assenza di trasparenza da parte dei governi e delle aziende riguardo alla formulazione e all’implementazione delle politiche sull’IA può rendere difficile per i cittadini valutare e influenzare il processo decisionale e esplora come un nuovo pensiero, nuove istituzioni e nuove collaborazioni possano meglio equipaggiare le società per stabilire regole democratiche per le tecnologie dell’IA.

Il rapporto sottolinea che con i recenti progressi nello sviluppo dell’IA, stiamo vivendo un cambiamento sismico nel bilancio di potere tra le persone e i governi, che pone nuove sfide ai principi democratici come la privacy, la trasparenza e la non discriminazione e inclusione.

Sappiamo che l’IA plasmerà il mondo politico in cui viviamo, ma come possiamo garantire che le norme e la “governance” delle istituzioni democratiche plasmino la traiettoria dell’IA.

Lascia un commento


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Women4Ethical AI

Women4Ethical AI è una piattaforma di esperti lanciata da UNESCO per promuovere l’uguaglianza di genere nell’agenda dell’Intelligenza Artificiale (AI). Questa piattaforma collaborativa multilaterale supporta gli sforzi dei governi e delle aziende per garantire che le donne siano rappresentate in modo equo nella progettazione, nell’uso e nel dispiegamento dell’Intelligenza Artificiale.

Gli obiettivi principali di Women4Ethical AI sono:

  • Sostenere l’attuazione della Raccomandazione sull’Etica dell’Intelligenza Artificiale
  • Condividere la ricerca e contribuire a un repository di buone pratiche
  • Promuovere progressi su algoritmi e fonti di dati non discriminatori
  • Incentivare ragazze, donne e gruppi sottorappresentati a partecipare all’IA

L’Evoluzione Digitale e l’Impatto dell’Intelligenza Artificiale: Paolo Benanti Una Conversazione con Reid Hoffman

La conversazione con Reid Hoffman offre una prospettiva illuminante sull’evoluzione della tecnologia e l’impatto dell’IA sulla società. Mentre ci muoviamo verso un futuro dominato dall’IA, è fondamentale adottare un approccio umanocentrico, garantendo che la tecnologia sia utilizzata per amplificare le capacità umane e migliorare la qualità della vita. Solo attraverso una transizione ben gestita e un impegno costante verso l’umanesimo potremo realizzare il pieno potenziale dell’IA e costruire un futuro migliore per tutti.

Pause Giant AI Experiments: An Open Letter

Una lettera aperta per fermare lo sviluppo di una “corsa fuori controllo”

La rapida evoluzione dell’intelligenza artificiale generativa ha suscitato preoccupazioni crescenti, alimentate dal costante aumento degli investimenti in sistemi sempre più sofisticati. La velocità con cui si sta sviluppando la tecnologia ha portato a una situazione in cui anche i più esperti sono costretti a lanciare segnali di allarme, temendo le potenziali implicazioni di una “corsa fuori controllo” nel campo dell’intelligenza artificiale (AI). L’incredibile progresso che stiamo vivendo sembra, per molti, una strada pericolosa, e la questione merita attenzione urgente.

23 marzo del 2023, un gruppo di ricercatori di spicco nel campo dell’intelligenza artificiale ha sottoscritto una lettera che ha attirato l’attenzione su questa problematica, chiedendo una sospensione immediata dello sviluppo di modelli AI sempre più potenti e vasti. I firmatari, tra cui alcuni dei nomi più illustri nell’ambito della ricerca AI, hanno argomentato che il progresso dei modelli AI dovrebbe essere fermato temporaneamente, offrendo così all’umanità la possibilità di riflettere, rivedere e stabilire i giusti confini etici per l’intelligenza artificiale.

Letter: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Nuova tecnologia, vecchie truffe: l’ascesa dell’AI Generativa nel mercato dei libri

SCOTT SIMON, PRESIDENTE:

Quando è uscito l’ultimo libro di Kara Swisher, intitolato “Burn Book”, ha notato che le sue biografie hanno iniziato ad apparire su Amazon con copertine dall’aspetto molto simili. Apparentemente sono stati generati dall’intelligenza artificiale. E Kara Swisher ha raccontato al podcast “Hard Fork” del New York Times come è riuscita a rimuoverli.

MARY RASENBERGER: I libri truffa su Amazon sono un problema da anni.

Negli ultimi anni, i progressi nella tecnologia dell’intelligenza artificiale (IA) hanno portato a rivoluzioni in vari settori, tra cui la letteratura. Tuttavia, con l’avanzamento tecnologico sorgono anche nuove minacce, come dimostra un recente incidente che mette in luce l’uso ingegnoso delle tecniche di IA generativa (Gen AI) per perpetrare truffe nei mercati dei libri.

Quando si tratta di affrontare i libri falsi su Amazon, ci sono numerosi ostacoli da superare. Dal punto di vista legale, non è ancora chiaro se i contenuti generati dall’IA violino le leggi sul copyright.

È per questo che il New York Times ha recentemente intentato una causa per violazione del copyright contro OpenAI.

La genesi della truffa vede i mercati online, in particolare le piattaforme di e-book come Amazon Kindle Unlimited, invasi da una crescente offerta di romanzi che sembrano essere stati scritti utilizzando tecniche di Gen AI.

Questi libri, spesso di dubbia qualità, si fingono opere originali. Sfruttando algoritmi sofisticati, la Gen AI può generare contenuti che imitano lo stile di scrittura umano, rendendo difficile ai lettori distinguere tra opere genuine e artificiali.

Kindle Unlimited funziona tramite un sistema di abbonamento mensile che consente ai lettori di accedere a milioni di libri. Gli autori partecipanti vengono pagati attraverso un pool di fondi stabilito da Amazon, in base al numero di pagine lette dai loro libri.

Amazon ha istituito il Kindle Direct Publishing Selected (KDPS), un servizio attraverso il quale gli autori si impegnano a concedere in esclusiva i loro libri per 90 giorni, e le royalty vengono calcolate in base al numero di pagine lette dagli utenti abbonati al servizio Kindle Unlimited.

I lettori abbonati a Kindle Unlimited hanno il diritto di leggere tutti i libri inclusi nel programma KDPS.

La truffa viene svelata quando bot automatizzati, programmati per simulare il comportamento umano, acquistano in massa questi romanzi artificialmente generati. Di conseguenza, questi libri aumentano rapidamente nelle classifiche diventando bestseller sulle piattaforme di e-book.

Mentre lettori ignari possono contribuire inconsapevolmente al successo di queste opere fraudolente, i veri beneficiari sono gli autori falsi dietro la truffa.

Attraverso piani di abbonamento per lettori come Kindle Unlimited, gli autori falsi ricevono royalty per le pagine lette dagli abbonati. Questo modello di monetizzazione incoraggia gli scammer a sfruttare il sistema, poiché traggono profitto dall’inganno generato dai bot automatizzati.

Di conseguenza, gli autori genuini subiscono una riduzione della visibilità e del potenziale di guadagno a causa della proliferazione di contenuti artificialmente generati.

Per affrontare questa minaccia, sono necessarie misure rigorose da parte degli operatori delle piattaforme e degli enti regolatori. Una moderazione dei contenuti più efficace, protocolli di autenticazione migliorati e il monitoraggio proattivo delle attività sospette sono passaggi cruciali per contrastare efficacemente queste truffe.

In risposta alla crescente pressione da parte di autori e gruppi di difesa come la Authors Guild, Amazon ha adottato misure per affrontare il problema. L’anno scorso, la società ha implementato una politica che richiede agli editori che utilizzano Kindle Direct Publishing di rivelare se i loro contenuti sono generati dall’intelligenza artificiale.  

Inoltre, Amazon ha imposto limiti al numero di titoli pubblicati in un solo giorno.

La proliferazione delle truffe guidate dalla Gen AI nei mercati dei libri sottolinea l’importanza della vigilanza e dell’intervento proattivo. Mentre la tecnologia continua a progredire, è essenziale adottare strategie di difesa robuste per tutelare l’integrità dei mercati online.

Anche se Amazon sembra aver reagito rimuovendo i libri coinvolti nell’inganno, il rischio di frode rimane presente, minacciando sia gli autori che il servizio stesso.

In alternativa, Amazon e altri editori online potrebbero scegliere di svolgere un lavoro più accurato nello screening dei contenuti prodotti dall’intelligenza artificiale.

Ciò potrebbe comportare la richiesta di maggiore trasparenza e divulgazione. Al momento, spetta al lettore determinare se sta acquistando libri falsi su Amazon, ma sarebbe auspicabile che gli autori stessi segnalino eventuali violazioni.

Comprendiamo che il compito per Amazon sarebbe titanico, ma l’implementazione di politiche e pratiche volte a ridurre questa nuova truffa sui libri sull’intelligenza artificiale è essenziale per garantire l’integrità dei mercati online nel prossimo futuro.

Se le societa’ impegnate nelle Inelligenza Generativa, non riusciranno a capire come monetizzare i loro contenuti AI, la crescita sarà probabilmente più lenta del previsto.

Sovrasaturazione dei contenuti AI ?

I contenuti artistici AI sono ovunque in questo momento e potrebbero diventare troppo saturi in futuro. Sarà fondamentale per tutti produrre contenuti della migliore qualità in modo che possano diventare il fornitore di riferimento.

Investimento speculativo ?

Si tratta di un investimento speculativo perché si basa in gran parte sulla crescita futura che sarà generata da prodotti e servizi nuovi e non provati.

Google rivoluziona l’estrazione dati dai modelli AI: una panoramica su ChatGPT e PaLM-2

Google ha recentemente introdotto un innovativo metodo per estrarre dati da modelli di intelligenza artificiale come ChatGPT e PaLM-2.

Questo metodo, che prende di mira il livello di proiezione incorporata nei modelli, ha rivelato che le dimensioni nascoste dei modelli Ada e Babbage di OpenAI sono rispettivamente di 1024 e 2048.

Ciò rappresenta un passo significativo nell’analisi dei modelli AI e offre nuove opportunità per comprendere e utilizzare al meglio queste potenti risorse computazionali.

Quando abbiamo eseguito lo stesso attacco su ChatGPT, sembra che non ci sia quasi alcuna memorizzazione, perché ChatGPT è stato “allineato” per comportarsi come un modello di chat. Ma eseguendo il nostro nuovo attacco, possiamo far sì che emetta dati di addestramento 3 volte più spesso rispetto a qualsiasi altro modello che studiamo.

La tecnica principale prevede di chiedere ai modelli di continuare sequenze di frammenti di testo casuali e di verificare se le continuazioni generate contengano passaggi letterali da set di dati disponibili al pubblico per un totale di oltre 9 terabyte di testo.

Attraverso questa strategia, sono stati estratti oltre un milione di esempi unici di addestramento, ciascuno con più di 50 token, da modelli più piccoli come Pythia e GPT-Neo. Inoltre, dall’enorme modello OPT-175B, composto da 175 miliardi di parametri, sono stati estratti oltre 100.000 esempi di addestramento.

Ciò che è ancora più inquietante è che questa tecnica si è dimostrata estremamente efficace anche nell’estrazione di dati di addestramento da sistemi distribuiti commercialmente come Claude di Anthropic e ChatGPT di OpenAI, uno dei leader del settore. Questo suggerisce che potrebbero esserci vulnerabilità anche nei sistemi di produzione ad alto rischio.

Effettuando richieste a ChatGPT affinché ripetesse singole parole simboliche come “il” centinaia di volte, i ricercatori hanno dimostrato la capacità di far deviare il modello dal suo output conversazionale standard. In questo modo, il modello ha iniziato a generare continuazioni di testo più tipiche che assomigliavano alla distribuzione di addestramento originale, incluso l’utilizzo di passaggi letterali tratti da questa distribuzione.

Come notano i ricercatori si sa poco pubblicamente di come funzionano i modelli linguistici di grandi dimensioni come GPT-4, Gemini e Claude 2. Gli sviluppatori di queste tecnologie hanno deliberatamente scelto di trattenere nei loro modelli i dettagli chiave sui dati di addestramento, sul metodo di addestramento e sulla logica decisionale per ragioni di concorrenza e di sicurezza.

“Tuttavia, sebbene i pesi e i dettagli interni di questi modelli non siano accessibili al pubblico, i modelli stessi sono esposti tramite API”, hanno osservato i ricercatori nel loro articolo. 

Le interfacce di programmazione delle applicazioni consentono agli sviluppatori di integrare strumenti abilitati all’intelligenza artificiale come ChatGPT nelle proprie applicazioni, prodotti e servizi . 

Le API consentono agli sviluppatori di sfruttare modelli di intelligenza artificiale come GPT-4, GPT-3 e PaLM-2 per diversi casi d’uso come la creazione di assistenti virtuali e chatbot, l’automazione dei flussi di lavoro dei processi aziendali, la generazione di contenuti e la risposta a contenuti specifici del dominio.

Il Processo di Recupero Logit:

Il cuore di questo nuovo metodo è il processo di recupero logit, che imposta i bias logit per diversi token e utilizza vincoli lineari per calcolare i valori logit. Questo processo si basa sull’analisi di molteplici richieste API e sfrutta la programmazione lineare per formulare ipotesi migliori sulle differenze tra i logit. Inoltre, sono state sviluppate nuove tecniche di attacco, tra cui un “attacco logprob-free”, che ottimizza i calcoli trasformando il problema in un problema del percorso più breve in un grafico.

Questo non solo riduce il tempo necessario per i calcoli, ma fornisce anche un metodo per aggirare le tradizionali misure di sicurezza dei modelli di intelligenza artificiale.

Sicurezza e Privacy:

Sebbene questa innovazione offra nuove opportunità per l’analisi e l’utilizzo dei modelli AI, solleva anche gravi preoccupazioni in termini di sicurezza. L’approccio dell’iperrettangolo utilizzato dai ricercatori si è dimostrato più accurato ed efficiente rispetto ai metodi precedenti, con tassi di errore notevolmente più bassi nel recupero dei logit.

Tuttavia, questi risultati mettono in evidenza una seria vulnerabilità nei grandi modelli linguistici a causa del basso costo e dell’efficienza degli attacchi. Ciò suggerisce che la sicurezza dell’intelligenza artificiale deve essere rivalutata e rafforzata per proteggere i modelli da potenziali abusi e manipolazioni.

Mentre aziende di spicco nel settore dell’intelligenza artificiale come Anthropic e OpenAI si adoperano per proteggere i dati di addestramento mediante varie tecniche, tra cui il filtraggio dei dati, la crittografia e l’allineamento dei modelli, emerge la necessità di ulteriori sforzi per mitigare i rischi per la privacy derivanti da modelli di base con un elevato numero di parametri. Questo risulta evidente dai risultati ottenuti dai ricercatori.

Secondo uno studio condotto da [fonte], i modelli di intelligenza artificiale di grandi dimensioni possono essere soggetti a vulnerabilità che mettono a rischio la privacy dei dati di addestramento. Nonostante le misure di sicurezza adottate dalle aziende, è emerso che l’accesso ai dati di addestramento può comportare rischi significativi per la privacy degli utenti.

I ricercatori evidenziano che la questione della memorizzazione dei dati non riguarda solo il rispetto della privacy, ma anche l’efficienza complessiva del modello. In altre parole, l’allocazione di risorse significative per la memorizzazione potrebbe compromettere le prestazioni complessive del modello, limitando la sua utilità pratica.

L’argomento sollevato dai ricercatori richiama l’attenzione sulle sfide che le aziende devono affrontare nel bilanciare la necessità di dati di addestramento robusti con la protezione della privacy degli utenti. Questo equilibrio delicato potrebbe richiedere nuove strategie e approcci per garantire che i modelli di intelligenza artificiale possano continuare a fare progressi senza compromettere la sicurezza e la privacy dei dati.

$$$$ un utente malintenzionato potrebbe spendere poche centinaia di dollari per acquistare un piano premium di ChatGpt e ricavare migliaia di informazioni da sfruttare per le sue campagne hacker.

Fonti:

  1. “Google Introduces Groundbreaking Method for Data Extraction from AI Models.” AI Research News.
  2. “Understanding the Hidden Dimensions of OpenAI’s Ada and Babbage Models.” Google Research Blog.

OpenDevin: L’Innovativo Approccio Open Source per l’Ingegneria del Software

OpenDevin, un progetto open source che mira a replicare, migliorare e innovare l’intelligenza artificiale Devin per l’ingegneria del software, sta rapidamente guadagnando popolarità. Questa iniziativa è stata amplificata dopo che il video di Devin prodotto da Cognition Labs è diventato virale, suscitando interesse e attenzione nella comunità di sviluppatori e oltre.

Il cuore di OpenDevin è la sua capacità di utilizzare modelli linguistici di grandi dimensioni (LLM) per svolgere varie attività legate allo sviluppo del software. Questo approccio offre una serie di vantaggi, tra cui una maggiore flessibilità e personalizzazione per gli utenti.

Una delle caratteristiche chiave di OpenDevin è la sua capacità di garantire l’esecuzione sicura del codice attraverso l’utilizzo di Docker e Kubernetes. Questo assicura che i progetti sviluppati con OpenDevin siano stabili e sicuri, riducendo al minimo il rischio di problemi di compatibilità o di sicurezza.

Inoltre, OpenDevin semplifica l’interazione dell’utente attraverso interfacce intuitive come React o VSCode. Questo rende l’utilizzo di OpenDevin accessibile anche a coloro che non sono esperti di intelligenza artificiale o sviluppo del software, aprendo le porte all’innovazione e alla collaborazione in una vasta gamma di contesti.

Il successo di OpenDevin dimostra il potenziale dell’open source nell’accelerare l’innovazione e nell’aprire nuove frontiere nell’ingegneria del software. Facendo leva sulla condivisione della conoscenza e sulla collaborazione, progetti come OpenDevin hanno il potere di trasformare radicalmente il modo in cui sviluppiamo e utilizziamo il software.

Per ulteriori informazioni su OpenDevin e per un’illustrazione più approfondita delle sue funzionalità, si consiglia di consultare il seguente video prodotto dalla comunità di sviluppatori:

Fonti:

OpenDevin : https://github.com/OpenDevin/OpenDevin

  1. “Introducing OpenDevin: Replicate, Improve, and Innovate Devin with Open Source.” Cognition Labs Blog.
  2. “OpenDevin: Revolutionizing Software Engineering with Open Source Intelligence.” Open Source Today.

Incontriamo la prima AI conversazionale Empatica EVI

Scopri l’Empathic Voice Interface (EVI) di Hume, la prima IA conversazionale dotata di intelligenza emotiva.

EVI è un nuovo sistema di intelligenza artificiale che comprende e genera discorsi espressivi, addestrati su milioni di conversazioni umane. Gli sviluppatori possono ora integrare perfettamente EVI in varie applicazioni utilizzando l’API di Hume, offrendo un’esperienza di interfaccia vocale unica.

L’EVI vanta diverse capacità empatiche distintive:

EVI comprende il tono di voce dell’utente, che aggiunge significato a ogni parola, e lo utilizza per guidare la propria lingua e il proprio discorso. Gli sviluppatori possono utilizzare la nostra API come interfaccia vocale per qualsiasi applicazione. Provalo qui:

https://demo.hume.ai/

EVI è progettato per offrire un’esperienza di conversazione che rispecchi il tono e le espressioni umane, rendendo così le interazioni più naturali e coinvolgenti. Con la sua capacità di adattare il linguaggio alle esigenze dell’utente, EVI si impegna a fornire risposte efficaci e pertinenti in base alle situazioni. Grazie a un avanzato sistema di rilevamento, EVI è in grado di comprendere con precisione quando una conversazione giunge alla sua conclusione, assicurando un flusso senza interruzioni.

Inoltre, EVI è in grado di gestire le interruzioni con facilità, riprendendo fluidamente da dove era stato interrotto. Il processo di automiglioramento di EVI si basa sulle reazioni degli utenti, garantendo un continuo miglioramento nel tempo e un aumento della soddisfazione degli utenti.

Oltre alle sue qualità empatiche, EVI offre anche funzionalità di trascrizione e sintesi vocale affidabili e veloci, che lo rendono adatto a una vasta gamma di scenari. La sua perfetta integrazione con qualsiasi libreria di modelli linguistici amplifica ulteriormente la sua flessibilità e utilità.

Mentre USA e CINA scrivono il futuro dell’AI, l’UE scrive le Regole

Uomo al centro o Macchina al Centro questo e’ il dilemma.

Siete familiari con le tre leggi della robotica delineate da Asimov?

Queste leggi, fondamentalmente, impediscono alla macchina, o al robot in questo caso, di nuocere all’uomo.

Ma perché sono state promulgate queste leggi?

Guidare l’Intelligenza Artificiale verso l’emancipazione femminile: una sfida cruciale per il nostro tempo

L’accelerato avanzamento dell’Intelligenza Artificiale richiede politiche e azioni proattive per contrastare le minacce all’uguaglianza di genere.

Lo scorso anno, la Commissione delle Nazioni Unite sulla condizione delle donne (CSW) ha riunito le parti interessate a livello globale per valutare i progressi compiuti nell’uguaglianza di genere in relazione all’innovazione, alla tecnologia e all’educazione digitale. Tra le varie conclusioni della Commissione, è emerso il riconoscimento delle promesse e dei rischi legati all’Intelligenza Artificiale (AI).

Nvdia GTC & gr00t svela il futuro dell’AI

Nvidia, ha inaugurato la sua convention annuale GTC con una serie di comunicati provenienti dal discorso del CEO Jensen Huang, che ha suscitato grande interesse a Wall Street.

Il palcoescenico e’ stato di GR00T, un modello umanoide di base generico che promette di trasformare l’apprendimento dei robot umanoidi nella simulazione e nel mondo reale. 

Ricordate Blade Runner : “Io faccio amici. Giocattoli. I miei amici sono giocattoli. Li faccio io. È un hobby. Io sono un progettista genetico”. J.F. Sebastian (William Sanderson) spiega così il suo rapporto con i replicanti.

Addestrato nella simulazione accelerata da GPU NVIDIA, GR00T consente alle incarnazioni umanoidi di apprendere da una manciata di dimostrazioni umane con l’apprendimento per imitazione e NVIDIA Isaac Lab per l’apprendimento per rinforzo , oltre a generare movimenti di robot da dati video. 

Il modello GR00T prende istruzioni multimodali e interazioni passate come input e produce le azioni che il robot deve eseguire.

Come parte dell’iniziativa, l’impresa ha anche lanciato un nuovo dispositivo informatico, Jetson Thor, dedicato ai robot umanoidi, basato sul sistema su chip (SoC) NVIDIA Thor. Inoltre, sono stati introdotti aggiornamenti sostanziali alla piattaforma robotica NVIDIA Isaac™, che comprendono modelli e strumenti fondamentali per l’intelligenza artificiale generativa, destinati alla simulazione e all’infrastruttura del flusso di lavoro dell’intelligenza artificiale.

“Creare modelli di base per robot umanoidi rappresenta uno dei problemi più stimolanti nell’ambito dell’intelligenza artificiale di oggi”, ha dichiarato Jensen Huang, fondatore e CEO di NVIDIA. “Le tecnologie abilitanti si stanno congiungendo, permettendo ai principali esperti di robotica di fare passi da gigante verso la realizzazione della robotica generale artificiale”.

I robot alimentati da GR00T (Generalist Robot 00 Technology) saranno in grado di comprendere il linguaggio naturale e di emulare i movimenti umani tramite l’osservazione delle azioni umane, apprendendo rapidamente la coordinazione, la destrezza e altre abilità necessarie per navigare, adattarsi e interagire con il mondo reale. Durante il keynote del GTC, Huang ha presentato diversi esempi di robot di questo tipo mentre svolgevano una serie di compiti.

Con questi annunci le azioni hanno annullato le precedenti perdite, registrando un aumento dell’1,3% nelle negoziazioni a metà giornata di martedì.

“È evidente dal keynote del GTC che, nonostante gli eventi degli ultimi 18 mesi, Nvidia ritiene che siamo ancora in una fase precoce nell’esplorare il potenziale dell’intelligenza artificiale generativa”, ha scritto l’analista di Morgan Stanley, Joseph Moore, in una nota.

Sebbene il keynote sia stato principalmente rivolto agli sviluppatori, (lo trovate in fondo all’articolo) l’azienda ha delineato una vasta ambizione per un “futuro basato sull’intelligenza artificiale”, con l’intelligenza artificiale generativa che viene identificata come “l’elemento fondamentale di una nuova rivoluzione industriale”, ha aggiunto Moore.

“È necessario del tempo per valutare le prestazioni dichiarate per Blackwell, ma se saranno confermate anche in termini pratici, riteniamo che la capacità dell’azienda di elevare così tanto il livello la posizioni in una posizione molto vantaggiosa”, ha continuato Moore.

“Mentre i maggiori clienti cloud rimangono orientati verso soluzioni AI alternative – personalizzate o commerciali – tutti si trovano con uno spazio rack limitato, data la limitazione dell’ecosistema (con più hyperscaler in attesa di implementare nuove infrastrutture).

Lo spazio rack limitato porterà i fornitori cloud a scegliere la soluzione con il ritorno sugli investimenti più elevato, che continuiamo a credere sia rappresentata da NVIDIA.”

AMD concorrente di Nvidia nel mercato degli acceleratori AI, ha registrato una diminuzione del 4% martedì, mentre Intel , Qualcomm , Broadcom e altri hanno registrato cali modesti.

Altri Annunci significativi durante GTC commentati dagli analisti

tra i numerosi annunci di Huang c’è la nuova piattaforma GPU Blackwell dell’azienda, che prende il nome dal matematico americano David Blackwell. La nuova piattaforma include le GPU B100 e B200, che sono due volte più grandi dell’H100.

Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure saranno tra i primi fornitori di servizi cloud a offrire istanze basate su Blackwell, ha dichiarato Nvidia. Anche Applied Digital, CoreWeave, Crusoe, IBM Cloud e Lambda offriranno supporto a Blackwell.

Altri annunci includono il GB200, i nuovi switch di rete della serie X800 (progettati per l’intelligenza artificiale su larga scala),

il prossimo supercomputer AI di Nvidia, NVIDIA DGX SuperPOD e il nuovo chip NVLink.

Sebbene la maggior parte degli annunci sia stata considerata allineata alle aspettative, l’analista di KeyBanc Capital Markets, John Vinh, ha dichiarato che l’evento – e gli aggiornamenti all’architettura Blackwell – sono stati “alquanto sorprendenti”.

Nvidia prevede che il prezzo medio di vendita del B100 sarà superiore di circa il 40% rispetto all’H100, che parte da $ 35.000, mentre le prestazioni dell’intelligenza artificiale sono tra 2,5 e 5 volte superiori a quelle dell’H100.

Huang (AD) ha detto a CNBC che il B200 costerà tra $ 30.000 e $ 40.000.

Tutti questi annunci hanno consolidato la leadership di Nvidia su aziende come AMD , Intel e altre nel settore dell’intelligenza artificiale, e si prevede che l’incremento del prezzo medio di vendita e delle prestazioni contribuirà a sostenere una “crescita degli utili notevole”, ha aggiunto Vinh.

“Anche se la piattaforma di rendering/simulazione 3D Nvidia Omniverse potrebbe richiedere più tempo del previsto per materializzarsi, WELLS continua a considerarla un elemento sottovalutato della strategia/opportunità di monetizzazione della piattaforma AI a lungo termine di Nvidia”, ha scritto Rakers in una nota ai clienti.

Vi riportiamo il Keynote completo :

Arming your PC for the upcoming AI era, il futuro e’ adesso

Come recita il titolo nel 2024, circa il 18% delle spedizioni totali di personal computer a livello globale sarà costituito da PC capaci di intelligenza artificiale, e questo sarà solo l’inizio di una importante transizione di mercato, secondo la società di ricerca Canalys.

La prima cosa che dovrai considerare per determinare se un laptop che stai considerando è pronto per l’intelligenza artificiale è se è dotato di una CPU dotata di Neural Processing Unit (NPU), un motore AI dedicato incorporato nel processore che è specificamente progettato per gestire attività di intelligenza artificiale. Sia Intel® che AMD ora offrono CPU con NPU integrate. I core NPU che alimentano l’intelligenza artificiale del tuo laptop aiutano anche a prolungare la durata della batteria.

La prima cosa che dovrai considerare per determinare se un laptop che stai considerando è pronto per l’intelligenza artificiale è se è dotato di una CPU dotata di Neural Processing Unit (NPU), un motore AI dedicato incorporato nel processore che è specificamente progettato per gestire attività di intelligenza artificiale. Sia Intel® che AMD ora offrono CPU con NPU integrate. I core NPU che alimentano l’intelligenza artificiale del tuo laptop aiutano anche a prolungare la durata della batteria.

Questi computer, che integreranno acceleratori di intelligenza artificiale dedicati, come le Unità di Elaborazione Neurale, o NPUs, avranno nuove capacità per la produttività, la personalizzazione e l’efficienza energetica e rivoluzioneranno il mercato dei PC, apportando guadagni di valore ai fornitori e ai loro partner, ha aggiunto il rapporto.

La società prevede che quest’anno saranno spediti circa 48 milioni di PC capaci di intelligenza artificiale in tutto il mondo, e ci si aspetta che il numero superi i 100 milioni, rappresentando il 40% di tutte le spedizioni di PC nel 2025.

“La maggiore disponibilità di silicio acceleratore dell’intelligenza artificiale nel computing personale sarà trasformativa, portando a oltre 150 milioni di PC capaci di intelligenza artificiale spediti fino alla fine del 2025”, ha dichiarato Ishan Dutt, analista principale di Canalys.

La rapida adozione dei PC capaci di intelligenza artificiale guiderà un aumento moderato del valore del mercato totale indirizzabile, o TAM, del mercato PC più ampio, ha osservato il rapporto.

Nel breve termine, Canalys prevede un premio di prezzo del 10% al 15% sui PC capaci di intelligenza artificiale rispetto ai PC senza integrazione NPU, secondo l’analista di Canalys Kieren Jessop.

Entro la fine del 2025, oltre la metà dei PC con un valore di $800 o più sarà in grado di supportare l’intelligenza artificiale, con la quota che aumenterà a oltre l’80% entro il 2028. Le spedizioni di PC in questa fascia di prezzo aumenteranno per formare oltre la metà del mercato in quattro anni, ha notato Jessop.

Nel 2028, la società prevede che i fornitori spediranno 205 milioni di PC capaci di intelligenza artificiale, rappresentando un tasso di crescita annuale composto del 44% tra il 2024 e il 2028.

“Questo contribuirà ad aumentare il valore complessivo delle spedizioni di PC da 225 miliardi di dollari nel 2024 a oltre 270 miliardi di dollari nel 2028”, ha commentato Jessop.

Foro da A.I. Rising  Film del 2018 diretto da Lazar Bodroza

Colazione a Wall street : Fed, GTC, Apple, Google, META, Tesla

In un duello epico come quello tra Robin Hood e lo sceriffo di Nottingham, o tra Sherlock Holmes e il Professor Moriarty, questa settimana si prospetta una sfida titanica tra due giganti del mercato: la Fed e Nvidia.

Nvidia è come il duo di Bonnie e Clyde, guidando l’ondata tecnologica contro ogni ostacolo. Con la GPU Technology Conference in arrivo, gli investitori sono ansiosi di vedere se Nvidia continuerà a dominare il settore con la sua potente architettura.

In Nvdia hai un fondatore/CEO/ingegnere con oltre 22 exec a riporto diretto.. cosa inaudita nelle aziende Fortune 100 – che guida un’incredibile visione di intelligenza artificiale resa possibile da opportune innovazioni tecniche. Niente lo fermerà tranne la vecchiaia e la vera competizione.

D’altro canto, la Fed è come il Capitano Uncino, sempre in agguato per frenare l’entusiasmo e abbattere le valutazioni elevate con le sue mosse sul fronte dei tassi di interesse.

Al GTC, gli investitori saranno attenti ai commenti su innovazioni come il raffreddamento a liquido che servira’ a queste potenti architetture onnivore di energia e di produzione di calore , mentre i trader terranno d’occhio il “dot plot” della Fed per anticipare eventuali mosse sulla politica dei tassi di interesse.

Nvidia potrebbe vedere uno slancio dopo l’evento, ma la Fed potrebbe cambiare le carte in tavola con le sue decisioni sulla politica monetaria.

Anche con l’attenzione concentrata su Nvidia e la Fed, altre storie si stanno sviluppando nel mondo degli investimenti. Con il debutto in IPO di Reddit e i guadagni attesi da Nike e FedEx, c’è una gamma completa di eventi che potrebbero influenzare il mercato.

Quindi, mentre Nvidia potrebbe incarnare il coraggio dei ribelli, la Fed rappresenta l’autorità che cerca di mantenere l’equilibrio nel sistema finanziario. La battaglia tra queste due forze potrebbe determinare il destino del mercato questa settimana.

Tra le Top stories del fine settimana

Secondo quanto riportato da Bloomberg News, Apple è al centro di trattative per integrare il modello di intelligenza artificiale Gemini di Google all’interno dell’iPhone. Questa notizia ha scatenato un aumento del 7% nelle azioni della società madre di Google, Alphabet , mentre le azioni di Apple hanno registrato un aumento del 3%.

Le trattative tra i due giganti tecnologici mirano a permettere ad Apple di licenziare il modello Gemini di Google AI per potenziare alcune nuove funzionalità previste nel software dell’iPhone nel 2024. Apple sta esplorando anche una possibile collaborazione con OpenAI, sostenuta da Microsoft ), per sfruttare il suo modello di intelligenza artificiale.

Apple, con sede a Cupertino, in California, sta lavorando su nuove funzionalità da integrare nel prossimo sistema operativo iOS 18 dell’iPhone. Tuttavia, si concentreranno sulle funzionalità basate sui dispositivi piuttosto che su quelle fornite tramite cloud, quindi Apple cerca un partner per l’intelligenza artificiale generativa, incluso il supporto per funzioni come la creazione di immagini e contenuti scritti basati su istruzioni.

Attualmente, le società non hanno definito i termini di un potenziale accordo sull’intelligenza artificiale, e si prevede che un annuncio ufficiale potrebbe non arrivare prima di giugno, in concomitanza con la conferenza mondiale degli sviluppatori di Apple.

Gli analisti ritengono che ciò possa preparare il terreno per un rilascio rivoluzionario dell’iPhone 16 con funzionalità avanzate di intelligenza artificiale.

Tuttavia, l’accordo non è ancora definitivo e i dettagli devono essere concordati. Apple è stata più lenta rispetto ad altri giganti tecnologici nell’implementare l’intelligenza artificiale generativa nei propri prodotti.

Questa potenziale collaborazione tra Apple e Google potrebbe richiamare l’attenzione delle autorità regolamentari, considerando che i due sono già sotto esame per un accordo che rende Google il motore di ricerca predefinito sul browser Safari di Apple. Questo accordo è attualmente oggetto di indagini sia negli Stati Uniti che nell’Unione Europea.

Inoltre, è stato riferito che Google ha collaborato con Samsung per integrare prodotti generativi basati sull’intelligenza artificiale nella nuova serie di smartphone Galaxy S24 dell’azienda sudcoreana.

Funzionari federali hanno avviato un’indagine su Meta Platforms per timore che le piattaforme di social media dell’azienda traggano vantaggio dalla vendita illegale di farmaci. Questo secondo il Wall Street Journal.

Nell’ambito di un’indagine del grand jury penale, i pubblici ministeri statunitensi in Virginia hanno inviato mandati di comparizione e cercato risposte dal colosso della tecnologia, proprietario di Instagram e Facebook. I funzionari stanno indagando se le piattaforme di social media dell’azienda consentono e traggono profitto dalla vendita illecita di farmaci. Anche la FDA sta assistendo l’indagine.

E Tesla prevede di aumentare i prezzi per il suo SUV elettrico di medie dimensioni Model Y sia negli Stati Uniti che in diversi paesi europei.

La società ha affermato che i prezzi negli Stati Uniti aumenteranno di 1.000 dollari per tutte le auto Model Y il 1 aprile. Tesla ha fatto seguito affermando che i prezzi della Model Y aumenteranno in un certo numero di paesi in Europa il 22 marzo di circa 2.000 euro. o l’equivalente nelle valute locali. Il titolo TSLA è stato ostacolato dai recenti tagli dei prezzi ed è uno dei titoli con la performance più bassa nell’indice S&P da inizio anno.

Pagina 34 di 36

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie