Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Business Pagina 20 di 21

Nuove prospettive su come la tecnologia ai sta plasmando il futuro del business e della finanza

Apple acquista Datakalab

“Abbiamo tre cervelli, il cervello primario associato ai riflessi, il cervello limbico per le emozioni e la neocorteccia” per la riflessione.

Michel Badoc, professore emerito all’HEC

Autori di Il neuro -consumatore. In che modo le neuroscienze influenzano le decisioni di acquisto dei consumatori* .

Apple ha acquisito la startup francese di intelligenza artificiale Datakalab  fondata sette anni fa dai fratelli Xavier e Lucas Fischer, ha affermato il quotidiano francese Challenges.

Datakalab è un laboratorio specializzato in neuromarketing, fondato nel 2016 da Anne-Marie Gaultier, ex direttore marketing delle Galeries Lafayette, insieme ad altri partner.

Utilizzando tecnologie come braccialetti connessi e codifica facciale, Datakalab analizza le emozioni dei consumatori per comprendere meglio il comportamento dei clienti.

Collabora con aziende per ottimizzare strategie di marketing, modificando ad esempio trailer cinematografici per aumentare l’impatto emotivo. I suoi studi hanno rivelato anche dettagli sul comportamento dei clienti nei negozi, come la percezione del tempo di attesa alla cassa in base alle dimensioni del negozio.

Apple ha notificato l’acquisizione alla Commissione Europea, ha aggiunto il notiziario . L’acquisizione si è conclusa lo scorso dicembre, ha affermato Challenged.

Apple potrebbe sfruttare questa tecnologia in diversi modi:

  1. Migliorare l’assistente digitale Siri, rendendolo più empatico e utile comprendendo le emozioni degli utenti.
  2. Espandere le funzionalità sanitarie su dispositivi come Apple Watch e iPhone per monitorare l’umore degli utenti nel tempo, offrendo supporto per la salute mentale.
  3. Potenziare le videochiamate attraverso app come FaceTime, consentendo agli utenti di esprimere le loro emozioni in modo più chiaro e aggiungendo personalità alle interazioni.
  4. Rivoluzionare la pubblicità creando annunci basati sulle emozioni degli utenti, offrendo annunci mirati che tengono conto dello stato emotivo dell’utente in quel momento.

Secondo la sua pagina LinkedIn , Datakalab si descrive come un “nuovo modo per comprimere le reti neurali della visione artificiale”. Aveva tra gli 11 ed i 50 dipendenti.

Le azioni AI si stabilizzano dopo un venerdì da incubo

Il mercato ha attraversato una settimana turbolenta, culminata con una sessione di venerdì segnata dal brusco calo delle azioni di Netflix , che ha influito negativamente sul settore tecnologico, e dalle tensioni geopolitiche tra Iran e Israele, che hanno tenuto gli investitori con il fiato sospeso.

Richard Hunter di Interactive Investor ha notato che i titoli tecnologici sono stati particolarmente colpiti alla fine di una settimana altamente volatile, con parte dei recenti guadagni cancellati dopo un periodo di crescita eccezionale per le azioni legate all’intelligenza artificiale.

La situazione attuale dei mercati è piuttosto confusa, con una grande incertezza riguardo agli eventi in corso in Medio Oriente, una significativa vendita nel settore tecnologico americano, che non si verificava da circa 18 mesi, e un aumento dei rendimenti mentre i tagli dei tassi di interesse vengono sempre più messi da parte,” ha aggiunto Jim Reid di Deutsche Bank.

Dopo un venerdì tumultuoso caratterizzato da vendite aggressive, lunedì i titoli legati all’intelligenza artificiale sembravano trovare una certa stabilità in vista dei prossimi annunci di utili.

Richard Hunter di Interactive Investor ha notato che i titoli tecnologici, in particolare quelli con una forte esposizione all’intelligenza artificiale, hanno subito un deciso calo dopo un periodo di forte crescita. Tuttavia, lunedì le azioni di Nvidia sono aumentate di quasi il 2%, nonostante il declassamento da parte di UBS da Overweight a Neutral, ribaltando la tendenza negativa degli utili. Venerdì, il titolo aveva subito una perdita superiore al 10%.

Nvidia, che pubblicherà i suoi risultati del primo trimestre il 22 maggio, ha previsto un aumento significativo dell’EPS e dei ricavi rispetto all’anno precedente.

Altre società del settore, come Super Micro Computer e Astera Labs , hanno mostrato una performance altalenante. Super Micro Computer è sceso di oltre il 2% lunedì, aggiungendosi al crollo del 23% di venerdì, mentre Astera Labs è salito del 2% dopo un calo del 9% venerdì.

Arm, una società britannica di progettazione di chip, ha registrato un aumento del 4,2%, recuperando parte delle perdite del giorno precedente. Anche altre società del settore, come Qualcomm (QCOM), Broadcom e Texas Instruments hanno registrato aumenti nella giornata di lunedì.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali. L’articolo riporta esclusivamente le opinioni della redazione che non ha alcun rapporto economico con le aziende citate.

Nvidia in calo del 10 percento La competizione si sta intensificando

Perché ne parliamo. L’Intelligenza Artificiale ha un impatto significativo su vari settori, inclusi quello tecnologico e quello finanziario. Negli Stati Uniti, molte delle aziende leader nell’AI sono quotate in borsa e hanno un peso considerevole negli indici di mercato, come il NASDAQ. Pertanto, il successo o meno di queste aziende può influenzare direttamente le performance complessive del mercato azionario. Analizzando il mercato si comprende anche un po’ più di tecnologia.

Nvidia ha vinto il primo round dell’Intelligenza Artificiale. Adesso la competizione si sta inasprendo. 

Se leggete l’articolo, si afferma che il blocco virtuale di NVDIA sull’Intelligenza Artificiale sarà messo in discussione e ovviamente, è una cosa che accadrà, ma non ora.

L’Intelligenza Artificiale ha regalato quasi quotidianamente meraviglie negli ultimi 18 mesi. Per gli investitori, la più grande sorpresa è stata la crescita di Nvidia, che è passata a dominare completamente il mercato dei chip legati all’AI.

Una volta conosciuta principalmente per la produzione di schede grafiche aggiuntive per PC per i giocatori, Nvidia ha trasformato le sue unità di elaborazione grafica, o GPU, nel cuore pulsante della rivoluzione dell’AI, alimentando la creazione di grandi modelli linguistici e eseguendo il software di inferenza che li sfrutta nei data center di tutto il mondo. Nvidia è stata quasi da sola sul campo, con più del 90% di quota di mercato.

Ma una nuova competizione si sta avvicinando, sia da parte di aziende grandi che piccole, e la battaglia sarà agguerrita. Gli interessi non potrebbero essere più grandi: Lisa Su, CEO di Advanced Micro Devices, ha valutato il mercato dei chip per l’AI a 400 miliardi di dollari entro il 2027. Il CEO di Intel, Pat Gelsinger, ha previsto un’opportunità da 1 trilione di dollari entro il 2030. Quasi il doppio delle dimensioni dell’intera industria dei chip nel 2023.

Jensen Huang di Nvidia ha costruito un’azienda universalmente rispettata e ammirata, ma gli acquirenti di chip non sono entusiasti di fare affidamento su una singola fonte. Aziende hardware come Dell Technologies, Hewlett Packard Enterprise, Lenovo e Super Micro Computer non riescono a ottenere abbastanza chip Nvidia per soddisfare la domanda dei clienti, e vorrebbero alternative.

I fornitori di servizi cloud come Amazon.com e Google di Alphabet desiderano così tanto più opzioni che stanno progettando i propri chip e le aziende che si affidano ai sistemi basati sull’Intelligenza Artificiale vogliono risorse di calcolo aggiuntive a costi più gestibili di quelli attuali.

Nelle ultime due-tre settimane, il mercato azionario ha mostrato una stranezza evidente, Fear of Missing Out (FOMO).

È una stranezza che non è emersa improvvisamente, ma è stata presente per un po’ di tempo. L’indice di volatilità è rimasto sotto i 15 punti per settimane, ma recentemente è salito a un range compreso tra 16 e quasi 20. Questo indice, noto come VIX, misura la prevista volatilità nei prossimi 30 giorni. Più alto è il VIX, maggiore è la volatilità prevista nel breve termine. È considerato un indicatore della paura, in quanto aumenta quando gli investitori iniziano a proteggersi. Dopo mesi di bassa volatilità, questo recente aumento va di pari passo con la situazione attuale.

La recente ondata di vendite sembra surreale perché non c’è stata una vendita superiore al 2,5% da quasi un anno. L’indice S&P 500 è sceso per la terza settimana consecutiva, registrando la più grande perdita settimanale dal marzo 2023 (-3,05%). Attualmente si trova al 5,46% al di sotto del suo massimo storico del 28 marzo 2024. È interessante notare che il Nasdaq è stato il più colpito, mentre il Russell ha superato sia l’S&P 500 che il Nasdaq, chiudendo in rialzo dello 0,24%. Questa situazione è insolita perché di solito, in caso di un aumento dei tassi di interesse, i titoli tecnologici di grandi dimensioni tendono ad attrarre gli acquirenti. Tuttavia, questa volta la situazione è diversa.

Durante questa settimana, molti dei titoli di alto livello hanno registrato forti vendite, anche se sono quelli che hanno mostrato i maggiori guadagni durante l’anno. Ad esempio, Nvidia è scesa del 10%, Eli Lilly del 2,63% e GE Aerospace del 3,2%. Questa è una situazione comune alla fine di una correzione del 10%, quando anche le azioni di grandi nomi vengono vendute in situazioni di panic selling.

Il recente calo di Nvidia potrebbe essere stato influenzato da preoccupazioni riguardanti il suo rapporto con Super Micro Computer. Tuttavia, Nvidia rimane un leader nella tecnologia.

Il vero concorrente più forte è Advanced Micro Devices che ha perso molti punti questa settimana. L’offerta Nvdia si concentra sull’H100, che sarà se non obsoleto, di secondo livello in tempi relativamente brevi quando debutterà la nuova GPU AI Blackwell. 

Sembra che le debolezze nei rapporti di ASML Holding e Taiwan che ospita Semiconductor abbiano influenzato negativamente il settore.

ASML Holding NV domina praticamente il mercato di un’apparecchiatura fondamentale per la produzione dei componenti che alimentano la vita moderna, il vero cuore del business di ASML è rappresentato dalla litografia EUV (litografia ultravioletta estrema), una tecnologia che utilizza la luce a lunghezza d’onda più corta per consentire ai produttori di chip di integrare un numero incredibile di transistor nei loro circuiti.

Nel contesto geopolitico del 21° secolo, i chip stanno diventando ciò che il petrolio era nel secolo precedente, e il successo unico di ASML l’ha resa un obiettivo prioritario nelle crescenti tensioni tra Stati Uniti e Cina.

Ovviamente questa visione, puramente descrittiva, non tiene conto dei fondamentali della società che rimangono solidissimi, come evidenziato dai dati della trimestrale diffusa a febbraio e come sicuramente confermeranno i dati del prossimo Quarter che verranno diffusi il 22 maggio.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali. L’articolo riporta esclusivamente le opinioni della redazione che non ha alcun rapporto economico con le aziende citate.

In copertina: Cerebras Systems World’s Fastest AI Chip con Whopping 4 Trillion Transistors


Newsletter AI – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

La scalabilita’ è tutto ciò di cui hai bisogno, ma servono i dati

Solo, si fa per dire, 4 anni fa, Jared Kaplan, fisico teorico della Johns Hopkins University, ha pubblicato un articolo rivoluzionario sull’intelligenza: Scaling Laws for Neural Language Models.

La conclusione è stata chiara: più dati c’erano per addestrare un grande modello linguistico migliore sarebbe stato il suo rendimento, accurato e con più informazioni.

“Tutti sono rimasti molto sorpresi dal fatto che queste tendenze – queste leggi di scala come le chiamiamo noi – fossero fondamentalmente precise quanto quelle che si vedono in astronomia o fisica”

Kaplan

I ricercatori utilizzano da tempo grandi database pubblici di informazioni digitali per sviluppare l’Intelligenza Artificiale, tra cui Wikipedia e Common Crawl, un database di oltre 250 miliardi di pagine web raccolte a partire dal 2007. I ricercatori spesso “ripuliscono” i dati rimuovendo discorsi di incitamento all’odio e altri testi indesiderati prima di utilizzarli per addestrare modelli di intelligenza artificiale.

Nel 2020, i set di dati erano minuscoli rispetto agli standard odierni. All’epoca una banca dati contenente 30.000 fotografie dal sito fotografico Flickr era considerata una risorsa vitale.

Dopo l’articolo del Dr. Kaplan, quella quantità di dati non era più sufficiente. Si è parlato di “rendere le cose davvero grandi”, ha affermato Brandon Duderstadt, Nomic AD.

Quando OpenAI ha lanciato GPT-3 nel novembre 2020, ha segnato un traguardo significativo nell’addestramento dei modelli di intelligenza artificiale. GPT-3 è stato addestrato su una quantità di dati senza precedenti, circa 300 miliardi di “token”, che sono sostanzialmente parole o pezzi di parole.

Questa vasta quantità di dati ha permesso a GPT-3 di generare testi con una precisione sorprendente, producendo post di blog, poesie e persino i propri programmi informatici.

Tuttavia, nel 2022, DeepMind, un laboratorio di Intelligenza Artificiale di proprietà di Google, ha spinto ulteriormente in avanti i limiti.

Ha condotto esperimenti su 400 modelli di Intelligenza Artificiale, variando la quantità di dati di addestramento e altri parametri. I risultati hanno mostrato che i modelli più performanti utilizzavano ancora più dati di quelli previsti dal Dr. Kaplan nel suo articolo. Un modello in particolare, noto come Chinchilla, è stato addestrato su 1,4 trilioni di token.

Ma il progresso non si è fermato lì. L’anno scorso, ricercatori cinesi hanno presentato un modello di intelligenza artificiale chiamato Skywork, addestrato su 3,2 trilioni di token provenienti da testi sia in inglese che in cinese.

Google ha risposto presentando un sistema di Intelligenza Artificiale, PaLM 2, che ha superato i 3,6 trilioni di token.

Questi sviluppi evidenziano la rapida evoluzione del campo dell’Intelligenza Artificiale e l’importanza dei dati nell’addestramento di modelli sempre più potenti. Con ogni nuovo modello e ogni trilione di token aggiuntivo, ci avviciniamo sempre di più a modelli di Intelligenza Artificiale che possono comprendere e generare il linguaggio con una precisione e una naturalezza sempre maggiori.

Tuttavia, con questi progressi arrivano anche nuove sfide e responsabilità, poiché dobbiamo garantire che queste potenti tecnologie siano utilizzate in modo etico e responsabile.

fonte https://epochai.org/data/epochdb

Poi nel 2023 è arrivato questo discorso sul Synthetic Data e sulle chellenges: “Si esauriranno”. Sam Altman, Ceo di OpenAI aveva un piano per far fronte all’incombente carenza di dati.

In una email a The Verge, la portavoce di OpenAI, Lindsay Held, ha dichiarato che l’azienda utilizza “numerose fonti, compresi i dati disponibili pubblicamente e le partnership per i dati non pubblici” e che sta cercando di generare i propri dati sintetici.

Nel mese di maggio, lo stesso Altman, ha riconosciuto che le aziende di Intelligenza Artificiale avrebbero sfruttato tutti i dati disponibili su Internet.

Altman ha avuto un’esperienza diretta di questo fenomeno. All’interno di OpenAI, i ricercatori hanno raccolto dati per anni, li hanno puliti e li hanno inseriti in un vasto pool di testo per addestrare i modelli linguistici dell’azienda. Hanno estratto il repository di codice GitHub, svuotato i database delle mosse degli scacchi e attingono ai dati che descrivono i test delle scuole superiori e i compiti a casa dal sito web Quizlet.

Tuttavia, entro la fine del 2021, queste risorse erano esaurite, come confermato da otto persone a conoscenza della situazione dell’azienda, che non erano autorizzate a parlare pubblicamente.

Il CEO di YouTube, ha detto cose simili sulla possibilità che OpenAI abbia usato YouTube per addestrare il suo modello di generazione di video Sora. 

Non sorprende che in entrambi i casi si tratti di azioni che hanno a che fare con la nebulosa area grigia della legge sul copyright dell’AI.

Da un lato OpenAI, alla continua ricerca di dati per un training di qualità, avrebbe sviluppato il suo modello di trascrizione audio Whisper per superare il problema, trascrivendo oltre un milione di ore di video di YouTube per addestrare GPT-4.

Secondo il New York Times, l’azienda sapeva che si trattava di un’operazione discutibile dal punto di vista legale (il presidente di OpenAI Greg Brockman era personalmente coinvolto nella raccolta dei video utilizzati), ma riteneva che si trattasse di un uso corretto (il cosidetto “fair use” tanto declamato dalle aziende di AI). 

Tuttavia, Altman ha dichiarato che la corsa ai modelli generativi di dimensioni sempre più grandi sarebbe già conclusa. Ha suggerito che gli attuali modelli potranno evolvere in altri modi, non puntando più sulla “grandezza” e lasciando intendere che GPT-4 potrebbe essere l’ultimo e definitivo avanzamento nella strategia di OpenAI per ciò che riguarda il numero di parametri utilizzati in fase di addestramento.

Nel frattempo Google :

Matt Bryant, rappresentante comunicazione di Google, ha dichiarato che l’azienda non era a conoscenza delle attività di OpenAI e ha proibito lo “scraping o il download non autorizzato di contenuti da YouTube”. Google interviene quando esiste una chiara base legale o tecnica per farlo.

Le politiche di Google permettono l’utilizzo dei dati degli utenti di YouTube per sviluppare nuove funzionalità per la piattaforma video. Tuttavia, non era evidente se Google potesse utilizzare i dati di YouTube per creare un servizio commerciale al di fuori della piattaforma video, come un chatbot.

“La questione se i dati possano essere utilizzati per un nuovo servizio commerciale è soggetta a interpretazione e potrebbe essere fonte di controversie”.

Avv .Geoffrey Lottenberg, studio legale Berger Singerman

Verso la fine del 2022, dopo che OpenAI aveva lanciato ChatGPT, dando il via a una corsa nel settore per recuperare il ritardo, i ricercatori e gli ingegneri di Google hanno discusso su come sfruttare i dati di altri utenti per sviluppare prodotti di intelligenza artificiale. Tuttavia, le restrizioni sulla privacy dell’azienda limitano il modo in cui potrebbero utilizzare i dati, secondo persone a conoscenza delle pratiche di Google.

Secondo le ricostruzioni, a giugno, il dipartimento legale di Google ha chiesto al team per la privacy di redigere un testo per ampliare gli scopi per i quali l’azienda potrebbe utilizzare i dati dei consumatori (secondo due membri del team per la privacy e un messaggio interno visualizzato dal Times) ed è stato comunicato ai dipendenti che Google desiderava utilizzare i contenuti pubblicamente disponibili in Google Docs, Google Sheets e app correlate per una serie di prodotti AI. I dipendenti hanno affermato di non sapere se l’azienda avesse precedentemente addestrato l’intelligenza artificiale su tali dati.

In quel periodo, la politica sulla privacy di Google stabiliva che l’azienda potesse utilizzare le informazioni pubblicamente disponibili solo per “aiutare a formare i modelli linguistici di Google e creare funzionalità come Google Translate”.

Il team per la privacy ha redatto nuovi termini in modo che Google potesse utilizzare i dati per i suoi “modelli di Intelligenza Artificiale e creare prodotti e funzionalità come Google Translate, Bard e funzionalità di Intelligenza Artificiale del cloud”, che rappresentava una gamma più ampia di tecnologie di intelligenza artificiale.

Qual è l’obiettivo finale qui?” ha chiesto un membro del team per la privacy in un messaggio interno. “Quanto sarà estesa?

Al team è stato specificamente detto di pubblicare i nuovi termini nel fine settimana del 4 luglio, quando le persone sono generalmente concentrate sulle vacanze, secondo i dipendenti. La politica rivista è stata lanciata il 1° luglio, all’inizio del lungo fine settimana (NdR, il 4 luglio negli Usa è festa nazionale).

E Meta? Mark Zuckerberg aveva lo stesso problema, non aveva abbastanza dati, avevano utilizzato tutto come detto a un dirigente da Ahmad Al-Dahle, vicepresidente dell’AI generativa di Meta quindi non poteva eguagliare ChatGPT a meno che non fosse riuscito ad ottenere più dati.

Meta ha usato, fra gli altri materiali, due raccolte di libri, il Gutenberg Project, che contiene opere nel pubblico dominio, e la sezione Books3. Ma la maggior parte sono opere “piratate” e per questo alcuini avviato una class action contro Meta e ciò era evidente sino dall’inizio come dimostra il documento di seguito.

Nei mesi di marzo e aprile 2023, alcuni leader dello sviluppo aziendale, ingegneri e avvocati dell’azienda si sono incontrati quasi quotidianamente per affrontare il problema.

Alcuni hanno discusso del pagamento di 10 dollari a libro per i diritti di licenza completi sui nuovi titoli. Hanno discusso dell’acquisto di Simon & Schuster,di cui fanno parte anche Penguin Random House, HarperCollins, Hachette e Macmillan. Fra gli autori di Simon & Schuster ci sono Stephen King, Colleen Hoover e Bob Woodward.  

Hanno anche parlato di come avevano riassunto libri, saggi e altri lavori da Internet senza permesso anche per via del precedente scandalo sulla condivisione dei dati dei suoi utenti all’epoca di Cambridge Analytica.

Un avvocato ha avvertito di preoccupazioni “etiche” riguardo alla sottrazione della proprietà intellettuale agli artisti, ma è stato accolto nel silenzio, secondo un audio registrato e condiviso con il NYT di cui ha dato conto il quotidiano britannico The Guardian. Meta era stata anche accusata dal BEUC unione consumatori europei con una multa da 1.2 miliardi di euro.

Zuckerberg, per tranquillizare gli investitori, ha affermato in una recente call  (Earnings call Transcript 2023 di seguito) che i miliardi di video e foto condivisi pubblicamente su Facebook e Instagram sono “superiori al set di dati Common Crawl”.

I dirigenti di Meta hanno affermato che OpenAI sembrava aver utilizzato materiale protetto da copyright senza autorizzazione. Secondo le registrazioni, Meta impiegherebbe troppo tempo per negoziare le licenze con editori, artisti, musicisti e l’industria dell’informazione.

“L’unica cosa che ci impedisce di essere bravi quanto ChatGPT è letteralmente solo il volume dei dati”,

Nick Grudin, vP partnership globale e dei contenuti.

Sembra che OpenAI stia prendendo materiale protetto da copyright e Meta potrebbe seguire questo “precedente di mercato”, ha aggiunto, citando una decisione del tribunale del 2015 che coinvolgeva la Authors Guild contro Google .

In quel caso, a Google è stato consentito di scansionare, digitalizzare e catalogare libri in un database online dopo aver sostenuto di aver riprodotto solo frammenti delle opere online e di aver trasformato gli originali, sempre in base alla dottrina del fair use.

La saga continua.

Come abbiamo scritto in un precedente post, la FTC americana può riaprire il caso sulla privacy di Meta nonostante la multa di 5 miliardi di dollari, stabilisce il tribunale, anche se Meta – che possiede WhatsApp, Instagram e Facebook – ha risposto che la FTC non può “riscrivere unilateralmente” i termini dell’accordo precedente, che un giudice statunitense ha approvato nel 2020.

L’FTC ha replicato che l’accordo, che stabilisce nuovi requisiti di conformità e supervisione, non era destinato a risolvere “tutte le richieste di risarcimento in perpetuo”.

Indipendentemente dal punto di vista e da ciò che sarà deciso nei tribunali, l’importanza di conoscere il contenuto dei dataset è oggi più rilevante che mai. Si tratta senza dubbio di un problema di natura politica.

Taking AI to the next level in manufacturing

Le aziende che producono tecnologie e soluzioni per l’intelligenza artificiale sembrano essere in una posizione vantaggiosa poiché un numero sempre maggiore di produttori sta integrando l’IA nelle proprie attività quotidiane.

Secondo uno studio congiunto condotto da Microsoft e MIT Technology Review Insights, il 35% dei produttori intervistati ha già implementato casi d’uso di intelligenza artificiale nella loro produzione, mentre la maggioranza, il 64%, sta ancora esplorando o sperimentando con questa tecnologia.

“Molti dirigenti che hanno partecipato al sondaggio intendono aumentare notevolmente gli investimenti in intelligenza artificiale nei prossimi due anni”, si legge nello studio. “Coloro che non hanno ancora adottato l’IA nella produzione stanno progressivamente muovendo i primi passi.”

Il campione di 300 dirigenti senior proveniva da organizzazioni con entrate annuali superiori a 100 milioni di dollari.

Quasi il 60% dei dirigenti intervistati prevede di aumentare gli investimenti in intelligenza artificiale del 10% o più nell’ingegneria e nella progettazione, mentre un altro 43% prevede di fare lo stesso per le operazioni di fabbrica.

Le aziende più grandi si stanno muovendo più rapidamente nell’integrare l’IA nelle loro attività, con produttori nel settore aerospaziale, automobilistico ed elettronico in prima linea nell’implementazione di casi d’uso.

L’80% delle aziende con entrate annue di 10 miliardi di dollari o più sta già implementando l’IA, mentre la percentuale scende al 38% per le aziende con ricavi tra 1 e 10 miliardi di dollari e diminuisce ulteriormente per quelle con entrate tra 100 e 999 milioni di dollari.

Tuttavia, la maggior parte delle aziende più piccole sta ancora valutando o sperimentando l’intelligenza artificiale.

“È evidente l’entusiasmo per l’intelligenza artificiale nel settore manifatturiero, ma solo poche aziende stanno utilizzando l’IA su larga scala per trasformare i loro processi di lavoro”

Philippe Rambach, chief AI officer di Schneider Electric.

Le aziende più piccole sottolineano la mancanza di competenze e risorse come principali ostacoli nello sfruttare appieno l’IA. Anche i costi associati al mantenimento e all’aggiornamento dei modelli di intelligenza artificiale sono problematici per i produttori con budget limitati.

Nonostante ci siano casi d’uso limitati di IA tra alcuni produttori, c’è ancora poco evidenza di una vera trasformazione guidata dall’IA, secondo Ben Armstrong, direttore esecutivo del MIT Industrial Performance Center.

Finora, i casi d’uso più comuni riguardano la progettazione del prodotto, la creazione di contenuti e l’implementazione di chatbot. L’ingegneria della progettazione sta diventando sempre più basata sui dati e l’IA sta facilitando questo processo attraverso simulazioni.

Una delle sfide più significative per i produttori nell’adozione su larga scala dell’IA è la gestione dei dati, poiché il settore genera grandi quantità di dati, molti dei quali non sono adatti ai modelli di IA.

Per affrontare questa sfida, il 57% degli intervistati sta migliorando la connettività delle macchine, mentre la stessa percentuale ritiene che la qualità dei dati rappresenti la principale sfida nell’integrazione dell’IA nelle operazioni.

“L’IA richiede un alto livello di maturità dei dati”, conclude lo studio. “È essenziale valutare accuratamente come l’organizzazione raccoglie, archivia ed elabora i dati e adottare misure concrete per migliorare la situazione prima di implementare i casi d’uso di IA.”

Effetto domino nei Titoli dei semiconduttori e’ calata la febbre dell’oro (AI)?

Quando si parla di intelligenza artificiale, si sente spesso parlare di Nvidia, Broadcom , AMD e altre società di chip, software e servizi. Tuttavia, Intel viene spesso trascurata . Dovremmo mettere le cose in prospettiva perché siamo ancora agli inizi del gioco dell’intelligenza artificiale e c’è molto spazio per l’espansione di molti leader di mercato.

Quest’anno, si prevede che i ricavi legati all’intelligenza artificiale saranno di circa 300 miliardi di dollari. Tuttavia, si prevede che il mercato dell’intelligenza artificiale si espanderà notevolmente, con ricavi stimati a 1,85 trilioni di dollari entro il 2030, di seguito propiezioni da Statista:

Venerdì, i titoli nel settore dei semiconduttori hanno subito un’improvvisa ondata di vendite, alimentata dalle preoccupazioni riguardo ai prossimi risultati trimestrali del gigante dell’intelligenza artificiale Super Micro Computer e dalle crescenti inquietudini riguardo alle spese relative all’IA.

Il crollo del 23% di Super Micro Computer è stato innescato dalle sue dichiarazioni riguardanti la pubblicazione dei risultati fiscali del terzo trimestre, prevista per il 30 aprile. Negli ultimi trimestri, l’azienda ha spesso anticipato i suoi risultati, con un’azione simile avvenuta anche a gennaio, quando ha rialzato le sue previsioni 11 giorni prima del resoconto degli utili.

Venerdì sono passate di mano più di 14 milioni di azioni, rispetto al volume medio giornaliero di poco più di 10 milioni, portando alla speculazione che la società potrebbe vedere un rallentamento delle vendite.

Nvidia , precedentemente identificata da Oppenheimer come una delle migliori opzioni del settore all’inizio della stagione degli utili, ha registrato una diminuzione superiore al 10%, chiudendo a 761,77 dollari. Dall’evento GTC tenutosi il mese precedente, le azioni dell’azienda sono diminuite di oltre il 20%.

AMD spesso associata a Nvidia, ha visto un calo superiore al 5%, terminando a 146,64 dollari.

Intel , concorrente sia di Nvidia che di AMD nei mercati delle GPU e delle CPU, ha chiuso venerdì in ribasso del 2,4%.

Astera Labs, che ha recentemente debuttato in borsa, ha subito una flessione del 9%. Anche se inizialmente aveva registrato un aumento del 164% rispetto al prezzo IPO di 34 dollari, il calo di venerdì ha ridotto il guadagno a circa il 60%.

Arm , che ha fatto il suo ingresso in borsa a settembre 2023, ha subito un calo superiore al 16% venerdì. Nel mese precedente, le azioni hanno registrato una perdita del 33%.

Altri attori del settore, tra cui Taiwan Semiconductor , Qualcomm (QCOM), Micron Technology , Texas Instruments e ON Semiconductor , hanno anch’essi registrato un significativo calo venerdì, con diminuzioni del 2% o più.

Taiwan Semiconductor ha visto un calo superiore al 12% durante la settimana, in seguito alla pubblicazione dei risultati del primo trimestre, sebbene Needham, una società di investimento, abbia commentato venerdì che il calo è stato “esagerato”.

Divulgazione dell’analista: non ho/noi non abbiamo alcuna posizione su azioni, opzioni o derivati ​​simili in nessuna delle società menzionate e non ho intenzione di avviare tali posizioni entro le prossime 72 ore. Ho scritto questo articolo io stesso ed esprime le mie opinioni. Non ricevo alcun compenso per questo . Non ho rapporti d’affari con alcuna società le cui azioni sono menzionate in questo articolo.

La performance passata non è garanzia di risultati futuri. Non viene fornita alcuna raccomandazione o consiglio riguardo al fatto che un particolare titolo, portafoglio, transazione o strategia di investimento sia adatto a una persona specifica. L’autore non ti consiglia personalmente riguardo alla natura, al potenziale, al valore o all’idoneità di qualsiasi particolare titolo o altra questione. Solo tu sei l’unico responsabile di determinare se qualsiasi investimento, titolo o strategia, o qualsiasi prodotto o servizio, sia appropriato o adatto a te in base ai tuoi obiettivi di investimento e alla tua situazione personale e finanziaria. 

AI 50 2024

Prodotta da Forbes in collaborazione con Sequoia e Meritech Capital, “AI 50” mette in evidenza le più promettenti società non quotate e premia le startup private che sviluppano i casi di utilizzo aziendale più promettenti dell’AI.

Le proposte vengono esaminate quantitativamente attraverso un algoritmo sviluppato da Konstantine Buhler, partner di Sequoia Capital. Assegna un punteggio alle aziende sulla base di tre criteri approssimativi: performance finanziaria, cultura aziendale e diversità.

I primi 120 finalisti vengono esaminati da un gruppo di giudici provenienti da importanti aziende pubbliche o istituti di ricerca che esaminano considerazioni più qualitative come il potenziale tecnico e la forza del talento.

“Quando abbiamo iniziato l’elenco nel 2019, c’erano forse 200 candidati (il settore era molto più piccolo). Ora, con 1.900, penso che dovremmo raggiungere l’AI 100 l’anno prossimo nel 2025!” afferma Buhler

Tra il 2022 e il 2023 l’intelligenza artificiale generativa è infatti passata dalle quinte al palco. 

Quest’anno è al centro dell’attenzione poiché vediamo l’inizio di importanti guadagni di produttività dell’intelligenza artificiale sia per i clienti aziendali che per i consumatori.

Le infrastrutture per gli LLM assorbono il 60% dei finanziamenti, ma non è qui il Business Model di questo Hype, la ricerca della Killer Applications costituisce infatti, al di là dei mostruosi guadagni di Nvidia e dei Cloud Datacenter la maggior parte della lista AI 50.

I VCs come era gia’ successo per l’ hype IoT sono affamati di monetizzare i Dati e il Cloud, non hanno un Modello preciso in testa, ma questa volta sperano di riuscirci.

Il 90% quest’anno premia societa’ americane quelle della Silicon Valley finanziate con Bilioni di $, se pensiamo che in italia Frontech, con un budget totale di 7 milioni di euro dovra’ fare miracoli, alcune Canadesi e 6 Europee (Inghilterra,Germania, Francia,Olanda), ovviamente le startup nascono dove ci sono gli Investitori privati o pubblici. Prima o poi questi investitori vorranno i soldi indietro.

I grandi spostamenti nella graduatoria AI 50 di quest’anno mettono in luce l’impatto crescente dell’intelligenza artificiale generativa sulla produttività aziendale e settoriale. La categoria dedicata alla produttività generale aziendale si è raddoppiata quest’anno, passando da quattro a otto aziende, poiché queste hanno espanso la loro gamma di offerte per rispondere alla crescente domanda dei clienti.

Ad esempio, Writer, precedentemente incluso nella categoria marketing aziendale, ha ampliato il proprio portfolio di prodotti per adattarsi a tutti i settori aziendali. Inoltre, Notion, un nuovo ingresso nell’elenco, ha integrato un assistente AI nella propria piattaforma di produttività e ha introdotto nuove funzionalità come la calendarizzazione.

OURWORLDINDATA.ORG

Cinque app per la produttività, tra cui ChatGPT di OpenAI, Claude, DeepL, Notion e Tome di Anthropic, stanno ora servendo clienti a livello consumer, prosumer e aziendale. L’editor di immagini Photoroom, l’app di generazione video Pika e il costruttore di giochi Rosebud dimostrano che i confini tra consumatore e prosumer nel software creativo stanno diventando sempre più sfumati. Complessivamente, anche le aziende in questa categoria sono raddoppiate, passando da tre a sei.

Quest’anno sono state ridotte le categorie verticali settoriali, ma è emerso un nuovo settore industriale. Aziende attive nella robotica, come Tractian nella manutenzione industriale e Waabi nella guida autonoma, stanno iniziando a mostrare come l’integrazione del software AI con l’hardware stia trasformando il lavoro nel mondo fisico.

Il 2023 è stato un anno di crescita significativa per le infrastrutture in generale e ha visto l’emergere di nuovi concorrenti di rilievo, come Mistral, uno dei principali concorrenti nei modelli di base.

Nella categoria delle piattaforme dati cloud, Pinecone e Weaviate hanno dimostrato l’importanza dei database vettoriali. Nel frattempo, Databricks, attraverso l’acquisizione di MosaicML lo scorso anno, si è unito ad altri fornitori di inferenza come Anyscale, Baseten, Replicate e Together. LangChain ha fatto il suo ingresso come framework di sviluppo di applicazioni multipurpose per lavorare con LLM.

Le precedenti rivoluzioni tecnologiche, come quelle delle reti, dell’Internet e della telefonia mobile, hanno principalmente rivoluzionato il modo di comunicare. L’intelligenza artificiale promette di portare una rivoluzione della produttività, simile a quella dei personal computer, che ha modellato il futuro del business e dell’industria.

Con lo sviluppo di sempre più IA, queste inizieranno a lavorare insieme come reti di IA. Negli ultimi anni, abbiamo assistito all’espansione dell’intelligenza artificiale generativa oltre la semplice generazione di testo o codice, fino all’interazione con agenti.

Proprio come l’avvento del PC e poi dello smartphone ha spinto la domanda di larghezza di banda Internet per trasmettere dati, l’evoluzione degli agenti di intelligenza artificiale stimolerà la domanda di nuove infrastrutture per supportare calcoli e comunicazioni sempre più potenti.

Stiamo entrando in un’era in cui, come ha detto il CEO di Nvidia Jensen Huang, “ogni pixel sarà generato”. In questo futuro generativo, la creazione stessa di un’azienda potrebbe diventare il lavoro degli agenti dell’intelligenza artificiale; e un giorno intere aziende potrebbero funzionare come reti neurali.

Ciò che vediamo oggi nel panorama delle applicazioni sono le prime iterazioni degli strumenti che saranno utilizzati dalla prossima generazione di aziende. Probabilmente, queste aziende saranno più piccole, ma la facilità con cui si creano significa che ce ne saranno molte di più. La costituzione delle società diventerà più rapida e fluida, con nuove strutture proprietarie e gestionali. Un giorno potrebbero esserci grandi aziende gestite da un unico ingegnere AI.

SEQUOIA CAPITAL

La maggior parte delle aziende del futuro non saranno aziende singole, ma avranno esigenze e punti critici diversi rispetto a quelle di oggi. Avranno bisogno di prodotti aziendali in grado di risolvere sfide nella gestione della conoscenza e nella generazione di contenuti, con un’enfasi su fiducia, sicurezza e autenticazione.

La quantità di software che queste aziende eseguiranno si espanderà e cambierà, con la generazione di codice e agenti software che consentiranno una maggiore personalizzazione e un’iterazione più rapida.

Per conquistare le aziende del futuro, i fondatori dovranno rispondere ad alcune domande cruciali. Che tipo di prodotti realizzeranno queste aziende? Di quali tipi di infrastrutture e applicazioni avranno bisogno? Come cambierà la forza lavoro? Come cambieranno i modelli di distribuzione e di acquisizione del valore? Quale percentuale del loro mercato totale sarà composta da persone rispetto ad agenti AI autonomi?

SEQUOIA CAPITAL

Le rivoluzioni della produttività, come quella dell’intelligenza artificiale, riducono i costi. Il progresso tecnologico di questo secolo ha abbassato radicalmente i costi dell’hardware, ma i costi dei servizi forniti dagli esseri umani, dalla sanità all’istruzione, sono aumentati. L’intelligenza artificiale ha il potenziale per ridurre i costi in settori così cruciali, rendendoli più accessibili e convenienti.

Questi cambiamenti devono essere gestiti in modo responsabile per mitigare la perdita di posti di lavoro e favorire la creazione di nuovi posti di lavoro. L’intelligenza artificiale ci consentirà di fare molto di più con meno, ma sarà necessario sforzo sia da parte del governo che del settore privato per riqualificare e responsabilizzare tutti.

L’intelligenza artificiale è posizionata per cambiare la struttura dei costi e aumentare la produttività in alcune delle aree più cruciali della nostra società. Ha il potenziale per portare a un’istruzione migliore, a popolazioni più sane e a persone più produttive, allontanando il lavoro banale e permettendoci di concentrare la nostra attenzione su questioni più importanti e strumenti migliori per il futuro. Può consentire a più persone di affrontare più problemi e creare una società migliore.

Ecco la lista :


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Intelligenza Artificiale in Italia: regolamentazione, competitività e investimenti pubblici

Analizzare quali i risultati abbia raggiunto in Italia l’Intelligenza Artificiale e tracciare gli sviluppi futuri del settore promuovendo un confronto tra tutti gli stakeholder. È questo l’obiettivo del convegno “L’economia dei dati nell’Intelligenza Artificiale” organizzato oggi da Seeweb, durante il quale si sono alternati interventi di relatori istituzionali, del mondo della ricerca, dell’università e dell’imprenditoria.

Durante l’evento è stato presentato uno studio condotto da Seeweb sugli impatti economici dell’Intelligenza Artificiale nel nostro Paese e si sono discusse le strategie migliori per incentivare modelli italiani di Intelligenza Artificiale. L’obiettivo, assicurare il progresso tecnologico e la sostenibilità del nostro ecosistema al fine di raggiungere l’indipendenza tecnologica e garantire una governance etica al settore.

Il paper sottolinea la necessità di adottare misure di alto valore sistemico per promuovere lo sviluppo dell’Intelligenza Artificiale in Italia, riducendo al minimo gli impatti sul lavoro e potenziando le competenze nel paese. Le misure chiave identificate includono:

  1. La regolamentazione dell’accesso e del controllo dei dati utilizzati per l’addestramento dei sistemi di Intelligenza Artificiale;
  2. La prevenzione delle distorsioni e delle concentrazioni di mercato da parte delle piattaforme dominanti extraeuropee;
  3. Il sostegno alle aziende italiane attive nella filiera dell’Intelligenza Artificiale.

Sebbene queste misure da sole potrebbero non risolvere tutte le problematiche sollevate nel paper, sono considerate un punto di partenza fondamentale per progredire nella giusta direzione verso un mercato competitivo, aperto e sicuro per l’Intelligenza Artificiale in Italia.

L’Intelligenza Artificiale ci accompagnerà per molto tempo al di là dell’hype del momento” ha spiegato Antonio Baldassarra, Ceo di Seeweb, che sottolinea poi come “sembra abbastanza chiaro oggi come si possa utilizzare IA per rendere più efficiente il lavoro, non abbiamo però altrettanto chiaro come sia possibile creare un’industria nazionale che possa avere un ruolo di attore. Il ruolo dell’industria del Paese non può essere solo quello di mettere a terra cose fatte da altri; è legittimo e vogliamo che esista ma dobbiamo anche pensare a una nostra capacità produttiva nell’ambito dell’Intelligenza Artificiale”.

Nel corso della discussione, i relatori hanno affrontato una serie di tematiche cruciali riguardanti i rischi e le opportunità derivanti dall’uso dell’Intelligenza Artificiale e dalla loro integrazione nella società. Il Ceo di Seeweb, Antonio Baldassarra, su questo punto, ha evidenziato le sfide legate alla mancanza di comprensione e alla sottovalutazione degli impatti delle tecnologie emergenti.

Tra i relatori dell’evento, Massimo Chiriatti, Chief Technology e Innovation Officer di Lenovo, ha ribadito l’importanza di non cedere alla paura e all’esagerazione mediatica riguardo alle tecnologie, sottolineando i benefici che queste hanno portato storicamente all’umanità, dall’aumento dell’aspettativa di vita all’innalzamento dei livelli di benessere, evidenziando il ruolo fondamentale delle tecnologie nell’automatizzare attività pericolose e faticose, consentendo così un progresso civile.

Tuttavia, si e’anche invitato alla prudenza nel delegare alle macchine compiti umani, riconoscendo che la sostituzione completa dell’uomo non è auspicabile.

Nel panel finale si è anche posto l’accento sul futuro desiderabile per la società, auspicando che il Paese Italia diventi non solo attrattivo e produttivo, ma anche un luogo in cui l’innovazione e il rispetto siano alla base dello sviluppo.

Citando esperienze passate come quelle delle Baby Bells inegli Stati Uniti nel settore delle telecomunicazioni si è voluto evidenziare l’importanza di non ostacolare l’innovazione tramite monopolizzazioni, ma piuttosto di promuovere un uso consapevole delle tecnologie e un’industria nazionale forte e competitiva.

Infine, sono state sollevate questioni cruciali riguardanti gli investimenti pubblici nelle tecnologie emergenti. Su questo punto si è evidenziato come, nonostante l’importanza strategica di tali investimenti, una parte significativa dei finanziamenti pubblici a livello europeo venga indirizzata verso soggetti esterni all’Europa, alimentando quindi un circolo vizioso di dipendenza tecnologica.

A tale proposito si è auspicata una maggiore attenzione da parte delle istituzioni verso politiche di commesse pubbliche mirate a promuovere l’innovazione e lo sviluppo industriale all’interno del continente, con l’obiettivo di garantire una maggiore sovranità tecnologica e economica.

In conclusione dell’evento, i relatori hanno sottolineato la necessità di un approccio equilibrato e consapevole nei confronti delle tecnologie emergenti, affinché queste possano contribuire al progresso sociale ed economico senza compromettere la dignità e il benessere dell’umanità.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

G42 e Microsoft svilupperanno modelli che non possiamo nemmeno immaginare

Microsoft Investe in G42 e nel calcolatore piu’ potente al mondo.

Microsoft, il gigante dell’industria tecnologica , ha annunciato un investimento di 1,5 miliardi di dollari per acquisire una partecipazione minoritaria in G42, un gruppo di holding tecnologiche con sede negli EAU. L’obiettivo di questa mossa strategica è di introdurre tecnologie di intelligenza artificiale all’avanguardia e infrastrutture digitali nei mercati del Medio Oriente, dell’Asia centrale e dell’Africa.

G42, conosciuta anche come Group 42 Holding Ltd, è una società di sviluppo ed un fondo di intelligenza artificiale (IA) fondata nel 2018. G42 è un leader globale nella creazione di intelligenza artificiale visionaria per un futuro migliore.

Nata ad Abu Dhabi e con una presenza globale, ha finanziato Jais, un LLM trainato sull’arabo, sviluppato in collaborazione con l’universita’ MBZUAI, Jais è stato addestrato sul supercomputer AI Condor Galaxy, su 116 miliardi di token arabi e 279 miliardi di token di dati inglesi, ma G42 è importante soprattutto per la collaborazione con Cerebras infatti le due societa’ hanno annunciato il 13 Marzo la costruzione di Condor Galaxy 3 (CG-3).

La partnership strategica tra Cerebras e G42 ha già fornito 8 exaFLOP di prestazioni di supercalcolo IA tramite Condor Galaxy 1 e Condor Galaxy 2, ciascuno tra i più grandi supercomputer IA del mondo. Situato a Dallas, in Texas, Condor Galaxy 3 porta l’attuale totale della rete Condor Galaxy a 16 exaFLOP.

La rete Condor Galaxy ha addestrato alcuni dei migliori modelli open source del settore, con decine di migliaia di download. Ogni CS-3 è alimentato dal nuovo transistor da 4 trilioni, 900.000 core di IA WSE-3.

Il nostro super calcolatore italiano Leonardo ha un picco di 270PFlops, ne servono 30 per fare la capacita del Condor-Galaxy-3 di Dallas (TOP500), CG3 può allenare un modello grande 100 volte l’attuale GPT4.

Il CG3 ha allenato un LLM per la medicina, l’M42  una rete sanitaria globale abilitata alla tecnologia. Il programma Med42 utilizza la versione da 70 miliardi di parametri di Llama 2. Il lavoro di messa a punto è stato eseguito da Cerebras e M42 in collaborazione con Core42, una società di servizi gestiti e IT che svolge ricerche fondamentali sull’intelligenza artificiale. Sia M42 che Core42 sono di proprietà del cliente Cerebras G42.

Il codice M42 è ora disponibile su HuggingFace, insieme ai dati sulle prestazioni.

Questo segna una pietra miliare significativa nel calcolo dell’IA, fornendo una potenza di elaborazione ed efficienza senza pari.

L’organizzazione si concentra sullo sviluppo dell’IA in vari settori, tra cui governo, sanità, finanza, petrolio e gas, aviazione e ospitalità. G42 svolge processi di ricerca e sviluppo sull’IA, sui big data e sull’apprendimento automatico tramite la sua sussidiaria,lInception Institute of Artificial Intelligence (IIAI).

Tahnoun bin Zayed Al Nahyan, consigliere per la sicurezza nazionale degli Emirati Arabi Uniti, è l’azionista di controllo e presidente della società. Peng Xiao è l’Amministratore Delegato del Gruppo.

G42 ha anche acquisito Bayanat per Mapping and Surveying Services LLC, un fornitore end-to-end di prodotti e servizi di dati geospaziali, per integrare i servizi satellitari di G42.

 Sua Altezza Sheikh Tahnoon bin Zayed Al Nahyan, Presidente di G42, ha dichiarato:

“L’investimento di Microsoft in G42 segna un momento cruciale nel percorso di crescita e innovazione della nostra azienda, a significare un allineamento strategico di visione ed esecuzione tra le due organizzazioni. Questa partnership è una testimonianza ai valori condivisi e alle aspirazioni al progresso, promuovendo una maggiore cooperazione e sinergia a livello globale.”  

Entrambe le aziende si impegnano a sostenere la creazione di un fondo da 1 miliardo di dollari destinato agli sviluppatori. Questo fondo mira a promuovere lo sviluppo di una forza lavoro qualificata e diversificata nel campo dell’intelligenza artificiale.

G42 implementerà le sue applicazioni e servizi di intelligenza artificiale sulla piattaforma cloud di Microsoft, Azure. Inoltre, G42 fornirà soluzioni di intelligenza artificiale a importanti aziende e clienti del settore pubblico.

Questa collaborazione commerciale è sostenuta da garanzie fornite ai governi degli Stati Uniti e degli Emirati Arabi Uniti, impegnandosi a rispettare le leggi statunitensi e internazionali in materia di commercio, sicurezza, intelligenza artificiale responsabile e integrità aziendale.

L’investimento di Microsoft in G42 rappresenta un esempio insolito di accordo che ha ottenuto l’approvazione esplicita delle rispettive autorità governative. Secondo quanto dichiarato dalle società coinvolte, questa “collaborazione commerciale è sostenuta da garanzie fornite ai governi degli Stati Uniti e degli Emirati Arabi Uniti tramite un innovativo accordo vincolante, il primo del suo genere, volto a implementare le migliori pratiche globali per assicurare uno sviluppo sicuro, affidabile e responsabile e la diffusione dell’intelligenza artificiale”.

Se l’accordo verrà concluso con successo, conferirà a Microsoft il ruolo di partner cloud ufficiale di G42. Secondo i termini dell’accordo, la piattaforma dati della società emiratina e altre infrastrutture cruciali verranno trasferite su Microsoft Azure, il quale supporterà lo sviluppo dei prodotti G42. È da notare che G42 ha già instaurato una partnership con OpenAI nel 2023.

La collaborazione con Microsoft sembra essere parte di una strategia continua da parte di G42 per ridurre la sua dipendenza dalle relazioni commerciali con la Cina. Infatti, l’azienda ha recentemente disinvestito dai suoi legami con la Cina, incluso il possesso di azioni nella società madre di TikTok, ByteDance, avvenuto lo scorso febbraio. Il CEO Xiao ha anche annunciato alla fine dell’anno scorso che l’azienda avrebbe gradualmente eliminato l’utilizzo di hardware cinese, dichiarando: “Non possiamo mantenere relazioni con entrambe le parti”.

In cambio, Microsoft otterrà un ampio accesso al mercato della regione. I suoi servizi di intelligenza artificiale e Azure potranno penetrare in una vasta gamma di settori, tra cui servizi finanziari, sanità, energia, governo e istruzione. Inoltre, la partnership prevede il lancio di un fondo da 1 miliardo di dollari “per supportare lo sviluppo delle competenze nell’intelligenza artificiale” negli Emirati Arabi Uniti e nella regione circostante.

Come evidenziato dagli eventi degli ultimi anni, le aziende tecnologiche si trovano sempre più ad affrontare la difficile scelta tra Stati Uniti e Cina, sia in termini di fornitori di tecnologia che di utenti o investitori. Le evoluzioni legate a G42 dimostrano che anche un paese come gli Emirati Arabi Uniti, che ha cercato di mantenere una posizione neutrale, potrebbe alla fine essere costretto a prendere una posizione chiara.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Adobe ha affermato che sta lavorando sulla tecnologia di generazione video

Adobe ha iniziato a raccogliere video per sviluppare il suo generatore di testo in video basato su intelligenza artificiale, secondo quanto riportato da Bloomberg News, citando alcuni documenti.

Il colosso della tecnologia offre alla sua rete di fotografi e artisti 120 dollari per inviare video di persone che svolgono attività quotidiane come camminare o esprimere emozioni come gioia e rabbia, tra le altre cose.

Tuttavia, l’azienda avverte di non fornire materiale protetto da copyright, nudità o altri “contenuti offensivi”. L’obiettivo è ottenere risorse per addestrare l’intelligenza artificiale, aggiunge il rapporto.

Il pagamento per il contenuto ammonta in media a circa 2,62 al minuto di video inviato, anche se potrebbe arrivare fino a circa 2,62 alminuto di video inviato, anche se potrebbe arrivare fino a circa 7,25 al minuto.

Nell’ultimo anno, Adobe si è concentrata sull’aggiunta di funzionalità di intelligenza artificiale generativa al suo portafoglio di software, inclusi Photoshop e Illustrator. Secondo il rapporto, la società ha lanciato servizi che utilizzano il testo per produrre immagini e illustrazioni che finora sono state utilizzate miliardi di volte.

Adobe, sta cercando di raggiungere i rivali dopo che OpenAI ha mostrato una tecnologia simile.

OpenAI, sostenuta da Microsoft , ha dimostrato il suo modello di generazione video chiamato Sora, preoccupando gli investitori che il leader del software creativo potrebbe essere influenzato dalla nuova tecnologia.

Google, il Weizmann Institute of Science e l’Università di Tel Aviv hanno pubblicato un documento in cui viene annunciato Lumiereun “modello di diffusione spazio-temporale” in grado di generare brevi video realistici e stilizzati, con opzioni di modifica a comando, sfruttando un modello di intelligenza artificiale generativa.

Adobe ha affermato che sta lavorando sulla tecnologia di generazione video e prevede di discuterne di più nel corso dell’anno, osserva il rapporto.

Il contenuto utilizzato per addestrare modelli linguistici di grandi dimensioni, o LLM, è diventato una questione controversa.

Il mese scorso, tre autori hanno intentato una causa contro Nvidia (NVDA) sostenendo che la società ha utilizzato i loro libri protetti da copyright senza permesso per addestrare la sua piattaforma di intelligenza artificiale NeMo.

Nel novembre 2023, la New York Times Company ha citato in giudizio Microsoft e OpenAI per violazione del copyright, sostenendo che le società hanno utilizzato illegalmente il contenuto del giornale per addestrare modelli di intelligenza artificiale.

Il mese scorso, Mira Murati, Chief Technology Officer di OpenAI, aveva dichiarato in un’intervista al Wall Street Journal di non essere sicura se Sora fosse addestrato sui video generati dagli utenti da YouTube di Google, un’unità di Alphabet e Meta Piattaforme Facebook e Instagram, secondo il rapporto.

Tuttavia, Adobe ha adottato misure per differenziare i propri modelli formandoli principalmente sulla sua libreria di supporti stock per operatori di marketing e agenzie creative.

Laddove la libreria stock non è all’altezza, la società ha procurato immagini dai contributori e ha anche offerto un compenso ai contributori per inviare una grande quantità di foto per la formazione sull’intelligenza artificiale. Questi lavori venivano pagati tra 6 e 16 centesimi per immagine, osserva il rapporto.

Andrew Ng entra nel CDA di AWS

Con particolare attenzione all’intelligenza artificiale, Amazon ha nominato Andrew Ng nel suo consiglio di amministrazione.

Andrew Ng è il socio accomandatario di AI Fund, uno studio di venture capital che aiuta gli imprenditori a costruire aziende di intelligenza artificiale.

Andrew Ng è anche il fondatore di DeepLearning.AI, presidente e co-fondatore di Coursera e professore a contratto presso la Stanford University.

Ng ha anche lavorato presso il colosso tecnologico cinese Baidu ed è stato uno dei fondatori del progetto Google Brain (Deep Learning) di Alphabet dal 2011 al 2012.

Costituito nel 2011, Google Brain ha combinato la ricerca illimitata sull’apprendimento automatico con sistemi informativi e risorse informatiche su larga scala.  Il team ha creato strumenti come TensorFlow , che consentono l’utilizzo delle reti neurali da parte del pubblico, con molteplici progetti di ricerca interni sull’intelligenza artificiale.

Inoltre, Amazon ha affermato che il membro del consiglio Judy McGrath non si candiderà alla rielezione all’Assemblea annuale degli azionisti della società.

Separatamente, giovedì, il CEO di Amazon Andy Jassy ha parlato del potenziale dell’intelligenza artificiale e dell’attenzione alla riduzione dei costi nella sua lettera agli azionisti.

 “L’intelligenza artificiale generativa potrebbe rappresentare la più grande trasformazione tecnologica dopo il cloud (che di per sé è ancora nelle fasi iniziali) e forse dopo Internet”, ha proclamato Jassy.

Ha sottolineato la notevole popolarità dei prodotti di intelligenza artificiale generativa di AMZN e ritiene che il boom dell’intelligenza artificiale generativa sarà costruito su AWS.

“Questa rivoluzione GenAI sarà costruita fin dall’inizio sul cloud. La quantità di vantaggi sociali e aziendali derivanti dalle soluzioni che saranno possibili sorprenderà tutti noi”, ha aggiornato Jassy.

L’intelligenza artificiale è diventata un obiettivo chiave per il colosso tecnologico con sede a Seattle. Il mese scorso, Amazon ha annunciato di aver effettuato un ulteriore investimento di 2,75 miliardi di dollari in Anthropic, portando il suo investimento totale nella startup AI a 4 miliardi di dollari.

Nella corsa all’Intelligenza Artificiale: un confronto epocale tra potenze mondiali

Nella battaglia epocale per il dominio dell’Intelligenza Artificiale si intravede un conflitto globale di proporzioni monumentali.

Ebbene si, nel cuore del XXI secolo, il mondo assiste a una competizione titanica tra le principali potenze mondiali per conquistare il primato nell’ambito dell’Intelligenza Artificiale. E non si tratta semplicemente di un’altra gara tecnologica, ma di un confronto epocale che potrebbe plasmare il corso della storia per le generazioni a venire.

Già nel 2019, il segretario alla Difesa statunitense Mark Esper sollevò il velo su una realtà imminente. Persone diverse mettono cose diverse al primo posto; per me è l’intelligenza artificiale”, ha detto durante l’udienza sulle sue principali priorità tecnologiche in risposta a una domanda da parte di Martin Heinrich, membro del SASC, il Comitato per i Servizi Armati del Senato, a cui è conferito il potere di controllo legislativo delle forze armate nazionali.  L’Intelligenza Artificiale “probabilmente cambierà il carattere della guerra, e credo che chiunque la padroneggerà dominerà sul campo di battaglia per molti, molti, molti anni”, ha concluso Esper, riconoscendo l’enorme potenziale dei progressi nell’Intelligenza Artificiale e avvertendo che tali sviluppi avrebbero potuto rivoluzionare radicalmente la natura di eventuali futuri conflitti armati.

La sua visione su questo punto era molto chiara: la nazione che per prima avrebbe saputo padroneggiare questa tecnologia avrebbe goduto di un vantaggio decisivo sul campo di battaglia per molti anni a venire.

È in questo momento che la corsa all’AI ha preso forma, con gli Stati Uniti e la Cina nel ruolo di protagonisti principali di un nuovo dramma geopolitico.

Nel frattempo la Cina è riuscita a fare progressi significativi nel campo dell’Intelligenza Artificiale. Il Pentagono stima che l’AI sviluppata dalla Cina sia ormai si vicina a quella americana. In molte aree, Pechino ha eguagliato o addirittura superato gli Stati Uniti, soprattutto nell’ambito delle applicazioni militari.

Già nel 2017 Pechino aveva avviato un piano nazionale specificamente rivolto all’intelligenza artificiale, il piano “A New Generation Artificial Intelligence Development Plan”, una strategia nazionale adottata al fine di “promuovere iniziative e fissare degli obiettivi per ricerca e sviluppo, industrializzazione, sviluppo dei talenti, istruzione e acquisizione di competenze, definizione di standard e regolamenti, norme etiche e sicurezza nel settore dell’intelligenza artificiale“.

Un esempio di questo progresso è stato osservato durante la cerimonia di apertura dei Giochi Olimpici invernali di Pechino 2022 quando 520 droni hanno eseguito coreografie complesse e coordinate, sottolineando le capacità avanzate della Cina nell’Intelligenza Artificiale, nei contesti militari. Tant’è che la Cina oggi è il principale esportatore globale di droni da combattimento. 

Come mostrano i dati dello Stockholm International Peace Research Institute (Sipri), Pechino ha messo a segno un’intensa attività commerciale: ha “spedito almeno 282 droni da combattimento armati in 17 Paesi negli ultimi dieci anni. Nello stesso periodo gli Stati Uniti ne hanno esportati solo 12 in Francia e Gran Bretagna”.

Prima del 24 febbraio 2022 (data dell’invasione Russa dell’Ucraina), DJI una società tecnologica cinese con sede a Shenzhen, nel Guangdong, aveva esportato sia in Russia che in Ucraina, AeroScope, una piattaforma completa di rilevamento dei droni che identifica rapidamente i collegamenti di comunicazione degli UAV, monitorandone i dati e raccogliendo informazioni come lo stato del volo, i percorsi e altre informazioni in tempo reale.

Possiamo quindi dire che la Cina ha riconosciuto da subito che uno dei campi di battaglia chiave nella competizione con gli Stati Uniti sarebbe stata proprio l’Intelligenza Artificiale, il cui controllo potrebbe determinare il destino del primato globale nel XXI secolo. In questa lotta titanica, la Cina non intende rimanere indietro, ma anzi si propone di raggiungere e superare gli Stati Uniti nella corsa all’Intelligenza Artificiale.

Tuttavia, occorre considerare che l’Intelligenza Artificiale non è un’entità monolitica, ma piuttosto una sinergia di tre tecnologie fondamentali: algoritmi, potenza di calcolo e big data. Questi pilastri sono sorretti da microchip avanzati, che agiscono come il motore pulsante dell’AI.

In risposta alla crescente minaccia cinese nel campo della tecnologia dei microprocessori, gli Stati Uniti hanno intrapreso una serie di misure restrittive, cercando di soffocare il progresso tecnologico cinese e mantenere la loro supremazia.

Gli gli Stati Uniti hanno infatti vietato a giganti tecnologici come Huawei di stringere legami con società occidentali e hanno inserito aziende come Da-Jiang Innovations (DJI) nella loro Entity List, una sorta di lista nera commerciale.

Il Dictat e’ impedire alla Cina di accedere ai microchip avanzati necessari per alimentare l’Intelligenza Artificiale.

Il mondo dei semiconduttori è suddiviso in diverse categorie di aziende, ognuna con ruoli distinti e cruciali nel processo di produzione e progettazione dei circuiti integrati.

In primo luogo, ci sono le società IDM (Integrated Device Manufacturer), le quali non solo progettano ma producono i circuiti integrati all’interno dei loro stabilimenti. Tra le principali società IDM vi sono giganti come Intel e Texas Instruments negli Stati Uniti, Micron e SK Hynix in Corea del Sud.

In secondo luogo, ci sono le società cosiddette “Fabless”, che si concentrano esclusivamente sulla progettazione dei circuiti integrati, mentre la produzione è affidata a terzi.

Questo gruppo include nomi di rilievo come Qualcomm, NVIDIA e Broadcom negli Stati Uniti e MediaTek a Taiwan. Infine, ci sono le società di fonderie, che si dedicano esclusivamente alla produzione di semiconduttori per conto terzi, fornendo servizi alle aziende Fabless e alcune IDM.

Tra queste, il colosso mondiale è TSMC a Taiwan, seguita da Samsung in Corea del Sud, che svolge anche attività IDM, specialmente nel settore dei chip di memoria.

La “guerra dei chip” ha assunto una nuova rilevanza, soprattutto alla luce delle crescenti tensioni tra Cina e Taiwan. Quest’ultima peraltro, essendo sede di TSMC, è il più grande centro di produzione di chip al mondo.

Questo sforzo mirato a contenere la tecnologia cinese ha riguardato anche l’Europa: gli Stati Uniti hanno esercitato pressione sui Paesi Bassi affinché non cedessero la società ASML a Pechino, nonostante un accordo preesistente firmato quattro anni prima.

In risposta alle minacce cinesi e per proteggere le aziende che dipendono dalla fornitura dei chip, l’Unione Europea ha introdotto il “Chips Act”, un programma di incentivi del valore di 43 miliardi di euro per incoraggiare le aziende a stabilire fabbriche sul suolo europeo o in Paesi alleati.

Gli Stati Uniti hanno seguito l’esempio con un piano simile dal valore di 53 miliardi di dollari. Inoltre, l’amministrazione Biden ha proposto un’alleanza denominata “Chip 4”, coinvolgendo Stati Uniti, Taiwan, Giappone e Corea del Sud, mirata a garantire l’autonomia e la sicurezza dell’intera catena di produzione dei semiconduttori, con un obiettivo esplicito anti-cinese.

Questo approccio mirato ha lo scopo di privare la Cina delle componenti microelettroniche essenziali necessarie per la progettazione e lo sviluppo dell’AI. Senza accesso a questi componenti critici, Pechino sarebbe costretta a rallentare o addirittura interrompere lo sviluppo di hardware e software specifici per l’Intelligenza Artificiale, indebolendo così la sua posizione nel panorama globale della tecnologia.

La crescente incorporazione di software e sensori d’Intelligenza Artificiale nei sistemi d’arma contribuisce di fatto a ridisegnare i vecchi modelli di combattimento. Agli analisti militari cinesi non sono sicuramente sfuggite le difficoltà che la Russia sta incontrando nel confronto con le armi intelligenti del proprio avversario, come gli Himars o i cosiddetti droni kamikaze figli del nuovo programma “Replicator”.

Date le opportunità, i rischi e le minacce derivanti da questa nuova tecnologia, i Paesi membri della Nato hanno riconosciuto la necessità di trovare forme di cooperazione per fronteggiare fenomeni ritenuti “troppo vasti perché un singolo attore possa gestirli da solo”.

Il segretario generale dell’Alleanza Jens Stoltenberg in un’intervista al Financial Times ha sottolineato che “per decenni gli alleati Nato hanno dominato nel segmento della tecnologia. Ma questo non è più così ovvio”. D’altra parte è stata proprio la superiorità tecnologica della Nato sul piano dell’Intelligenza Artificiale a permettere alle forze di Kiev di avere una percezione più limpida del campo di battaglia rispetto agli avversari.

Secondo un nuovo policy brief dello European Council on Foreign Relations (ECFR), gli analisti cinesi non considerano la guerra della Russia contro l’Ucraina come un grande punto di rottura con il passato, bensì come un’ulteriore manifestazione dell’annosa rivalità tra la Cina e gli Stati Uniti.

Il policy brief, intitolato “China and Ukraine: The Chinese debate about Russia’s war and its meaning for the world” presenta quattro lezioni chiave, tratte da oltre 30 interviste condotte off-the-record dagli autori con analisti ed esperti strategici cinesi provenienti dalle migliori università, da think tanks e da organi affiliati al Partito Comunista Cinese.

  1. Gli USA stanno usando la guerra in Ucraina per accerchiare la Cina, senza però riuscire a mobilitare il resto del mondo;
  2. La Cina ha più da guadagnare che da perdere stando dalla parte della Russia – e oggi è Mosca ad essere il junior partner di Pechino; 
  3. La guerra in Ucraina non ha alterato le probabilità di un potenziale conflitto su Taiwan, ma le risposte occidentali stanno certamente influenzando il pensiero cinese;
  4. L’interdipendenza economica non proteggerà la Cina, che deve prepararsi alle sanzioni. 

La corsa all’AI è diventata una lotta non solo per il dominio tecnologico, ma anche per il controllo delle risorse chiave che alimentano questa rivoluzione digitale. Il controllo dei microchip avanzati si è trasformato in un’arma geopolitica, utilizzata dalle potenze mondiali per influenzare il corso della competizione tecnologica e consolidare la propria supremazia nel settore dell’Intelligenza Artificiale.

Alcuni progetti nel campo dell’Intelligenza Artificiale rivestono una duplice funzione, poiché possono essere utilizzati sia per scopi civili che militari come nel caso della tecnologia AeroScope sviluppata da DJI, leader mondiale nel settore dei droni.

Ciò che emerge chiaramente è che la competizione per il dominio nell’Intelligenza Artificiale è non solo una sfida che coinvolge risorse umane, finanziarie e tecnologiche di vasta portata ma anche una competizione tra differenti sistemi sociopolitici e ideologici.

Se vogliamo, la corsa all’Intelligenza Artificiale è paragonabile alla corsa al nucleare del XX secolo e Pechino è determinata a non restare indietro rispetto agli Stati Uniti. Resta da vedere chi avrà la meglio in questa contesa.

Da questo punto di vista tuttavia, va anche considerato che la corsa all’Intelligenza Artificiale è una battaglia che va oltre i confini delle tecnologie di difesa e sicurezza. Le aziende cinesi, come Tencent, Alibaba e TikTok, dominano il mercato globale degli algoritmi e dei droni civili. Questo dominio non solo solleva interrogativi sulla sicurezza, ma suggerisce anche l’applicabilità potenziale dell’AI in una vasta gamma di settori, inclusi quelli civili.

Nonostante gli sforzi degli Stati Uniti per mantenere la loro supremazia nell’AI, la Cina sta guadagnando terreno.

La corsa all’AI tra Stati Uniti e Cina è diventata una guerra tra sistemi sociopolitici, con implicazioni che vanno ben oltre il campo tecnologico. In questo confronto titanico, solo il tempo ci dirà quali saranno le conseguenze.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

CDP Venture Capital: 1 miliardo di euro per sviluppare l’Intelligenza Artificiale in Italia

Focus su Intelligenza Artificiale e Cybersecurity, con investimenti complessivi di 8 miliardi di euro, di cui 1 dedicato all’AI, per supportare lo sviluppo dell’economia e dell’innovazione italiana: queste le principali novità del Piano Industriale 2024-2028 di CDP Venture Capital appena presentato a Milano dalla Presidente Anna Lambiase e dall’Amministratore Delegato e Direttore Generale Agostino Scornajenchi.

Il focus è concentrato su 7 settori industriali ritenuti strategici per il futuro del Paese:

  1. Industry Tech;
  2. Infra Tech & Mobility;
  3. Agrifood Tech;
  4. Clean Tech;
  5. Aerospazio;
  6. Lifescience;
  7. Intelligenza Artificiale.

All’Intelligenza Artificiale, come aveva anticipato lo scorso mese di marzo la Presidente del Consiglio Giorgia Meloni, sono dedicate risorse per 1 miliardo di euro su 3 ambiti specifici:

  • 120 milioni di euro dedicati al trasferimento tecnologico, anello di congiunzione tra ricerca universitaria e mercato;
  • 580 milioni di euro di investimenti in startup con applicazioni settoriali per rafforzare gli attori già esistenti;
  • 300 milioni di euro di investimenti in aziende mature pronte a scalare all’estero e diventare i futuri campioni nazionali.

In merito a quest’ultimo punto Agostino Scornajenchi, amministratore delegato di Cdp Venture Capital ha commentato “abbiamo un silver bullet da 300 milioni di euro per una, due o tre operazioni di concentrazione. Dobbiamo supportare il nostro sistema in modo tale che faccia nascere un campione nazionale dell’Intelligenza Artificiale, dobbiamo fare massa critica su questo ambito e questa fase specifica di investimento sul nostro comparto large venture sarà dedicata a questo“.

Adesso il tema vero è il seguente: 1 miliardo di euro come investimento Paese è sufficiente per far si che l’Italia possa giocare un ruolo significativo nel panorama dell’Intelligenza Artificiale?

Il panorama delle startup italiane continua a essere dinamico e promettente, con alcune aziende che si distinguono per la loro resilienza e capacità di adattamento

Gli investimenti nelle startup italiane hanno subito un duro colpo nel 2023, con una drastica diminuzione del 50% rispetto all’anno precedente. Secondo i dati elaborati da Italian Tech, gli investimenti in venture capital si sono attestati a 1,15 miliardi di euro. Questo rappresenta un calo significativo rispetto ai 2,39 miliardi del 2022 e ai 1,3 miliardi del 2021.

Ecco alcuni punti chiave riguardanti gli investimenti nelle startup italiane nel 2023:

Ammontare degli investimenti: a dicembre 2023, sono stati investiti 87,4 milioni di euro in startup, distribuiti in 9 aumenti di capitale, portando il totale annuale a 1,15 miliardi;

Numero di deal: nel 2023, sono stati conclusi 173 deal, rispetto ai 202 del 2022 e ai 165 del 2021;

Settori in crescita: i settori che hanno ricevuto maggiori investimenti includono medtech, cleantech, biotech e tecnologie applicate al lavoro HR.
Distribuzione territoriale: La Lombardia ha mantenuto il ruolo di leader con il 39,3% degli investimenti totali, seguita dal Piemonte al secondo posto con il 12%.

Ulteriori dettagli sugli investimenti nelle startup italiane nel 2023:

  1. Investimenti per fase di sviluppo:
    • Seed stage: gli investimenti in questa fase sono stati di circa 200 milioni di euro, con 41 deal conclusi;
    • Early stage: in questa fase, gli investimenti hanno raggiunto circa 600 milioni di euro, con 80 deal;
    • Growth stage: gli investimenti in startup in questa fase sono stati di circa 350 milioni di euro, con 52 deal;
  2. Settori specifici:
    • Medtech: le startup medtech hanno ricevuto circa 150 milioni di euro di investimenti;
    • Cleantech: questo settore ha ottenuto circa 100 milioni di euro;
    • Biotech: le startup biotech hanno ricevuto circa 80 milioni di euro;
    • Tecnologie applicate al lavoro HR: questo settore ha ricevuto circa 70 milioni di euro;
  3. Investimenti esteri:
    • Nonostante la diminuzione complessiva degli investimenti, alcune startup italiane hanno attirato l’attenzione di investitori stranieri. Ad esempio, D-Orbit ha ricevuto un investimento di 100 milioni di euro da SpaceX;
  4. Sfide e opportunità:
    • La riduzione degli investimenti rappresenta una sfida per le startup italiane, ma ci sono ancora opportunità per l’innovazione e la crescita;
    • Le aziende italiane dovrebbero concentrarsi sulla diversificazione delle fonti di finanziamento, cercando anche investitori internazionali;
    • La collaborazione tra startup, università e istituzioni può favorire lo sviluppo di nuove tecnologie e soluzioni.

Ci sono piaciute: Hiro Robotics, SunCubes , Nutriafrica, Cap_able, Displaid, Soundsafe Care, Foreverland, Newtwen, Levelquantum, Aindo.

Ecco alcune informazioni sulle startup italiane menzionate:

  1. Hiro Robotics: si occupa del riciclaggio di rifiuti elettronici utilizzando robotica e intelligenza artificialeIl loro sistema robotico modulare consente di trattare oltre 60 monitor e TV all’ora, garantendo il 99% di recupero di materiali preziosi dai rifiuti elettronici;
  2. Soundsafe Care: questa startup combina ultrasuoni e robotica per disrupt i metodi convenzionali di chirurgiaLa loro tecnologia permette un trattamento chirurgico preciso grazie alla robotica e completamente non invasivo grazie agli ultrasuoni;
  3. Aindo: fondata nel 2018 e con sede nell’Area Science Park a Trieste, Aindo propone una soluzione che analizza i dati aziendali per creare dati sinteticiQuesti dati sintetici sono considerati una delle migliori soluzioni per affrontare la carenza di dati su cui addestrare l’intelligenza artificiale.

Queste startup stanno contribuendo all’innovazione nel campo dell’Intelligenza Artificiale e della robotica in Italia

In sintesi, nonostante le difficoltà, il panorama delle startup italiane continua a essere dinamico e promettente, con alcune aziende che si distinguono per la loro resilienza e capacità di adattamento.

In sintesi, la riduzione degli investimenti di venture capital rappresenta una sfida per le startup italiane, ma alcune aziende continuano a ottenere finanziamenti e a innovare nel panorama imprenditoriale.

Reuters : Alibaba Taglia i Prezzi in vista dell’ AI war

Quando Alibaba Group si è quotato in borsa alla Borsa di New York il 18 settembre 2014, il CEO Jack Ma ha detto dell’IPO da 25 miliardi di dollari da record: “Quello che abbiamo raccolto oggi non è denaro, è fiducia”.

Alibaba sta tagliando i prezzi per i suoi clienti cloud a livello globale fino al 59%, in un contesto di crescente concorrenza per respingere i rivali e attirare sviluppatori di software AI, ha riferito Reuters.

Il colosso tecnologico cinese ha affermato che i prodotti relativi all’informatica, allo storage, alla rete, ai database e ai big data vedranno in media una riduzione dei prezzi del 23%, aggiunge il rapporto di Reuters .

Queste riduzioni di prezzo riguardano circa 500 specifiche di prodotti cloud e gli sconti sono ora disponibili per i clienti in 13 regioni, tra cui Giappone, Indonesia, Emirati Arabi Uniti e Germania, ha riferito Bloomberg News .

Questa è la terza volta che l’azienda riduce i prezzi nell’ultimo anno.

A febbraio, Alibaba ha dichiarato che avrebbe effettuato una forte riduzione dei prezzi per i suoi servizi cloud, con l’obiettivo di recuperare utenti da concorrenti come Tencent , che competono per fornire gli strumenti necessari per addestrare l’intelligenza artificiale .

I giganti della tecnologia cinese Alibaba Group Holding e Tencent Holdings hanno investito congiuntamente 2,5 miliardi di yuan (342 milioni di dollari) in Zhipu, una startup di intelligenza artificiale con sede a Pechino .

Alibaba e Tencent, insieme ad altre importanti aziende cinesi come Ant Group, Xiaomi e Meituan, stanno supportando Zhipu nella sua missione di sviluppare alternative nazionali al ChatGPT di OpenAI .

Zhipu è tra le numerose startup cinesi che stanno lavorando attivamente su tecnologie di intelligenza artificiale generativa, con l’obiettivo di competere con attori riconosciuti a livello globale come OpenAI e Google.

Zhipu ha ottenuto l’approvazione iniziale del governo per un lancio pubblico in agosto e da allora ha rilasciato un modello open source e un chatbot chiamato Qingyan .

Pochi giorni dopo l’annuncio di Alibaba, anche JD.com  ha dichiarato che avrebbe tagliato i prezzi del cloud computing.

JD.com ha recentemente annunciato il lancio della sua iniziativa Spring Dawn migliorata, una solida suite di soluzioni per i commercianti di terze parti per aumentare i ricavi, inclusi nuovi servizi di intelligenza artificiale progettati per ridurre i costi operativi dei commercianti fino al 50%.

Dal suo lancio iniziale nel gennaio 2023, l’ iniziativa Spring Dawn è stata un catalizzatore di crescita, aumentando di 4,3 volte il numero di commercianti terzi sulla nostra piattaforma. Mentre ci avviciniamo all’accoglienza del nostro milionesimo partner commerciale, siamo entusiasti di lanciare la fase successiva dell’iniziativa.

Le riduzioni dei prezzi segnano le mosse aggressive di Alibaba per stare al passo con i rivali, tra cui Tencent e Baidu, nel business del cloud, e rischiano di iniziare una guerra dei prezzi in un settore già fortemente competitivo.

Secondo il rapporto di Reuters, gli attuali tagli dei prezzi rappresentano l’ultimo sforzo di Alibaba per attirare gli sviluppatori a creare modelli e applicazioni di intelligenza artificiale ad alta intensità di dati utilizzando i servizi cloud dell’azienda.

Lo scorso novembre, Alibaba ha annullato il progetto di spin-off del suo Cloud Intelligence Group, noto anche come Aliyun. La società ha affermato che l’espansione delle restrizioni statunitensi sull’esportazione di chip informatici avanzati ha creato incertezze sulle prospettive del business del cloud. Successivamente, Alibaba ha avviato un rinnovamento del business del cloud computing, coinvolgendo, tra le altre cose, veterani in nuove posizioni di leadership.

L’intelligenza artificiale ha il potenziale per trasformare vari settori, dai trasporti ai media e alla finanza, e potrebbe guidare una nuova fase di crescita economica.

Tuttavia, la tecnologia ha anche applicazioni militari e governative, il che potrebbe complicare ulteriormente il già teso rapporto tra Washington e Pechino.

Intelligenza Artificiale: dati e statistiche

In questo articolo condivideremo statistiche sulle dimensioni del mercato e su come le aziende utilizzano l’Intelligenza Artificiale per migliorare l’esperienza del cliente e risparmiare denaro, oltre a fornire uno sguardo su ciò che il futuro potrebbe riservarci in un mondo di AI.

Statistiche sulla strategia di intelligenza artificiale del governo #
Nel marzo 2017, il Canada ha lanciato la prima strategia nazionale sull’Intelligenza Artificiale al mondo. 5 anni dopo, a dicembre 2022, quasi un terzo dei governi globali (62 paesi) aveva implementato un approccio simile.

In base all’analisi delle strategie governative di Intelligenza Artificiale per Paese emerge che, tra il 2019 e il 2023, il governo degli Stati Uniti ha investito di più nell’AI, rispetto ad altri paesi, con quasi 328 miliardi di dollari. Si tratta di circa 195 miliardi di dollari in più di quanto investito nello stesso periodo dalla Cina, che si posiziona al secondo posto al mondo in termini di investimenti nel settore.

Gli investimenti di entrambi i Paesi fanno impallidire il valore di 25,5 miliardi di dollari investiti nello stesso periodo dal Regno Unito, terzo classificato nella classifica, con quasi 13 volte meno il volume totale degli investimenti fatto dagli Stati Uniti. 

Una ripartizione delle statistiche sugli investimenti pubblici nell’AI per Paese #

PaeseSomma degli investimenti negli ultimi 5 anni (milioni di dollari)Investimenti negli ultimi 5 anni (per mille dollari di PIL)Investimenti negli ultimi 5 anni, come percentuale degli investimenti negli Stati Uniti (per mille dollari di PIL)
Singapore7.00515.01116,30
Svezia8.28114.13109,53
Stati Uniti328.54812.90100,00
Estonia41510.8984.44
UK25.5418.3264.46
Cina132.6657.3957.24
Corea del Sud10.3486.2148.16
Canada12.4575.8245.12
India16.1474.7736,97
Svizzera3.2394.0131.08

(Fonte: AIPRM tramite OCSE e Banca Mondiale)

Quando le statistiche sugli investimenti nell’Intelligenza Artificiale vengono giudicate rispetto al PIL del Paese, Singapore risulta essere la migliore. Nonostante abbiano investito una modesta cifra di 7 miliardi di dollari rispetto ad altre nazioni, ciò rappresenta più del 15% della loro ricchezza relativa per mille dollari di Pil.

Singapore è seguita dalla Svezia, con investimenti che rappresentano il 14,13% del suo Pil speso nello sviluppo dell’Intelligenza Artificiale.

Al contrario, gli Stati Uniti investono un valore pari a circa il 12,9% del Pil nello sviluppo della propria infrastruttura di Intelligenza Artificiale, rispetto all’8,32% del Regno Unito

In termini di confronto tra gli investimenti nell’Intelligenza Artificiale tra Paesi e gli Stati Uniti, Singapore è ancora una volta all’avanguardia. Con il 116,3%, ciò significa che il tasso di investimenti nell’AI da parte del governo di Singapore è di circa il 16% in più rispetto alle controparti statunitensi (in termini relativi per miliardo di Pil). Allo stesso modo, la Svezia si attesta al 109,53%, essendo l’unica altra nazione che investe più degli Stati Uniti nell’Intelligenza Artificiale, in termini di ricchezza relativa.

In confronto, il livello di investimenti nell’Intelligenza Artificiale del Regno Unito tra il 2019 e il 2023 è pari al 64,46% (rispetto al Pil degli Stati Uniti), il che significa che durante questo periodo è stata effettuata quasi un terzo in meno della spesa per l’Intelligenza Artificiale in relazione finanziaria agli Stati Uniti.

Quanto dovrebbe investire ciascun paese nell’intelligenza artificiale per raggiungere gli Stati Uniti?

Sulla base degli attuali livelli di spesa, è molto probabile che la Cina raggiunga gli Stati Uniti in termini di investimenti nell’Intelligenza Artificiale. Per raggiungere questo obiettivo entro il 2030, la Cina dovrebbe spendere oltre 94 miliardi di dollari nella sua infrastruttura di Intelligenza Artificiale entro la fine del decennio per raggiungere lo stesso livello di investimenti degli Stati Uniti. 

Una ripartizione delle statistiche sugli investimenti nell’intelligenza artificiale e quanto ogni Paese dovrebbe spendere nell’Intelligenza Artificiale per raggiungere gli Stati Uniti entro il 2030, 2040 e 2050#

PaeseRecuperare il ritardo entro il 2030 (milioni di dollari)Recuperare il ritardo entro il 2040 (milioni di dollari)Recuperare il ritardo entro il 2050 (milioni di dollari)
Cina94.23799.242117.915
Regno Unito157.923157.408182.527
India162.589161.996187.814
Israele163.436163.180189.369
Germania163.821163.483189.676
Canada164.441164.243190.634
Corea165.430165.066191.502
Francia165.637165.342191.858
Svezia166.289165.715192.143
Singapore167.118166.934193.766

(Fonte: AIPRM tramite OCSE e Banca Mondiale)

Il Regno Unito è il secondo Paese più propenso a raggiungere gli Stati Uniti in termini di investimenti nell’Intelligenza Artificiale. Tuttavia, per raggiungere questo obiettivo dovrebbero spendere altri 157,9 miliardi di dollari entro il 2030.  

Sulla base dei livelli di investimenti nell’Intelligenza Artificiale nel 2023, quanto tempo occorrerebbe ai Paesi per raggiungere gli Stati Uniti? #

PaeseRaggiungere gli Stati Uniti nel 2030 (anni)Al passo con gli Stati Uniti nel 2040 (anni)Raggiungere gli Stati Uniti nel 2050 (anni)
Cina143872
Regno Unito79195361
India119291538
Israele141344636
Germania145355656
Canada164400740
Corea183447825
Francia193472872
Svezia200486897
Singapore2746661.231

(Fonte: AIPRM tramite OCSE e Banca Mondiale)

A partire dal 2023, la Cina è il paese che con maggiori probabilità raggiungerà gli Stati Uniti in termini percentuale di spesa in base al Pil per l’Intelligenza Artificiale.

Supponendo che la Cina mantenga lo stesso livello di investimenti nell’AI a partire dal 2023, ci vorrebbero 14 anni (fino al 2037) per raggiungere lo stesso livello di investimenti degli Stati Uniti nel settore. Se la Cina riuscisse a mantenere questo livello di spesa nel futuro, impiegherebbe 38 anni (fino al 2061) per raggiungere il livello a sua volta raggiunto dagli Stati Uniti nel 2040, e altri 34 anni (fino al 2095) per raggiungere il livello raggiunto dagli Stati Uniti nel 2050.

Analizzando i dati da questo punto di vista, ciò significa che, entro la fine del secolo, la Cina potrebbe essere 45 anni indietro rispetto all’America in termini di investimenti nell’Intelligenza Artificiale (se continuerà a investire la stessa quantità di denaro anno dopo anno come nel 2023).

Il Regno Unito è il secondo Paese meglio posizionato per raggiungere gli Stati Uniti in termini di investimenti nell’Intelligenza Artificiale. Tuttavia, se il Regno Unito dovesse mantenere lo stesso livello di spesa per l’intelligenza artificiale del 2023, ci vorrebbe fino al 2102 per raggiungere il livello in cui si troveranno gli Stati Uniti nel 2030 (72 anni indietro in termini di sviluppo dell’AI).   

Una ripartizione della conoscenza pubblica dell’AI tra diversi Paesi#

Grafico a barre che mostra la conoscenza pubblica dell'IA tra diversi paesi

Nel complesso, i Paesi asiatici tendono a mostrare una maggiore conoscenza soggettiva dell’Intelligenza Artificiale, con Corea del Sud e Cina in testa (rispettivamente 85% e 82%). Nonostante ciò, solo un quarto (25%) della popolazione giapponese ha una conoscenza elevata o moderata della tecnologia: il dato più basso riportato in tutti i paesi inclusi nello studio di KPMG.

In confronto, le statistiche sull’Intelligenza Artificiale rivelano che meno della metà (45%) degli americani ritiene di avere un livello alto o moderato di conoscenza dell’AI, con quasi tre quarti (73%) che desiderano saperne di più sul tema.

I Paesi in cui le persone desiderano maggiormente ampliare le proprie conoscenze sull’Intelligenza Artificiale sono Cina (96%) e Israele (94%). Al contrario, poco più della metà (55%) della popolazione giapponese vuole saperne di più sull’Intelligenza Artificiale, il dato più basso riportato nello studio. 

Una ripartizione della conoscenza pubblica dell’AI tra diversi gruppi demografici#

Grafico a farfalla che mostra la conoscenza pubblica dell'IA tra diversi gruppi demografici

Analizzando poi i dati sulla base dell’età della popolazione, scopriamo che la generazione Z e i Millennials mostrano un livello maggiore di conoscenza soggettiva dell’Intelligenza Artificiale rispetto alle loro controparti più anziane. Quasi tre intervistati su cinque, il 57% di tutti coloro che hanno un’età compresa tra 18 e 39 anni ritengono di avere un livello elevato o moderato di conoscenza dell’AI, rispetto al 50% delle persone tra i 40 e i 55 anni e al 39% degli over 56.

La Gen Z e i Millenial sono anche i più desiderosi di saperne di più sull’Intelligenza Artificiale (86%), rispetto al 79% della Gen X e al 76% della generazione dei Boomers.

Tra tutti, le persone con un’istruzione universitaria mostrano una conoscenza dell’Intelligenza Artificiale maggiore di un terzo rispetto a coloro che non hanno frequentato l’università (62% contro 40%) e hanno un maggiore livello di entusiasmo nell’apprendere di più di questa tecnologia (86% contro 77%).

Gli uomini mostrano un livello più elevato di conoscenza soggettiva dell’AI rispetto alle donne (60% contro 40%) e un maggiore desiderio di saperne di più sul tema (84% contro 79%).

La conoscenza percepita dell’AI tende ad aumentare man mano che i lavoratori diventano più qualificati. Ad esempio, due lavoratori manuali su cinque (40%) ritengono di avere una conoscenza dell’Intelligenza Artificiale da moderata a elevata rispetto a circa due terzi (67%) dei manager. Anche il desiderio di espandere la conoscenza dei temi legati all’Intelligenza Artificiale segue un modello simile, ma con cifre molto più vicine tra i gruppi (77% per gli operai rispetto all’88% per i manager).

Interessante anche il tema legato alla Diversity, che rileva come la maggior parte degli iscritti a PhD sull’AI negli Usa siano bianchi, con le componenti ispaniche e di colore della popolazione americana largamente sottorappresentate.

Secondo un sondaggio McKinsey, nonostante le crescenti richieste di attenzione verso i temi etici associati all’uso dell’Intelligenza Artificiale, le aziende mostrano un’attenzione limitata all’equità nell’AI.

L’evoluzione della strategia globale sull’Intelligenza Artificiale è, come abbiamo visto, un fenomeno degno di nota che rivela la crescente consapevolezza e l’importanza attribuita a questa tecnologia a livello internazionale, con gli Stati Uniti che ricoprono un ruolo preminente nel settore rispetto ad altre nazioni, anche se l’analisi demografica della conoscenza della tematica solleva la necessità di promuovere la diversità e l’inclusione nel settore. Affrontare queste disparità non solo migliorerà la rappresentatività e la competenza dell’Intelligenza Artificiale, ma contribuirà anche a garantire un approccio più ampio e inclusivo alla risoluzione dei problemi e all’innovazione tecnologica.

La ‘carota’ di Elon Musk ROBOTAXI

L’adozione dell’intelligenza artificiale nei veicoli autonomi e nei sistemi di trasporto intelligenti (ITS) è una tendenza all’avanguardia nel settore dell’IA. I veicoli autonomi, equipaggiati con avanzati algoritmi di IA e tecnologie sensoriali, stanno trasformando l’industria automobilistica, garantendo una maggiore sicurezza, un’efficienza superiore e una gestione del traffico ottimizzata.

Parallelamente, gli ITS utilizzano l’IA per costruire un ecosistema integrato che migliora l’efficienza dei trasporti, contribuendo alla crescita delle smart city. Questi sistemi elaborano enormi quantità di dati provenienti da diverse fonti per facilitare il flusso del traffico, ridurre l’ingorgo e favorire soluzioni di mobilità sostenibile, segnando una trasformazione radicale nel nostro modo di percepire e interagire con i trasporti.

Nonostante l’importante impatto dell’IA sui veicoli autonomi e sugli ITS, è necessario affrontare sfide come la regolamentazione, le questioni etiche e le preoccupazioni sulla sicurezza informatica per una diffusione più ampia. Nonostante queste sfide, l’innovazione continua, guidata dall’integrazione dell’IA, sta plasmando il futuro dei trasporti, promettendo un panorama in cui le soluzioni di mobilità intelligente giocano un ruolo chiave nella creazione di reti di trasporto più sicure, più efficienti e rispettose dell’ambiente.

Negli Stati Uniti ci sono attualmente quattro città in cui è possibile prendere un robotaxi: San Francisco, Phoenix, Los Angeles e Las Vegas.

Il Robotaxi di Tesla è un progetto ambizioso annunciato da Elon Musk, CEO di Tesla, che mira a produrre veicoli altamente ottimizzati per l’autonomia. Questi veicoli non avranno né volante né pedali, il che significa che saranno completamente autonomi.

Musk ha dichiarato che Tesla prevede di lanciare i Robotaxi nel 2024. Questi veicoli saranno progettati specificamente per essere utilizzati come taxi autonomi. In precedenza, Musk aveva parlato di rendere tutti i veicoli Tesla prodotti dal 2016 in poi capaci di diventare Robotaxi attraverso un aggiornamento software.

L’obiettivo di Tesla con il progetto Robotaxi è di rivoluzionare il settore dei trasporti, rendendo i taxi autonomi più popolari delle auto guidate dagli umani. Questo progetto mette Tesla in competizione con altre aziende che stanno sviluppando tecnologie per veicoli autonomi.

Tuttavia, è importante notare che, nonostante le promesse di Musk, i veicoli Tesla attuali non sono ancora completamente autonomi.

Il software Full Self-Driving (FSD) di Tesla, che Musk ha promesso sarà in grado di fornire capacità di guida completamente autonome, non è ancora in grado di guidare da solo.

Per la terza volta in otto anni, Tesla ha annunciato i suoi piani per i robotaxi, con un annuncio previsto per l’8 agosto, presumibilmente del 2024.

Tesla aveva annunciato per la prima volta nell’ottobre 2016 che tutte le Tesla prodotte da allora sarebbero state compatibili con il Livello 5 (robotaxi), in attesa dell’aggiornamento del software.

Musk ha promesso che Tesla avrebbe avuto un milione di robotaxi sulla strada entro un anno dalla presentazione di aprile 2019.

In altre parole, entro (aprile) 2020. Bene, ora siamo nell’aprile 2024 e Tesla non ha ancora un solo robotaxi da nessuna parte.???!!!

Tesla rimane bloccata al Livello 2 di autonomia, per non parlare del Livello 3 del Livello 4. Nessun Livello 5 (robotaxi) in vista.

In effetti, Tesla non ha nemmeno iniziato a testare i robotaxi.

Vedete, le case automobilistiche devono presentare rapporti di guida alle autorità di regolamentazione, soprattutto in California (dove il lavoro di assistenza alla guida di Tesla è basato sin dall’inizio), mostrando il loro lavoro e come sta andando dal punto di vista della sicurezza.

Aziende come Waymo (di proprietà di Alphabet) e Cruise (di proprietà di General Motors) presentano questi rapporti da molti anni. A febbraio 2024, avevano riportato collettivamente 6 milioni di miglia percorse in questi test:

2023 Disengagement Reports from California

Quante miglia di prova dei robotaxi ha riportato Tesla? Guarda nel rapporto: 0 zero.

Ci sono solo due possibilità:

Tesla non ha iniziato a testare i robotaxi.

Tesla sta testando i robotaxi, ma si rifiuta di riportare i risultati dei test obbligatori alle autorità come richiesto.

A me ricorda il Conte Mascetti.

Il recente pre-annuncio del robotaxi è arrivato poche ore dopo un articolo di Reuters che sosteneva che Tesla aveva interrotto lo sviluppo del suo veicolo “Modello 2” da 25.000 dollari. Questo ha portato alcuni a speculare che ci sia un insolito livello di stress e disperazione tra i dirigenti di Tesla.

Elon Musk ha annunciato dopo la chiusura del mercato il 5 aprile che Tesla presenterà un robotaxi l’8 agosto. Non ha specificato l’anno, ma si presume che sarà il 2024.

Transcript: Elon Musk’s Autopilot 2.0 Conference Call

Molti hanno riso quando hanno visto questo annuncio, perché sembrava una reazione ovvia all’articolo di Reuters.

Dopo la pubblicazione dell’articolo di Reuters, Musk ha pubblicato una denuncia senza specificare cosa nell’articolo ritenesse sbagliato.

Un robotaxi è un’auto in grado di guidarsi da sola al 100%, con la stessa sicurezza del conducente umano medio. Guidare dove e quando? Come un conducente umano: ovunque, con qualsiasi tempo, in qualsiasi circostanza. È un compito arduo. Una cosa è guidare con il bel tempo a velocità inferiori, in un’area georecintata. Affrontare una tempesta di neve in una strada di montagna è un’altra storia.

«Questa decisione – ha commentato Dan Ives, analista di Wedbush si tradurrebbe in un momento buio per Tesla. Sarebbe un incubo se il progetto di questa auto venisse abbandonato, un duro colpo per il “toro” Tesla nei prossimi anni.

Copilot ha il suo momento Iphone

La stagione degli utili è alle porte e le grandi aziende tecnologiche si stanno preparando a pubblicare i loro ultimi risultati trimestrali per gli investitori. Con l’intelligenza artificiale (IA) che domina le discussioni del giorno, la capacità delle aziende di monetizzare questa tecnologia rivoluzionaria sarà al centro dell’attenzione degli investitori, come sottolineato da Wedbush Securities.

Dan Ives, amministratore delegato e analista azionario senior, prevede che l’intelligenza artificiale rappresenterà la trasformazione più significativa a cui il settore tecnologico abbia assistito negli ultimi 30 anni. Tracciando parallelismi con l’anno rivoluzionario del 1995, quando Internet iniziò a plasmare il nostro mondo, Ives suggerisce che l’intelligenza artificiale è destinata a ridefinire il modo in cui interagiamo con la tecnologia e i dati. Questo momento cruciale segnala un cambiamento di paradigma che trascende i settori, promettendo di sbloccare nuove potenzialità e opportunità. 

Nel corso dell’ultimo mese, Wedbush Securities ha condotto una serie di analisi sul campo a livello globale. Questi controlli hanno rafforzato la loro fiducia nel fatto che la monetizzazione della Rivoluzione dell’IA abbia ora iniziato a raggiungere la sua prossima fase di crescita. Il testimone è stato passato dalla fase semilavorata a quella software, con casi d’uso che esplodono in tutto il mondo, ha scritto l’analista Dan Ives in una nota agli investitori.

Microsoft, in particolare, è considerata uno dei maggiori beneficiari della spesa per l’intelligenza artificiale, grazie alla sua partnership con OpenAI. L’aumento della spesa per il cloud computing, insieme ai componenti aggiuntivi dell’intelligenza artificiale generativa a Copilot, ha rafforzato la posizione di Microsoft. Questo ha portato la società a raggiungere una capitalizzazione di mercato di oltre 3,1 trilioni di dollari.

Ives ha definito questo come l’“iPhone Moment” di Microsoft, con l’intelligenza artificiale destinata a cambiare la traiettoria di crescita del cloud a Redmond, sede centrale di Microsoft, nei prossimi anni. I recenti controlli effettuati da Ives confermano ulteriormente questa dinamica per il trimestre di marzo.

Microsoft ha introdotto un servizio innovativo chiamato CoPilot come parte della sua iniziativa sull’intelligenza artificiale. Nonostante sia un prodotto relativamente recente, l’investimento significativo di Microsoft nell’intelligenza artificiale sta iniziando a mostrare risultati positivi.

Le ultime previsioni sugli utili di Microsoft indicano che CoPilot sta ottenendo un notevole successo in diverse aree dell’ecosistema Microsoft. Un esempio evidente è la piattaforma di sviluppo di Microsoft, GitHub, che vanta 1,3 milioni di abbonati a CoPilot. Questo ha contribuito a un incremento del 40% delle entrate annuali di GitHub, registrato al 31 dicembre.

Un altro vantaggio di CoPilot è la sua capacità di integrarsi con le applicazioni fornite dalle principali piattaforme software aziendali, come ServiceNow e Salesforce. Questa caratteristica aumenta ulteriormente il suo valore e la sua applicabilità in un’ampia gamma di contesti aziendali.

Ives ipotizza che per ogni 100 dollari di spesa per il cloud Azure negli ultimi anni, in futuro potrebbero esserci dai 35 ai 40 dollari di spesa aggiuntiva per l’intelligenza artificiale.

Non ho azioni, opzioni o posizioni simili in nessuna delle società menzionate, e non ho piani per avviare tali posizioni nelle prossime 72 ore. Ho scritto questo articolo da solo, e esprime le mie opinioni personali. Non sto ricevendo alcuna compensazione per questo . Non ho alcuna relazione commerciale con nessuna società il cui titolo è menzionato in questo articolo

Aziende leader lanciano un consorzio per affrontare l’impatto dell’intelligenza artificiale sulla forza lavoro tecnologica

Secondo un sondaggio esaustivo condotto tra i dirigenti dalla società svizzera di collocamento The Adecco Group , l’intelligenza artificiale porterà a meno dipendenti nelle aziende nella maggior parte dei settori.

L’indagine ha rilevato che il 41% delle aziende si aspetta un minor numero di dipendenti nella propria organizzazione entro cinque anni a causa dell’intelligenza artificiale e dell’intelligenza artificiale generativa. Inoltre, solo il 46% dei datori di lavoro prevede di ridistribuire i lavoratori internamente nel caso in cui i loro posti di lavoro venissero spostati dall’intelligenza artificiale.

Il sondaggio, “Leading through the large diruption 2024”, ha coinvolto 2.000 dirigenti di alto livello in nove paesi. È stato condotto in collaborazione con Oxford Economics.

Gli autori dello studio suggeriscono che le aziende dovrebbero adottare un “approccio all’intelligenza artificiale incentrato sull’uomo”. Risulta inoltre più fattibile dal punto di vista finanziario formare i dipendenti esistenti a lavorare con nuovi strumenti di intelligenza artificiale piuttosto che assumere nuovi talenti nel campo dell’intelligenza artificiale.

“La nostra ricerca mostra che molti leader non hanno una chiara comprensione della rivoluzione che li attende”, ha affermato Denis Machuel, CEO del Gruppo Adecco. “Strategie responsabili e incentrate sull’uomo saranno fondamentali per gestire le difficoltà della crescita e costruire la forza lavoro giusta per il successo, il tutto creando opportunità di crescita personale”.

Tuttavia, questo non è il percorso che la maggior parte delle aziende sta delineando. Dal sondaggio è emerso che il 66% prevede di assumere talenti con competenze di intelligenza artificiale, mentre solo il 34% prevede di sviluppare competenze internamente. Adecco non ritiene che questa strategia sia sostenibile poiché questa mentalità di “acquisto” aumenterà i salari.

La leadership è impreparata alla disruption
Oltre la metà, ovvero il 57%, dei dirigenti intervistati non ha fiducia nelle competenze e nelle conoscenze relative all’intelligenza artificiale del proprio team dirigente.

“I leader che ricoprono ruoli strategici sono meno convinti dei vantaggi aziendali dell’intelligenza artificiale rispetto a quelli che ricoprono ruoli operativi”, rileva lo studio. “La situazione dovrà cambiare, altrimenti le aziende faranno fatica ad andare oltre la fase di sperimentazione.”

Secondo i risultati del sondaggio, una percentuale maggiore di aziende in Canada, Regno Unito e Stati Uniti è meglio preparata ad affrontare la rivoluzione dell’intelligenza artificiale rispetto ai loro concorrenti globali.

“Chi dispone di un quadro normativo ha anche compiuto progressi più significativi nella trasformazione digitale”, afferma lo studio. “Hanno anche leader più qualificati, una maggiore guida basata sull’intelligenza artificiale per i dipendenti e sono più positivi riguardo alle opportunità della forza lavoro”.

In risposta agli inevitabili licenziamenti associati all’ascesa dell’intelligenza artificiale, una serie di grandi aziende tecnologiche si sono unite al consorzio della forza lavoro ICT abilitata all’intelligenza artificiale per affrontare il problema.

Il consorzio è guidato da Cisco e comprende Accenture, Eightfold AI, Google, IBM, Indeed, Intel (INTC), Microsoft e SAP .

“La missione del nostro AI-Enabled Workforce Consortium, recentemente inaugurato, è quella di fornire alle organizzazioni conoscenze sull’impatto dell’intelligenza artificiale sulla forza lavoro e dotare i lavoratori delle competenze pertinenti”, ha affermato Francine Katsoudas, Vicepresidente esecutivo e Chief People, Policy & Purpose Officer presso Cisco.

Meta Platforms ha annunciato che sta apportando cambiamenti nel suo approccio nei confronti dei contenuti generati dall’AI

“Prevediamo di iniziare a etichettare i contenuti generati da IA a partire da maggio 2024 e smetteremo di rimuovere i contenuti esclusivamente sulla base della nostra politica sui video manipolati a luglio”, ha dichiarato Meta in un post sul blog. “Questa tempistica dà alle persone il tempo di comprendere il processo di auto-rivelazione prima che smettiamo di rimuovere la piccola sottoinsieme di media manipolati.”

La politica ora si applica a immagini, video o audio che sono stati “creati o alterati digitalmente”.

In precedenza, Meta rimuoveva i video che erano stati modificati o cambiati secondo la sua “politica sui media manipolati”.

“Siamo d’accordo con la raccomandazione del Consiglio di Supervisione che fornire trasparenza e contesto aggiuntivo è ora il modo migliore per affrontare i media manipolati e evitare il rischio di limitare inutilmente la libertà di parola, quindi manterremo questo contenuto sulle nostre piattaforme in modo da poter aggiungere etichette e contesto”, ha aggiunto Meta nel post sul blog.

Il cambiamento della politica arriva dopo che il suo Consiglio di Supervisione indipendente ha detto a febbraio che la sua politica sui media manipolati era “incoerente”.

Aggiungendo ulteriori informazioni, Meta ha annunciato che inizierà a etichettare un’ampia gamma di contenuti video, audio e immagini come “Made with AI” quando rileva indicatori di immagini AI standard del settore o quando le persone rivelano che stanno caricando contenuti generati da IA.

Questo cambiamento è stato influenzato dalle raccomandazioni del Consiglio di Supervisione e da un processo di revisione delle politiche che includeva sondaggi di opinione pubblica e consultazioni con accademici e organizzazioni della società civile.

L’impronta di carbonio dell’Intelligenza Artificiale è più grande di quanto pensi, affermano le scienziate del MIT

Non sono io a dirlo ma alcune studiose del MIT. Sasha Luccioni, con Emma Strubell e Yacine Jernite, hanno testato 88 modelli su 30 set di dati da 10 attività diverse con modalità diverse e hanno trovato cose davvero interessanti:

  • I compiti generativi e quelli che coinvolgono le immagini consumano più energia e carbonio rispetto ai compiti discriminativi e a quelli che coinvolgono il testo. Abbiamo scoperto che Stable Diffusion XL utilizza quasi 1 carica telefonica di energia per generazione.
  • La formazione continua ad essere molto più ad alta intensità di energia e di carbonio rispetto all’inferenza. Sono necessari dai 200 ai 500 milioni di deduzioni da un modello della famiglia BLOOM per raggiungere la quantità di energia utilizzata durante l’allenamento. Ma questo può essere raggiunto abbastanza velocemente per un modello popolare utilizzato da milioni di utenti, come ChatGPT.

L’utilizzo di modelli multiuso per compiti discriminativi richiede un maggiore dispendio energetico rispetto ai modelli specifici per compiti per gli stessi compiti. Ciò è particolarmente vero per l’analisi del sentiment e la risposta alle domande. La differenza può essere un fattore di 30 volte a seconda del set di dati.

Ma c’è una cosa di cui la gente non parla abbastanza, ed è l’impronta di carbonio dell’Intelligenza Artificiale. Uno dei motivi è che le grandi aziende tecnologiche non condividono l’impronta di carbonio della formazione e dell’utilizzo dei loro enormi modelli, e non disponiamo di  metodi standardizzati per misurare  le emissioni di cui è responsabile l’intelligenza artificiale. E anche se sappiamo che  addestrare modelli di Intelligenza Artificiale è altamente inquinante , le emissioni attribuibili all’utilizzo  dell’Intelligenza  Artificiale finora sono state un tassello mancante. Cioè, fino ad ora. 

In un nuovo studio condotto dai ricercatori della startup AI Hugging Face e della Carnegie Mellon University, generare un’immagine utilizzando un potente modello di Intelligenza Artificiale richiede la stessa quantità di energia necessaria per caricare completamente uno smartphone. Tuttavia, hanno scoperto che l’utilizzo di un modello di Intelligenza Artificiale per generare testo richiede molta meno energia. La creazione di testo 1.000 volte consuma solo il 16% della carica completa di uno smartphone.

Il loro lavoro, che deve ancora essere sottoposto a revisione paritaria, mostra che, sebbene l’addestramento di enormi modelli di Intelligenza Artificiale richieda un’enorme quantità di energia, è solo una parte del quadro. La maggior parte della loro impronta di carbonio deriva dal loro utilizzo effettivo.

Lo studio segna la prima volta che i ricercatori calcolano le emissioni di carbonio causate dall’utilizzo di un modello di Intelligenza Artificiale per vari compiti, secondo Sasha Luccioni, ricercatrice di intelligenza artificiale presso Hugging Face che ha guidato il lavoro. Spera che la comprensione di queste emissioni possa aiutarci a prendere decisioni informate su come utilizzare l’intelligenza artificiale in un modo più rispettoso del pianeta.

Il consumo di energia e l’impronta di carbonio dell’intelligenza artificiale sono un argomento sempre più importante con la crescita dell’uso dei sistemi di intelligenza artificiale.

Il consumo energetico dei sistemi di Intelligenza Artificiale può essere suddiviso in due fasi principali: addestramento e inferenza.

La fase di formazione, che prevede l’insegnamento del modello di Intelligenza Artificiale utilizzando grandi quantità di dati, è in genere più dispendiosa in termini di energia.

La fase di inferenza, che prevede l’utilizzo del modello addestrato per effettuare previsioni o decisioni, generalmente consuma meno energia ma può comunque accumularsi nel tempo, soprattutto per i sistemi che effettuano previsioni frequenti.

Il consumo energetico dei sistemi di Intelligenza Artificiale è in gran parte determinato dall’hardware e dall’infrastruttura che utilizzano. Ciò include i computer e i server utilizzati per l’addestramento e l’inferenza, nonché i data center che ospitano questi sistemi. Hardware e infrastrutture più efficienti dal punto di vista energetico possono ridurre significativamente il consumo di energia e l’impronta di carbonio dei sistemi di intelligenza artificiale.

La generazione di immagini è di gran lunga l’attività basata sull’Intelligenza Artificiale più dispendiosa in termini di energia e carbonio.

La generazione di 1.000 immagini con un potente modello di intelligenza artificiale, come Stable Diffusion XL, è responsabile della produzione di una quantità di anidride carbonica pari a quella di guidare l’equivalente di 4,1 miglia in un’auto media a benzina.

L’impronta di carbonio dei sistemi di Intelligenza Artificiale dipende anche dalle fonti energetiche utilizzate per alimentarli. I sistemi di Intelligenza Artificiale alimentati da fonti di energia rinnovabile, come l’energia eolica o solare, hanno un’impronta di carbonio inferiore rispetto a quelli alimentati da combustibili fossili.

ESG – La ricerca di Luccioni evidenzia anche come le emissioni legate all’uso dell’intelligenza artificiale dipenderanno da dove verrà utilizzata, afferma Jesse Dodge, ricercatore presso l’Allen Institute for AI, che non ha preso parte allo studio. L’impronta di carbonio dell’intelligenza artificiale in luoghi in cui la  rete elettrica è relativamente pulita, come la Francia , sarà molto inferiore rispetto a luoghi con una rete fortemente dipendente dai combustibili fossili, come alcune parti degli Stati Uniti.

Esistono varie strategie per rendere i sistemi di AI più efficienti dal punto di vista energetico, come l’utilizzo di modelli più piccoli, l’ottimizzazione di algoritmi per l’efficienza energetica o l’utilizzo di tecniche come la potatura o la quantizzazione per ridurre i requisiti computazionali dei modelli di AI.

Politiche e normative: le politiche e le normative possono svolgere un ruolo chiave nel ridurre il consumo di energia e l’impronta di carbonio dell’AI. Ciò potrebbe comportare la definizione di standard di efficienza energetica per i sistemi di intelligenza artificiale, l’incentivazione dell’uso di energie rinnovabili o la richiesta alle aziende di segnalare e ridurre le proprie emissioni di carbonio.

Ecco alcuni numeri che evidenziano il consumo energetico e l’impronta di carbonio dell’AI:

Uno studio pubblicato su Nature Climate Change nel 2019 ha stimato che l’addestramento di un singolo modello di intelligenza artificiale può emettere tanto carbonio quanto cinque automobili nel corso della loro vita. Ciò equivale a circa 284.000 libbre (129.000 chilogrammi) di anidride carbonica.
Secondo un rapporto del 2020 dell’Agenzia internazionale per l’energia (IEA), i data center, che ospitano molti sistemi di intelligenza artificiale, rappresentano circa l’1% del consumo globale di elettricità. Ciò equivale all’incirca al consumo di elettricità dell’intero paese dell’Australia.

Uno studio del 2020 condotto da ricercatori dell’Università del Massachusetts, Amherst, ha stimato che l’energia utilizzata per l’inferenza dell’intelligenza artificiale nei data center potrebbe rappresentare il 2,5% del consumo globale di elettricità entro il 2030.


Un rapporto del 2020 di OpenAI ha rilevato che la quantità di potenza di calcolo utilizzata nelle più grandi sessioni di formazione sull’intelligenza artificiale è raddoppiata ogni 3,4 mesi dal 2012. Tuttavia, il rapporto ha anche osservato che i miglioramenti nell’efficienza dell’hardware hanno aiutato per compensare parte di questo aumento del consumo di energia.

Alcune aziende di intelligenza artificiale stanno compensando le proprie emissioni di carbonio. Ad esempio, Google è a zero emissioni di carbonio dal 2007 e mira a operare con energia priva di emissioni di carbonio 24 ore su 24, 7 giorni su 7 in tutti i suoi data center e campus in tutto il mondo entro il 2030.

L’Unione Europea ha fissato l’obiettivo di ridurre le proprie emissioni di gas serra di almeno il 55% entro il 2030 rispetto ai livelli del 1990, e di raggiungere l’azzeramento delle emissioni nette entro il 2050. Questi obiettivi potrebbero portare a riduzioni il consumo energetico e l’impronta di carbonio dell’intelligenza artificiale nell’UE.

Nvidia’s Dominance in AI Infrastructures: A Look at the Competition and the Future of AI Chips

I believe that NVIDIA’s moat is currently quite wide, but it appears to have a significant weak point that clever researchers and well-funded newcomers are beginning to try to exploit. NVIDIA initially developed its GPUs and CPUs for non-artificial intelligence specific activities. The computing power provided turned out to be translatable into deep learning and other artificial intelligence capabilities, placing NVIDIA in a particularly strong position as demand for artificial intelligence began to increase exponentially. However, the key point here is that it developed its significant infrastructure suitable for computing activities that are not specifically designed for artificial intelligence. This does not mean that NVIDIA is not aware of it; they are absolutely and will do everything in their power to develop systems and infrastructures that commit to focusing on artificial intelligence first and foremost in the units developed in the future.

However, there is still a certain window here for new companies to potentially gain a share of the market if they challenge NVIDIA, Google, and other leading tech companies in developing chips specifically designed for AI workloads from scratch. The main competitive advantage that these AI-specific chips would have is efficiency in AI workloads, which represents a huge strength as consumers begin to expect faster inferences from AI systems. It is not unlikely that a company much smaller than NVIDIA could effectively achieve all of this, but in my opinion, it takes the right teams with the right funding and the right ingenuity to be able to properly manifest these projects and then have them adopted on a large scale.

Companies like Groq and other less well-known startups are already doing this. But in my opinion and from my research, Groq seems to have the highest advantage here and should offer a rather convincing rival to NVIDIA in the artificial intelligence market in the coming years. It offers a Tensor Streaming Processor architecture that, unlike traditional GPUs and CPUs, provides a deterministic and software-defined approach. This reduces latency and increases efficiency. Moreover, its single-core design allows for high-speed data processing, making it much more attractive for AI-based calculations. Groq’s chips are designed to deliver faster performance in certain AI activities than traditional GPUs, as they are designed to perform trillions of operations per second.

Other major competitors to NVIDIA also include Cerebras and SambaNova. Cerebras offers a very powerful single-chip processor and SambaNova offers an integrated hardware and software system powered by AI-specific chips.

Cerebras has a huge AI chip called the Wafer Scale Engine, which is much larger than traditional chips and takes up almost an entire silicon wafer. Therefore, it has unprecedented computing power and stands out as a significant competitor. Its latest version, called the Wafer Scale Engine 2, contains 2.6 trillion transistors and 850,000 cores, making it the largest chip ever built. This allows for fast and efficient AI activities while minimizing data movement.

SambaNova’s integrated hardware and software solution through its DataScale system is powered by chips that use its reconfigurable dataflow architecture. This allows for adaptable and scalable AI processing and is quite interesting as it offers flexibility to companies that need a range of different levels of processing that vary depending on the needs of their machine learning activities at specific times.

We should remember that NVIDIA will not be dethroned from its first place in AI infrastructures due to its growing moat, but the part of the market that focuses on the current large gap in NVIDIA’s strategic focus, which it now needs to bridge by readjusting, could do very well. I think the challenge will be whether the companies trying to compete with NVIDIA in this sense will be able to remain vital once NVIDIA adapts accordingly to the technological change and comes back with mass production. I believe that the only option for smaller competitors is to focus strictly on quality. I believe that ingenuity and design strength could far outperform NVIDIA, even for a long time. Even though NVIDIA might be the biggest, it might not be the best.


If NVIDIA is eventually seen as the company with the largest offering of computing infrastructures but does not offer the best AI-specific chips in terms of efficiency, at least for a while, this could mean that the stock valuation is too high at the moment. What NVIDIA offers, which I believe is compelling and its most significant competitive advantage, is a full-stack ecosystem for high-computing activities, including AI, which it continues to develop. This is probably what the market wants and requires through the very high valuation. However, if suddenly NVIDIA were seen as the main provider of this, but as the second best in terms of AI-specific workloads, I think that NVIDIA’s valuation could undergo a moderate correction. In light of this risk for NVIDIA, I think it is wise for NVIDIA shareholders to be cautious in the short-medium term. My opinion is that NVIDIA’s valuation at this moment is not too high based on the long-term dependence that the world will have on the NVIDIA ecosystem, but in the short-medium term the stock valuation could be seen as too optimistic given that some major competitors of NVIDIA are emerging that should moderately, but successfully, disrupt the idea of NVIDIA as such a dominant provider of quality in AI workloads. However, NVIDIA’s continuous AI innovations and integrations could mitigate these risks, especially considering its funding power compared to smaller and newer companies.


I think that Jensen Huang is an exceptional entrepreneur and executive. He has inspired many of my thoughts and works and it is well documented that he actively seeks out and evaluates NVIDIA’s competition daily when he realizes that it is true that other companies are trying to take away NVIDIA’s market leader position. This presents quite powerfully what other newcomers are up against, and I believe that his ethic is the foundation of the wide and growing moat that NVIDIA shareholders are getting used to. NVIDIA, without exaggeration, is an exceptional company.

As I mentioned above in my analysis of operations, I believe that NVIDIA has its strength in its full-stack ecosystem. In this area, I believe it will be substantially impossible for competitors to effectively compete for NVIDIA’s market share in a significant way. This is why I think Mr. Huang has done an excellent job in consolidating and solidifying NVIDIA’s position as the most advanced (and well-funded) technology company that develops AI tools. This is also why I believe that NVIDIA remains a fantastic long-term buy.

I believe that NVIDIA’s CUDA deserves special mention here, as it is the architecture that enables a full range of customers to enable NVIDIA’s GPUs for generic processing. I think this is incredibly smart for NVIDIA to do, as it allows them to leverage the power of their own units for multiple purposes through software integration. What it does is democratize the power of NVIDIA’s hardware infrastructure, but what Groq and other startups might be able to do is focus on the niche of AI-specific workloads and design hardware that is absolutely focused only on these tasks. Undoubtedly, this will be faster compared to moderating the high-power units for variable workloads, including AI. However, the versatility of generic GPUs offers broader applicability, which is also crucial in environments that require multiple types of workloads managed simultaneously.

While NVIDIA has to face competition from AMD (AMD), which has also developed an AI ecosystem called ROCm, AMD’s platform is significantly less complete and currently does not have a set of AI-specific features like NVIDIA’s. Instead, AMD’s main competitive focus is to provide high-performance processing from its chip designs at a competitive cost. AMD is still aggressively pursuing improvements in its GPU capabilities and the ROCm ecosystem to support AI and machine learning workloads. For some aspects, if AMD were to focus skillfully on the specific development of AI chips, as Groq does, then it could have a much more significant competitive advantage over NVIDIA. However, this should not underestimate the fact that AMD is generally strategically balancing its attention to AI in its total product portfolio. AMD, like NVIDIA, was not initially an AI company.


While NVIDIA is a leader in the field of AI computing infrastructures, it has become evident that there is a momentary opening for innovators to capture the latency in NVIDIA’s chip configurations. In the near future, I believe it is possible that NVIDIA will be seen as the largest and best AI development ecosystem, but it could find itself, at least for a period, outpaced by competition in chip design from smaller companies focused on direct market quality of chips and units specifically designed for AI. Ultimately, NVIDIA was not initially an AI company; it might take a company dedicated to AI from the beginning to truly deliver the quality that the AI consumer market is about to demand.

L’Industria dell’Intelligenza Artificiale: un investimento costoso ma necessario

Nel 2000 scoppiò la bolla delle dot-com, ponendo fine a un periodo di cinque anni di valutazioni in rialzo e di crescente entusiasmo degli investitori per le numerose applicazioni del World Wide Web. 

A partire dal 2018 si è assistito alla creazione di un boom stranamente simile, questa volta incentrato sull’Intelligenza Artificiale (AI).

L’ Organizzazione per la cooperazione e lo sviluppo economico (OCSE), stima che gli investimenti in capitale di rischio nell’Intelligenza Artificiale abbiano registrato una crescita costante dal 2012, raggiungendo i 42 miliardi di dollari (una quota del 57% del totale globale) nel 2020. 

L’industria dell’Intelligenza Artificiale sta crescendo ad un ritmo senza precedenti, alimentando l’innovazione in settori che vanno dalla sanità alla finanza.

Le stime di Dan Nystedt, riportate su X, svelano che al momento gli ordini di NVIDIA ammontano all’11% del fatturato di TSMC: nel 2023 NVIDIA avrebbe pagato 7,73 miliardi di Dollari a TSMC per i suoi chip.

Le valutazioni, sia per Nvdia produttore di chip statunitense che per i colossi tecnologici che ne fanno uso per addestrare i loro modelli di AI (un gruppo conosciuto come i Magnifici Sette) sono salite alle stelle, generando preoccupazioni tra gli investitori che temono la formazione di una bolla.

Tuttavia, dietro questa crescita c’è un costo significativo. Secondo una presentazione recente della società di venture capital Sequoia, l’industria dell’AI ha speso 50 miliardi di dollari in chip Nvidia utilizzati per addestrare modelli di AI avanzati solo l’anno scorso, ma ha generato solo 3 miliardi di dollari di entrate (dati: WSJ).

QUANTO STIAMO SPENDENDO E QUAL È L’INCIDENZA DEI COSTI INFORMATICI SULLE VARIABILI DI BUSINESS ?

L’addestramento dei modelli di AI richiede una grande quantità di potenza di calcolo. I chip Nvidia, noti per le loro capacità di elaborazione parallela, sono ampiamente utilizzati in questo campo. Tuttavia, l’acquisto di questi chip rappresenta un investimento significativo. Con 50 miliardi di dollari spesi in un anno, è chiaro che l’industria dell’Intelligenza Artificiale sta investendo pesantemente in questa tecnologia.

Il ROI Ritorno sull’Investimento

Nonostante l’ingente investimento, l’industria dell’AI ha generato solo 3 miliardi di dollari di entrate. Questo potrebbe sollevare interrogativi sulla sostenibilità di tali investimenti. Tuttavia, è importante notare che l’Intelligenza Artificiale è un campo in rapida evoluzione e gli investimenti di oggi possono portare a scoperte rivoluzionarie in futuro.

Guardando al Futuro

Lo scienziato cognitivo Guy Marcus ha affermato in un post recente che il settore dell’Intelligenza Artificiale sta attualmente affrontando tre problemi fondamentali: uno, un software che costa molto da sviluppare ma non genera rendimenti adeguati; due, il software ha profondi difetti di sicurezza; tre, le allucinazioni non scompariranno, rendendo quel software inaffidabile per una serie di casi d’uso. 

Nonostante l’apparente squilibrio tra costi e ricavi, l’industria dell’AI continua a crescere. L’investimento in tecnologia è visto come un passo necessario verso il progresso. Mentre l’Intelligenza Artificiale continua a svilupparsi, è probabile che vedremo un aumento dell’efficienza e, sperabilmente, un ritorno sull’investimento più elevato.

In conclusione, l’industria dell’AI sta facendo scommesse audaci sul futuro. Solo il tempo dirà se questi investimenti porteranno i frutti sperati. Ma una cosa è certa: l’Intelligenza Artificiale sta cambiando il mondo come lo conosciamo, e questo è un viaggio che vale la pena di fare, nonostante il costo.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Il Digital Markets Act e le implicazioni per le Big Tech: Riflessioni e Prospettive

Il Digital Markets Act (DMA) è una proposta legislativa dell’Unione Europea (UE) volta a regolare le grandi piattaforme digitali, spesso indicate come “Big Tech”, che detengono una posizione dominante nel mercato digitale. Il DMA è parte integrante del pacchetto di riforme digitali dell’UE, insieme al Digital Services Act (DSA), e mira a promuovere la concorrenza equa nel mercato digitale europeo.

In un recente articolo della Prof.ssa Paola Pisano che cosa cambia per le Bigtech dopo il DMA, evidenzia come il DMA potrebbe ridurre il potere di mercato delle Big Tech, favorendo la concorrenza e promuovendo l’innovazione nel settore tecnologico. Tuttavia, sottolinea anche le preoccupazioni riguardo alla complessità delle normative proposte e alla loro possibile efficacia nell’affrontare le preoccupazioni riguardanti il potere delle Big Tech.

Lo stesso articolo cita il Caso Groq, il suo chip Tensor Streaming Processor (TSP), progettato appositamente per accelerare il training e l’inferenza di reti neurali artificiali, il quale ha attirato l’attenzione sia degli investitori che dei giganti tecnologici grazie alla sua tecnologia di punta. Tuttavia, la startup ha anche affrontato sfide, tra cui la competizione con altre aziende nel settore dei chip AI e la necessità di dimostrare l’efficacia e l’affidabilità del suo prodotto in un mercato altamente competitivo.

Nel complesso, Groq rappresenta un interessante caso di studio nel campo dell’innovazione tecnologica, mostrando come le startup possano sfidare i giganti consolidati con idee e approcci innovativi. Il successo futuro di Groq dipenderà dalla sua capacità di continuare a sviluppare e commercializzare la sua tecnologia in un modo che risponda alle esigenze del mercato e superi la concorrenza.

Questo mi ha spinto un riflessione personale.

Nell’era digitale sempre più interconnessa in cui viviamo, le grandi piattaforme tecnologiche hanno acquisito un’influenza senza precedenti sulla nostra vita quotidiana, svolgendo un ruolo centrale nell’economia globale.

Tuttavia, con il loro crescente potere e dominio nel mercato digitale, sono emerse preoccupazioni riguardo alla mancanza di concorrenza equa, alla protezione dei dati degli utenti e alla trasparenza delle loro pratiche commerciali. In risposta a queste preoccupazioni, l’Unione Europea ha proposto il Digital Markets Act (DMA), una legislazione mirata a regolare le grandi piattaforme digitali al fine di promuovere una maggiore concorrenza e proteggere i consumatori.

Tuttavia, il DMA ha suscitato un acceso dibattito riguardo alle sue implicazioni e alla sua efficacia nel risolvere le sfide nel mercato digitale.”

Alcuni analisti finanziari potrebbero vedere il DMA come un importante passo avanti nella regolamentazione delle grandi piattaforme digitali, in quanto mira a promuovere una maggiore concorrenza nel settore e a proteggere i consumatori dai potenziali abusi di posizione dominante da parte delle Big Tech. Questi analisti potrebbero ritenere che la regolamentazione delle piattaforme digitali dominanti possa contribuire a ridurre il rischio sistematico nel settore tecnologico e promuovere una maggiore stabilità nei mercati finanziari.

Tuttavia, altri analisti potrebbero essere preoccupati per le possibili conseguenze negative del DMA sulle grandi società tecnologiche e sui mercati finanziari. Potrebbero temere che eccessive restrizioni alle attività delle Big Tech possano ridurre l’innovazione nel settore e danneggiare la competitività dell’Europa rispetto ad altre regioni del mondo. Questi analisti potrebbero anche preoccuparsi delle implicazioni per gli investitori nel settore tecnologico e per i mercati azionari europei nel loro complesso.

Un’altra area di interesse riguarda l’implementazione e l’applicazione del DMA. Considerando le sfide pratiche e le possibili disparità nell’applicazione tra gli Stati membri dell’UE, sarà fondamentale sviluppare meccanismi efficaci per garantire una regolamentazione uniforme e coerente in tutto il mercato unico digitale europeo.

Una regolamentazione non uniforme potrebbe portare alla frammentazione del mercato digitale, con regole diverse che si applicano in paesi diversi. Questo potrebbe rendere difficile per le aziende operare su più mercati e potrebbe creare un ambiente poco chiaro e confuso per gli utenti e gli operatori del mercato, una disuguaglianza di trattamento tra le grandi piattaforme digitali, a seconda del paese in cui operano e a una concorrenza sleale, con regole diverse (pensiamo alla privacy) che si applicano in diversi paesi, le grandi piattaforme digitali potrebbero trovarsi ad affrontare una maggiore complessità amministrativa e burocratica nel rispettare le diverse normative.

Se alcuni stati ad esempio UK (brexit) considerassero il DMA come un’interferenza eccessiva negli affari interni e una limitazione della sua sovranità decisionale, potrebbero opporsi attivamente alle misure proposte. Oppure vedessero le grandi piattaforme digitali come un motore importante per l’economia e l’innovazione, potrebbero essere riluttante ad adottare misure che limitino il loro potere o che possano danneggiare la loro competitività.

In un contesto di negoziati post-Brexit e di sviluppo di nuove relazioni commerciali, il Regno Unito potrebbe cercare di bilanciare le proprie posizioni politiche e diplomatiche con l’Unione Europea e altri attori internazionali, potenzialmente ostacolando l’adozione del DMA.

Al di fuori di questi scenari geopolitici iIl DMA potrebbe offrire opportunità significative per le piccole e medie imprese (PMI) e le startup nel settore tecnologico. La condivisione dei dati e altre misure proposte potrebbero consentire loro di competere in modo più equo con le Big Tech, favorendo così l’innovazione e la diversificazione nel mercato digitale.

Sarà interessante osservare le reazioni delle grandi società tecnologiche di fronte al potenziale impatto del DMA sul loro modello di business e sul loro dominio di mercato. Le strategie adottate dalle Big Tech per conformarsi alle nuove normative potrebbero avere profonde implicazioni per il futuro del settore tecnologico e per l’evoluzione del panorama digitale europeo.

Il DMA si inserisce in un contesto più ampio di sforzi internazionali per regolare le grandi piattaforme digitali e promuovere la concorrenza nel settore tecnologico.

Stati Uniti: Negli Stati Uniti, ci sono state molte discussioni e proposte legislative volte a regolare le grandi piattaforme tecnologiche. Ad esempio, ci sono state udienze antitrust al Congresso e un’indagine da parte della Federal Trade Commission (FTC) sulla condotta anticoncorrenziale di alcune di queste aziende.

Cina: Anche in Cina, dove le grandi aziende tecnologiche hanno un forte controllo sul mercato digitale, sono state adottate misure per regolare il settore. Ad esempio, ci sono stati interventi governativi per limitare il potere delle piattaforme digitali e garantire una concorrenza più equa.

G7 e G20: I paesi del G7 e del G20 hanno discusso ampiamente questioni legate alla regolamentazione delle piattaforme digitali e alla promozione della concorrenza nel settore tecnologico. Inoltre, sono state discusse strategie coordinate per affrontare le sfide globali legate al potere delle grandi piattaforme digitali.

Organizzazioni internazionali: Organizzazioni internazionali come l’Organizzazione Mondiale del Commercio (OMC) e l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) sono coinvolte nel dibattito sulla regolamentazione delle piattaforme digitali e lavorano per sviluppare norme e regolamenti globali in materia.

La cooperazione internazionale sarà cruciale per affrontare le sfide globali legate al potere delle Big Tech e per garantire un ambiente digitale sicuro ed equo per tutti gli utenti.

In conclusione, il Digital Markets Act rappresenta un importante passo avanti nella regolamentazione delle piattaforme digitali dominanti e nella promozione della concorrenza nel settore tecnologico europeo.

Tuttavia, sarà fondamentale monitorare da vicino l’implementazione e l’applicazione delle nuove normative, così come le reazioni delle Big Tech e le conseguenze sulle PMI e sulle startup. Solo attraverso una regolamentazione equilibrata e una collaborazione internazionale efficace sarà possibile garantire un futuro digitale prospero e inclusivo per tutti.

DMA Annual Report 2023

Microsoft Quantinuum reliable quantum computing

Microsoft e Quantinuum hanno fatto un passo avanti verso la commercializzazione dell’informatica quantistica riducendo notevolmente i tassi di errore associati ai qubit, hanno annunciato mercoledì le società.

La collaborazione tra Quantinuum e il team di computazione quantistica di Microsoft ha portato alla creazione di quattro qubit logici che dimostrano un tasso di errore 800 volte inferiore rispetto ai corrispondenti qubit fisici¹. Questo risultato rappresenta un passo avanti cruciale nel campo della computazione quantistica.

Quantinuum, nata dalla fusione di Cambridge Quantum e Honeywell Quantum Solutions, è stata scelta come partner da Microsoft per diversi motivi:

Hardware specializzato: Quantinuum utilizza l’hardware a trappola ionica della serie H-Series, che offre un’eccellente fedeltà del gate a due qubit del 99,8%. Questo hardware di alta qualità è stato fondamentale per il successo della collaborazione.

Sistema di virtualizzazione dei qubit di Microsoft: Microsoft ha sviluppato un sistema sofisticato per filtrare e correggere gli errori nei qubit. L’applicazione di questo sistema ai qubit di Quantinuum ha permesso di eseguire oltre 14.000 esperimenti indipendenti senza alcun errore.

Obiettivi comuni: Entrambe le aziende condividono la visione che la computazione quantistica affidabile possa contribuire a risolvere alcune delle sfide più urgenti dell’umanità, come il cambiamento climatico, la crisi energetica e l’insicurezza alimentare.

La scelta di Quantinuum come partner è stata guidata dalla combinazione di competenze tecniche, hardware avanzato e una visione condivisa per il futuro della computazione quantistica.

L’informatica quantistica ha la capacità di elaborare e analizzare i dati a una velocità che fa sembrare primitivi i computer basati sul silicio. Anche le mega aziende tecnologiche come Google e IBM hanno investito molto nell’informatica quantistica.

Mentre un bit, o cifra binaria, è l’unità di base dell’informazione nell’informatica classica, un qubit, abbreviazione di bit quantistico, funge da equivalente nell’informatica quantistica.

Il problema con i qubit è che sono incredibilmente delicati e il computer deve controllare i precisi stati quantistici dei singoli atomi, che in genere sono soggetti a errori.

“Stiamo ora entrando nella fase successiva per risolvere problemi significativi con computer quantistici affidabili”, ha affermato Zander. “Il nostro sistema di virtualizzazione dei qubit, che filtra e corregge gli errori, combinato con l’hardware di Quantinuum dimostra il più grande divario tra i tassi di errore fisico e logico riportato fino ad oggi.”

“Con un supercomputer ibrido alimentato da 100 qubit logici affidabili, le organizzazioni inizierebbero a vedere un vantaggio scientifico, mentre avvicinarsi a 1.000 qubit logici affidabili sbloccherebbe un vantaggio commerciale”, ha affermato Zander.

Microsoft e Quantinuum ritengono che un calcolo quantistico affidabile potrebbe aiutare a risolvere alcuni dei maggiori problemi dell’umanità, come il cambiamento climatico, la crisi energetica e l’insicurezza alimentare. Potrebbe anche rivoluzionare i campi della chimica, della scienza dei materiali, della medicina e accelerare lo sviluppo di modelli linguistici di intelligenza artificiale consapevoli del significato.

Quantinuum e Microsoft Azure Quantum collaborano da diversi anni per ridurre gli errori nel calcolo quantistico e renderlo applicabile a livello commerciale. Credono che l’annuncio di oggi li avvicini di un passo al raggiungimento di tale obiettivo.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

“La Sorveglianza di Stato nel 2024: Un Incubo Orwelliano”

Nel mondo di oggi, la tecnologia ha reso la sorveglianza di stato più facile e pervasiva che mai. Con l’avvento dell’intelligenza artificiale, dei droni e delle telecamere di sicurezza dotate di riconoscimento facciale, i governi di tutto il mondo hanno accesso a una quantità di informazioni senza precedenti sui loro cittadini. In questo contesto, il concetto di privacy è diventato sempre più un lontano ricordo.

Questa situazione ci porta a chiederci se non stiamo vivendo in un incubo orwelliano, dove lo stato controlla ogni aspetto della nostra vita. Nel suo famoso romanzo “1984”, George Orwell descriveva un mondo in cui il governo aveva il controllo totale sulla vita dei cittadini, monitorando ogni loro movimento attraverso telecamere di sorveglianza e microfoni nascosti. Oggi, sembra che quella visione distopica si stia avverando.

In Cina, ad esempio, il governo ha implementato un sistema di sorveglianza di massa che utilizza l’intelligenza artificiale per monitorare i cittadini. Il sistema, noto come “credito sociale”, assegna a ciascun cittadino un punteggio in base al loro comportamento sociale ed economico.

Il Piano di sviluppo dell’IA di nuova generazione, pubblicato nel 2017, e altri proclami ufficiali dichiarano l’intenzione della Cina di guidare il mondo nell’intelligenza artificiale entro il 2030 e ottenere un “first mover advantage” attraverso l’AI per generare un divario sempre più ampio tra Pechino e le nazioni meno capaci. In sostanza, Pechino andrebbe alla ricerca di un software in grado di funzionare in circostanze nuove, con maggiore autonomia ed efficacia, in grado di assomigliare sempre più all’intelligenza umana.

Ricordiamo anche il  Basic security requirements for generative artificial intelligence service è un documento che il TC260 cinese, l’organismo nazionale di definizione degli standard sulla sicurezza delle informazioni, ha pubblicato per fornire i requisiti di sicurezza che i fornitori di servizi basati su gAI dovranno seguire.

Tali iniziative prevedono una ricerca associata di alto livello concentrata su tre aree disciplinari:

  • l’AI “ispirata al cervello” che modella aspetti della cognizione umana;
  • i “microfoni connettivi” o mappatura del cervello;
  • le interfacce cervello-computer che collegano le due “piattaforme”, con i chip ibridi digitale-analogico “neuromorfici” che svolgerebbero un ruolo in tal senso.

Ma la Cina non è l’unico paese ad aver adottato misure di sorveglianza di massa. Negli Stati Uniti, l’NSA (National Security Agency) ha raccolto milioni di record telefonici e dati internet dei cittadini americani senza il loro consenso. Anche in Europa, alcuni governi hanno introdotto leggi che permettono la sorveglianza di massa in nome della sicurezza nazionale.

AI ACT fa riferimento all’ identificazione biometrica in tempo reale utilizzata nei luoghi pubblici. Sebbene l’uso di questa tecnologia sia considerato controverso e sia stato proibito in alcune circostanze, l’Europa ha permesso eccezioni in determinati casi. L’Europa consente ancora a ciascuno Stato membro di stabilire regole più rigide o vietare del tutto l’uso di tali sistemi.

La domanda è: dove tracciamo la linea tra la sicurezza nazionale e la privacy individuale? In un mondo in cui la tecnologia avanza a un ritmo sempre più veloce, è fondamentale trovare un equilibrio tra la necessità di proteggere i cittadini e il rispetto dei loro diritti fondamentali.

Come ha scritto Orwell, “La libertà è il diritto di dire agli altri ciò che non vogliono sentire“. Se non siamo disposti a difendere la nostra libertà e la nostra privacy, rischiamo di perdere entrambi. È giunto il momento di prendere sul serio la minaccia della sorveglianza di stato e di lavorare insieme per creare un futuro in cui la tecnologia sia utilizzata per proteggere i diritti umani, non per violarli.

Fonte immagine: Pixabay https://pixabay.com/it/illustrations/cina-cinese-bandiera-occhio-5089721/. Immagine non soggetta a Copyright.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

AB-331 il D.L. dalla California contro la discriminazione algoritmica

La California si pone in prima linea nell’affrontare le sfide legate all’Intelligenza Artificiale (AI), con particolare attenzione alla sicurezza e all’equità. Le iniziative legislative proposte mirano a regolamentare l’uso dell’AI sul luogo di lavoro e ad adattare le norme del lavoro per affrontare l’utilizzo di sistemi decisionali automatizzati.

Tuttavia, la sua più recente iniziativa adotta un approccio ancora più ampio, cercando di regolamentare gli strumenti utilizzati per prendere decisioni di vita rilevanti.

Nel gennaio del 2023, la membro dell’assemblea della California Rebecca Bauer-Kahan ha presentato il disegno di legge AB-331, che mira a vietare l’uso di strumenti decisionali automatizzati che contribuiscono alla discriminazione algoritmica.

Questa forma di discriminazione si verifica quando i sistemi algoritmici producono risultati sfavorevoli per le persone in base a caratteristiche come razza, colore, etnia, sesso, religione, età, origine nazionale, conoscenza limitata dell’inglese, disabilità, stato di veterano, informazioni genetiche, salute riproduttiva o altre classificazioni protette dalla legge statale.

Prima di essere sottoposto a revisione, il testo originale del disegno di legge vietava l’uso di strumenti decisionali automatizzati che contribuivano alla discriminazione. Tuttavia, in seguito a revisioni, le attività proibite sono state specificate in modo più dettagliato.

Attualmente, il disegno di legge è in fase di presentazione e potrebbe richiedere alcuni mesi prima di essere esaminato dalla commissione. Tuttavia, se approvato, avrebbe implicazioni significative per gli sviluppatori e gli utilizzatori di tali tecnologie.

Questo tipo di legislazione è cruciale per garantire che l’AI sia utilizzata in modo responsabile e equo, proteggendo i diritti e le libertà individuali. Nel seguito, presentiamo 10 punti chiave riguardanti il disegno di legge AB-331.

AB-331 prende di mira gli strumenti utilizzati per prendere decisioni consequenziali, che hanno un effetto legale, materiale o altro significativo sulla vita di un individuo in termini di impatto, accesso a, costo, termini o disponibilità di quanto segue:

Ecco dieci punti chiave riguardanti il disegno di legge AB-331:

  1. Scopo: Il disegno di legge mira a vietare l’uso di strumenti decisionali automatizzati che contribuiscono alla discriminazione algoritmica.
  2. Discriminazione Algoritmica: Si definisce discriminazione algoritmica il trattamento differenziale che sfavorisce le persone in base a caratteristiche come razza, colore, etnia, sesso, religione, età, origine nazionale, conoscenza limitata dell’inglese, disabilità, stato di veterano, informazioni genetiche, salute riproduttiva o altre classificazioni protette dalla legge statale.
  3. Iniziativa Legislativa: Il disegno di legge è stato introdotto dalla membro dell’assemblea della California, Rebecca Bauer-Kahan, nel gennaio 2023.
  4. Presentazione e Revisioni: Dopo essere stato sottoposto a revisione, il testo del disegno di legge è stato modificato per specificare in modo più dettagliato le attività proibite.
  5. Obiettivo di Equità: L’obiettivo principale del disegno di legge è garantire l’equità nell’uso dei sistemi decisionali automatizzati, proteggendo i diritti e le libertà individuali.
  6. Applicazioni Larghe: La legislazione si applica a una vasta gamma di contesti in cui vengono utilizzati strumenti decisionali automatizzati, inclusi ma non limitati al lavoro e ad altre decisioni cruciali nella vita quotidiana.
  7. Sfide Tecnologiche: Il disegno di legge affronta le sfide emergenti poste dall’IA, evidenziando la necessità di una regolamentazione per garantire un utilizzo responsabile e equo di tali tecnologie.
  8. Processo Legislativo: Attualmente, il disegno di legge è in fase di presentazione e deve ancora essere esaminato dalla commissione. Potrebbe richiedere alcuni mesi prima di essere portato avanti nel processo legislativo.
  9. Implicazioni per gli Sviluppatori: Se approvato, il disegno di legge avrà implicazioni significative per gli sviluppatori di sistemi decisionali automatizzati, richiedendo la conformità alle norme anti-discriminazione stabilite.
  10. Protezione dei Diritti Individuali: La legislazione mira a proteggere i diritti individuali e a garantire che l’IA sia utilizzata per migliorare la società senza perpetuare o amplificare le disparità esistenti.

Gli impatti del disegno di legge AB-331 sull’Intelligenza Artificiale (AI) potrebbero essere notevoli e variegati. Ecco alcuni possibili impatti:

  1. Sviluppo etico: Il disegno di legge mette in evidenza l’importanza di sviluppare e utilizzare l’IA in modo etico, responsabile ed equo, incoraggiando l’adozione di pratiche di sviluppo che minimizzino il rischio di discriminazione algoritmica.
  2. Accuratezza dei modelli: Gli sviluppatori potrebbero concentrarsi maggiormente sull’ottenimento di modelli di intelligenza artificiale più accurati e imparziali, riducendo così il rischio di produrre risultati discriminatori.
  3. Audit e trasparenza: Potrebbe esserci una maggiore richiesta di audit e trasparenza nei sistemi AI per comprendere meglio come vengono presi i decisioni e per identificare eventuali bias algoritmici.
  4. Innovazione regolamentata: Le restrizioni imposte dal disegno di legge potrebbero influenzare l’innovazione nel settore dell’IA, con alcuni sviluppatori che potrebbero sentirsi limitati nei loro sforzi di creare nuove soluzioni a causa delle normative più stringenti.
  5. Responsabilità legale: Le aziende che sviluppano e utilizzano sistemi AI potrebbero diventare maggiormente responsabili legalmente per eventuali danni o discriminazioni causate dai loro prodotti, spingendole a investire maggiormente nella conformità normativa e nella valutazione del rischio.
  6. Diversità dei dati: Potrebbe esserci un maggiore sforzo per garantire la diversità e la rappresentatività dei dati utilizzati per addestrare i modelli di AI, al fine di ridurre il rischio di bias nei risultati.
  7. Educazione e consapevolezza: Potrebbe esserci una maggiore enfasi sull’educazione e la consapevolezza riguardo ai problemi etici e sociali legati all’IA, sia tra gli sviluppatori che tra gli utenti finali.

In definitiva, il disegno di legge AB-331 potrebbe avere un impatto significativo sull’intero ecosistema dell’Intelligenza Artificiale, spingendo verso una maggiore responsabilità, trasparenza ed equità nell’uso di tali tecnologie.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

AWS offrirà alle startup crediti gratuiti per l’utilizzo di modelli AI

AWS ha ampliato il suo programma di crediti gratuiti per rendere più agevole l’utilizzo dei modelli di intelligenza artificiale da parte delle startup, dato l’elevato costo, mentre cerca di aumentare la quota di mercato dei suoi strumenti di intelligenza artificiale, noti come Bedrock.

I crediti saranno consentiti per coprire i costi dei modelli di altre aziende, tra cui Anthropic, Meta Platforms, Mistral AI e Cohere, ha dichiarato Howard Wright, vice presidente e responsabile globale delle startup presso AWS, a Reuters.

“Questo è un altro regalo che stiamo facendo all’ecosistema delle startup, in cambio di ciò che speriamo sia la scelta continua delle startup di AWS come loro prima scelta,” ha detto Wright all’agenzia di stampa.

AWS è il leader nel redditizio mercato dei fornitori di servizi cloud, con poco più del 50%, secondo HG Insights, seguito da Azure di Microsoft e Google Cloud Platform.

Il mese scorso, Amazon ha annunciato di aver effettuato un ulteriore investimento di $2.75 miliardi in Anthropic, portando il suo investimento totale nella startup di intelligenza artificiale a $4 miliardi. Anthropic è il creatore del chatbot Claude, che compete con il ChatGPT di OpenAI, sostenuto da Microsoft.

I crediti gratuiti dovrebbero aiutare ad aumentare i ricavi di Anthropic, ha dichiarato Wright a Reuters. “Questo fa parte della costruzione dell’ecosistema. Non ci scusiamo per questo.”

Amazon ha affermato di aver distribuito oltre $6 miliardi in crediti gratuiti alle startup negli ultimi 10 anni.

La versione più recente di Claude, Claude 3 Haiku, è diventata “disponibile generalmente” su Amazon Bedrock il mese scorso, ha dichiarato un portavoce di Amazon a Seeking Alpha.

La suite di strumenti di intelligenza artificiale Bedrock è stata presentata nell’aprile 2023. Inizialmente, hanno funzionato con Amazon Titan, il modello fondamentale dell’azienda, oltre a quelli creati da stability.ai, AI21Labs e Anthropic.

“Con l’esperienza serverless di Bedrock, puoi iniziare rapidamente, personalizzare privatamente i modelli fondamentali con i tuoi dati, e integrarli e distribuirli facilmente nelle tue applicazioni utilizzando gli strumenti e le capacità AWS che conosci (incluse integrazioni con le funzionalità di ML di Amazon SageMaker come Esperimenti per testare modelli diversi e Pipeline per gestire i tuoi FM su larga scala) senza dover gestire alcuna infrastruttura,” ha scritto Amazon Web Services in una dichiarazione.

Bedrock funzionerà con Amazon Titan, il modello fondamentale dell’azienda, così come quelli creati da stability.ai, AI21Labs e Anthropic.

Nella sua lettera annuale, Jassy di Amazon ha anche esaltato il nuovo chip Inferentia2 dell’azienda, vantandosi delle sue capacità superiori rispetto al primo chip Inferentia.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

How can I help you today? XBOX

Microsoft ha iniziato a testare un chatbot alimentato dall’intelligenza artificiale per Xbox, la popolare console di gioco del gigante del software, secondo quanto riportato da The Verge.

 “Stiamo testando un Xbox Support Virtual Agent, un prototipo interno di un personaggio animato in grado di interrogare gli argomenti dell’assistenza Xbox tramite voce o testo.

Il prototipo consente ai giocatori di ottenere assistenza più facilmente e rapidamente sui problemi di supporto utilizzando il linguaggio naturale, attingendo informazioni dalle pagine di supporto Xbox esistenti”.

Il chatbot è un personaggio animato dotato di intelligenza artificiale che fornirà funzioni di assistenza clienti di base, come rispondere alle domande degli utenti o elaborare rimborsi per i giochi, secondo quanto riportato da fonti vicine al progetto.

Il prototipo iniziale è stato soprannominato “Xbox Support Virtual Agent” e può rispondere agli utenti tramite voce o testo. Il chatbot basato sull’IA fa parte del più ampio sforzo di Microsoft per introdurre funzionalità di intelligenza artificiale nella piattaforma Xbox, riporta il rapporto.

Il rivale di Xbox, Sony Playstation, ha incorporato funzionalità di intelligenza artificiale nel suo ecosistema di gioco da diversi anni. Si vocifera che la sua prossima console includerà capacità di miglioramento delle immagini tramite intelligenza artificiale.

TikTok, e’ solo quando siamo veramente disturbati che ci svegliamo dalla nostra letargia e vediamo chiaramente il mondo che ci circonda

L’innovativo approccio di TikTok rappresenta una svolta nel mondo dei social network, in quanto è il primo a fondare il suo prodotto sull’intelligenza artificiale stessa.

Un recente articolo pubblicato su towardsdatascience.com evidenzia questo cambiamento di paradigma, sottolineando che non sono più le visualizzazioni o i click a determinare la popolarità dei contenuti, bensì un algoritmo di intelligenza artificiale che suggerisce specifici contenuti al fine di trattenere gli utenti il più a lungo possibile.

È importante comprendere che ciò non implica una demonizzazione delle dinamiche della piattaforma, ma piuttosto una presa di coscienza riguardo alle regole del gioco a cui ci si adatta implicitamente utilizzando tali strumenti. Utilizzare TikTok comporta quindi una responsabilità condivisa, sia da parte degli utenti che dei responsabili e progettisti degli algoritmi di raccomandazione.

L’ex segretario al Tesoro Steve USA Mnuchin afferma che sta mettendo insieme un gruppo di investitori per acquisire TiKTok.

La Camera dei Rappresentanti ha approvato un disegno di legge che potrebbe vietare la piattaforma di social media di ByteDance in tutto il paese.

Mnuchin ha dichiarato alla CNBC: “Penso che la legislazione dovrebbe essere approvata e penso che l’APP dovrebbe essere venduta. È un ottimo affare e metterò insieme un gruppo per acquistare TikTok”.

“Questo dovrebbe essere di proprietà delle imprese statunitensi. Non è possibile che i cinesi permettano mai a una società americana di possedere qualcosa di simile in Cina”.

Mnuchin non ha rivelato chi farà parte del gruppo che acquisirà TikTok.

Il Ministero degli Affari Esteri cinese ha risposto al Congresso, affermando: “Sebbene gli Stati Uniti non abbiano mai trovato alcuna prova che TikTok costituisca una minaccia per la sicurezza nazionale degli Stati Uniti, non hanno mai smesso di inseguire TikTok.

Tale pratica di ricorrere a mosse egemoniche quando non è possibile avere successo in una concorrenza leale interrompe il normale funzionamento delle imprese, mina la fiducia degli investitori internazionali nell’ambiente degli investimenti e sabota il normale ordine economico e commerciale nel mondo. Ciò inevitabilmente si ritorcerà contro gli stessi Stati Uniti”.

Gli Stati Uniti hanno espresso preoccupazioni su TikTok per vari motivi:

Sicurezza dei dati: Gli Stati Uniti temono che TikTok, essendo di proprietà della società cinese ByteDance, possa condividere i dati sensibili degli utenti, come le informazioni sulla posizione, con il governo cinese. Questo è dovuto alle leggi cinesi che consentono al governo di richiedere segretamente dati alle aziende e ai cittadini cinesi.

Un’importante irregolarità si manifesta nell’ormai quasi certa pratica di trasferire i dati sensibili degli utenti iscritti a TikTok su server ubicati in Cina. Questa situazione è stata confermata da una class action avviata nello Stato della California da una studentessa di Palo Alto di nome Misty Hong. Hong sostiene con sicurezza di aver utilizzato l’applicazione TikTok esclusivamente per visualizzare contenuti video, senza mai creare o caricare alcun contenuto dopo essersi iscritta. Tuttavia, la giovane ha scoperto l’esistenza di un account a suo nome, non richiesto e utilizzato per caricare contenuti sulla piattaforma, utilizzando come password il suo numero di cellulare e i suoi dati biometrici, probabilmente acquisiti attraverso l’analisi dei video mai condivisi. Hong sostiene che queste anomalie nei suoi dati siano state possibili grazie al trasferimento dei suoi dati verso server situati in Cina.

Propaganda e disinformazione: Gli Stati Uniti sono preoccupati che TikTok possa essere utilizzato come strumento di propaganda dal Partito Comunista Cinese. Inoltre, temono che la Cina possa utilizzare le segnalazioni dei contenuti di TikTok per diffondere disinformazione.

Influenza politica: Alcuni ritengono che TikTok possa interferire con le campagne politiche ed amministrative statunitensi.

TikTok ha negato queste accuse e ha cercato di prendere le distanze da ByteDance. Ha anche affermato di non aver mai condiviso, o ricevuto una richiesta di condivisione, dei dati degli utenti statunitensi con il governo cinese.

Qui un video della FOX che mostra il punto di vista USA : https://www.foxnews.com/video/6309696840112

Meta e Google sembrano essere i maggiori beneficiari se i disegni di legge che mirano a colpire le operazioni di TikTok negli Stati Uniti diventassero legge, secondo Wedbush Securities.

L’analista Scott Devitt e altri presso la società di investimenti hanno recentemente incontrato l’ex membro del Congresso degli Stati Uniti Ryan Costello per discutere le implicazioni del Protecting Americans from Foreign Adversary Controlled Applications Act (H.R. 7521).

Costello, che è stato al Congresso dal 2015 al 2019, ha stimato che esista una probabilità del 55% che una forma della legislazione venga alla fine approvata. Tuttavia, dubita che la società cinese ByteDance si disimpegni da TikTok – come richiede la legislazione – il che alla fine comporterebbe l’uscita di TikTok dal paese.

H.R. 7521 è passato alla Camera dei Rappresentanti degli Stati Uniti il 13 marzo, ricevendo un ampio sostegno bipartisan con un voto di 352-65-1 a favore del disegno di legge.

Il Presidente Biden ha già indicato che firmerà l’H.R. 7521 in legge se arriverà sulla sua scrivania.

Il disegno di legge mira alla “minaccia rappresentata dalle applicazioni controllate da avversari stranieri, come TikTok e qualsiasi applicazione o servizio successivo e qualsiasi altra applicazione o servizio sviluppato o fornito da ByteDance”.

“Questa legislazione bipartizan è necessaria per proteggere la nostra sicurezza nazionale e la privacy dei consumatori americani,” ha detto la deputata Shontel Brown (D-Ohio). “Ci sono chiare e legittime preoccupazioni riguardo alle applicazioni soggette al controllo dei nostri avversari stranieri. È imperativo che il Congresso agisca per proteggere il pubblico, giovane e vecchio.”

Una settimana dopo che l’H.R. 7521 è passato alla Camera, l’organo legislativo ha approvato un secondo disegno di legge, il Protecting Americans’ Data from Foreign Adversaries Act of 2024 (H.R. 7520), all’unanimità.

L’H.R. 7520, che è correlato all’H.R. 7521, proibirebbe ai broker di dati di vendere le informazioni personali sensibili degli americani agli avversari stranieri.

Ci si aspetta che il Senato degli Stati Uniti esamini entrambi i disegni di legge insieme, con un voto che avverrà nei prossimi due mesi, ha detto Costello.

Tuttavia, questi disegni di legge probabilmente subiranno delle modifiche prima di arrivare al Senato, ha detto Costello. Ad esempio, potrebbe essere necessaria una maggiore chiarezza riguardo alla definizione di “avversario straniero” o il termine “broker di dati” potrebbe necessitare di ulteriore classificazione, ha detto l’ex membro del Congresso.

Inoltre, la versione della Camera prevede che TikTok si disimpegni da ByteDance entro 180 giorni. Questo periodo è probabilmente irragionevole per un’affare di questa portata e complessità e verrà probabilmente modificato dal Senato, ha detto Costello.

“Se il disegno di legge slitta ai mesi estivi o all’inizio dell’autunno, è improbabile che passi secondo il parere di Ryan, dato il prossimo elezione e la difficoltà di mantenere il necessario slancio politico per un periodo così prolungato,” ha notato Wedbush.

Se i due disegni di legge diventassero legge, ByteDance e il governo cinese hanno indicato resistenza a disimpegnarsi da TikTok, utilizzato da circa 170 milioni di americani.

Se TikTok fosse costretto a lasciare gli Stati Uniti, Meta e Google sono le due aziende meglio posizionate per beneficiare della ridistribuzione della pubblicità, ha detto Wedbush.

“Delle persone che utilizzano TikTok, l’83%, l’81% e il 73%, utilizzano anche Facebook, Instagram e WhatsApp, rispettivamente,” ha detto l’analista di Seeking Alpha Yuval Rotem. “Dal punto di vista opposto, il 51%, il 52% e il 50% delle persone che utilizzano Facebook, Instagram e WhatsApp, sono anche su TikTok.”

“Secondo me, ciò significa che in caso di divieto di TikTok, il tempo trascorso dagli utenti comuni sulle piattaforme di Meta aumenterà in modo significativo,” ha aggiunto.

Tuttavia, i commercianti cinesi on-line che vendono prodotti su TikTok Shop negli Stati Uniti, come alternativa ad Amazon, sono preoccupati per le mosse, dicono, che l’azienda ha fatto per una adesione più rigorosa alle regole per i venditori stranieri che aprono negozi sull’app, ha riferito Reuters.

Nelle ultime settimane, TikTok – di proprietà della società cinese ByteDance rischia di dover vendere le “operations ” (Processi, Persone e Tecnologia) statunitensi dell’app o affrontare un divieto nel paese – ha adottato una posizione più dura per far rispettare le sue regole interne, ha aggiunto il rapporto citando cinque venditori cinesi sul sito e un’associazione di settore che rappresenta 3.000 negozi cinesi che vendono prodotti online.

TikTok richiede che le entità statunitensi registrate dai commercianti siano di proprietà statunitense al 51% e presiedute da un titolare di passaporto statunitense, secondo i venditori e Winnie Wang, presidente esecutivo dell’Associazione di E-Commerce Transfrontaliero di Shenzhen.

Diversi venditori cinesi avevano utilizzato entità statunitensi per essere considerati come commercianti statunitensi sull’app, ma ora le regole comportano che richiederanno la ri-registrazione come venditori stranieri, che dicono ricevono meno visibilita’ e aiuto, mettendoli in svantaggio rispetto ai venditori di TikTok statunitensi, ha notato il rapporto.

TikTok ha politiche e requisiti chiari per tutti i venditori sul suo negozio, compresi i venditori internazionali, e queste politiche non sono cambiate da quando TikTok Shop è stato lanciato negli Stati Uniti nel settembre 2023, ha detto un portavoce di TikTok, secondo il rapporto.

I commercianti cinesi hanno notato che si sentono presi di mira dalle regolamentazioni di TikTok e alcuni stanno considerando di limitare le risorse che mettono nel promuovere le vendite sull’app o trovare partner statunitensi, secondo il rapporto.

Nel frattempo, alcuni commercianti hanno detto che, in confronto, Amazon non fa distinzioni tra venditori statunitensi e altri venditori sulla sua piattaforma.

Il commerciante di Shenzhen Jackie Bai e altri due venditori cinesi hanno detto di aver sentito dai rappresentanti di TikTok Shop che le regole più severe erano in risposta al clima politico che TikTok sta affrontando negli Stati Uniti in un anno elettorale, ha aggiunto il rapporto.

I funzionari statunitensi temono che i dati degli utenti possano essere condivisi con la Cina, tuttavia, TikTok ha notato che non ha mai condiviso, o ricevuto una richiesta di condividere i dati degli utenti statunitensi con il governo cinese.

Separatamente, la Federal Trade Commission, o FTC, sta indagando su TikTok per presunte pratiche sospette di privacy e sicurezza dei dati, e potrebbe decidere nelle prossime settimane di fare una causa o un accordo, Politico ha riferito martedì, citando persone a conoscenza della questione.

La FTC sta valutando le accuse secondo cui TikTok e la società madre ByteDance, hanno ingannato i suoi utenti negando che le persone in Cina avessero accesso ai loro dati, e hanno anche violato una legge sulla privacy dei bambini, ha aggiunto il rapporto.

La FTC, in collaborazione con il Dipartimento di Giustizia, potrebbe registrare la causa o risolvere con l’azienda, tuttavia, un accordo non è ancora stato raggiunto, ha aggiunto il rapporto.

Il caso FTC non è correlato al disegno di legge che cerca la dismissione dell’app.

Non è stata presa alcuna decisione finale su se portare un caso o quali rivendicazioni includere. Non era chiaro nemmeno se un’eventuale azione contro TikTok avrebbe incluso anche ByteDance, ha aggiunto il rapporto.

TikTok è stato sotto il radar della FTC per le sue attività di privacy e sicurezza dei dati da almeno due anni, secondo il rapporto.

Nel 2019, Musical.ly, ora noto come TikTok, ha accettato di pagare $5.7M per risolvere le accuse della FTC che l’azienda ha raccolto illegalmente informazioni personali dai bambini in violazione della Children’s Online Privacy Protection Act.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Equinix il backbone dell’AI

Il Wall Street Journal ha pubblicato questo titolo il mese scorso:

Secondo il rapporto, due terzi dei colletti bianchi migliorano la propria produttività utilizzando l’Intelligenza Artificiale.

Detto questo, il rapporto menziona anche che l’Intelligenza Artificiale sta diventando così efficace che molti posti di lavoro gestionali sono ridondanti, costringendo le aziende a tagliare quei posti che non verranno poi recuperati anche se la domanda aziendale dovesse riprendere.

A gennaio il New York Times aveva pubblicato questo:

Non sto scrivendo questo per spaventare nessuno, ma per sottolineare che nulla di tutto ciò è possibile senza l’hardware sottostante, il famoso DataCenter, l’ infrastruttura.

Equinix è un gigante. Dietro la sua capitalizzazione di mercato di 75 miliardi di dollari c’è un’azienda composta da 260 data center in 33 paesi con un record di uptime del 99,999% che serve più di 10.000 clienti.

Come possiamo vedere di seguito, l’82% dei ricavi ricorrenti dell’azienda è generato da proprietà proprietarie o da proprietà le cui scadenze di locazione si estendono fino al 2039 o oltre. Possiede 152 dei suoi 260 data center. (mi ricorda la strategia di Mc Donald’s) Equinix ha un BM con un modello di leading a 18 anni.

L’azienda è la destinazione di riferimento per gli “iper-scaler”, tra cui Amazon Web Services, Azure, Google Cloud e Oracle.

In ciascuno di questi servizi ha una quota di mercato maggiore del 40%, mentre il suo concorrente numero due è molto indietro.

Le attività non statunitensi dell’azienda rappresentano quasi il 60% dei suoi ricavi.

A milano ce ne sono 3.

Lo slancio in corso derivante dalla trasformazione digitale e dalla rivoluzione dell’intelligenza artificiale sta generando una forte domanda di data center, soprattutto negli Stati Uniti, dove si prevede che la domanda di data center crescerà del 10% annuo fino al 2030 (dovremmo presto parlare di Sostenibilità dell AI visto quanto successo recentemente con la rete energetica Usa al collasso per la troppa richiesta di energia).

Il funzionamento dei data center è ad alta intensità energetica e si stima che consumino oltre l’1% della fornitura globale di elettricità. La tendenza crescente verso chip di fascia alta, con un maggiore consumo energetico, rappresenta un rischio x l’ambiente e per i BM.

Ecco cosa ha detto la società durante la conferenza Morgan Stanley Technology, Media & Telecom quando è stata interpellata sugli sviluppi della domanda:

Simon Flannery

Grande. Beh, forse diamo un’occhiata un po’ alla guida. Hai avuto prenotazioni xScale record, 90 megawatt, credo. E questo ha parlato di parte della domanda di intelligenza artificiale. Ma poi hai ancora quel tasso di abbandono elevato. Quindi è molto, molto diverso tra la domanda su larga scala e la domanda aziendale o…

Keith Taylor

Probabilmente un po’ come i mercati azionari, giusto, in una certa misura i Magnificent 7. Guarda, la richiesta di competenze è molto reale. E come abbiamo detto, abbiamo venduto circa 90 megawatt, 1,9 miliardi di dollari di – 1,8 miliardi di dollari di valore contrattuale, durata di 15 anni. Gli hyperscaler che conosci, che ti aspetteresti, li stanno consumando. Siamo utilizzati quasi all’85% di ciò che abbiamo annunciato e di ciò che abbiamo costruito. Se a ciò aggiungiamo ciò che stiamo negoziando in questo momento, probabilmente siamo a oltre il 95% di tutto esaurito. E abbiamo l’impegno di produrre circa 800 megawatt, e al momento siamo a 330. E quindi abbiamo una passerella, una bella passerella davanti a noi.

Magnificent Seven Stocks Performance

Company NameSymbol2024 YTD Performance
Alphabet(GOOGL)-3.8%
Amazon(AMZN)+16.4%
Apple(AAPL)-12.2%
Meta Platforms(META)+44.7%
Microsoft(MSFT)+8.8%
Nvidia(NVDA)+87.1%
Tesla(TSLA)-28.1%
Source: IBD Data As Of March 7, 2024

Impressionante…

L’influenza dell’intelligenza artificiale è innegabile, poiché rimodella l’economia in modo sostanziale.

Equinix emerge come uno dei principali attori in questo mondo guidato dall’intelligenza artificiale, fornendo l’infrastruttura necessaria per l’espansione dell’intelligenza artificiale.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Nvdia + ARM + Databricks + $$

Nvidia Corporation effettua strategicamente investimenti nei settori chiave del campo dell’Intelligenza Artificiale per potenziare le sue capacità future e il suo margine di profitto.

Gli investimenti in Databricks, ARM Inc., Recursion Pharmaceuticals e SoundHound AI hanno il potenziale per incrementare i guadagni di Nvidia.

Le partnership con Databricks e ARM Inc. possono ottimizzare il software ed espandere la tecnologia dell’AI oltre le GPU, mentre le collaborazioni con Recursion Pharmaceuticals e SoundHound AI possono accelerare la scoperta di nuovi farmaci e migliorare le soluzioni di AI vocale.

Il 14 febbraio, Nvidia ha rivelato di detenere azioni pubblicamente quotate in cinque aziende legate all’AI: Arm Holdings plc , SoundHound AI Inc. , Recursion Pharmaceuticals , Nano-X Imaging e TuSimple .

Anche se il valore di questi investimenti dovesse triplicare, il profitto complessivo sarebbe minimo rispetto agli ultimi guadagni trimestrali di oltre 12 miliardi di dollari. Tuttavia, questi investimenti combinati sono sottovalutati dagli investitori di Nvidia e, col tempo, consentiranno all’azienda di rimanere leader nel settore dell’Intelligenza Artificiale.

Per quanto riguarda Databricks, Nvidia ha investito nella società, leader in analisi dei dati con una piattaforma cloud user-friendly. Databricks si concentra su strumenti open source, attraendo una grande base di sviluppatori e acquisendo più clienti. La partnership con Nvidia aiuterà a consolidare la loro posizione all’avanguardia dell’innovazione nell’IA.

È evidente che il software di Databricks funzioni su hardware informatico, e Nvidia è un protagonista principale in questo settore con le loro unità di elaborazione grafica (GPU). Lavorando insieme, possono ottimizzare il software di Databricks per funzionare meglio sulle GPU di Nvidia, rendendo i prodotti di entrambe le aziende più attraenti.

Inoltre, Databricks è un leader nell’analisi dei dati, un campo cruciale per lo sviluppo dell’AI. Avendo una quota in Databricks, Nvidia ottiene un partner che può aiutarli a sviluppare migliori strumenti e soluzioni di Intelligenza Artificiale.

Questo può rafforzare la posizione di Nvidia nell’intero mercato dell’AI. Durante la recente conference call sugli utili, il direttore finanziario di Nvidia, Colette Kress, ha dichiarato che l’azienda “ha compiuto notevoli progressi con le nostre offerte software e servizi, che hanno raggiunto un tasso di fatturato annuo di 1 miliardo di dollari nel quarto trimestre“. Questo è molto importante, perché dimostra le ambizioni di Nvidia di svilupparsi oltre i semiconduttori.

In breve, questo investimento ha creato una situazione vantaggiosa per entrambe le parti. Nvidia ha la possibilità di collaborare con una delle principali aziende di software di AI, mentre Databricks ha accesso all’hardware potente di Nvidia.

Arm Holdings, gigante del design di chip con sede nel Regno Unito, ha rivoluzionato il computing mobile. Nonostante la fallita acquisizione di ARM da parte di Nvidia nel 2020, le opportunità di collaborazione rimangono. Entrambi sono leader nell’AI, e le loro tecnologie potrebbero collaborare in settori come le auto a guida autonoma e il computing ad alte prestazioni.

Recursion Pharmaceuticals utilizza l’IA per la scoperta di farmaci, e la collaborazione con Nvidia potrebbe accelerare significativamente il processo di scoperta di nuovi composti medicinali.

SoundHound, un’azienda di IA vocale, rivale di Shazam, offre una gamma di soluzioni AI-driven. L’investimento di Nvidia in SoundHound potrebbe portare a una migliore esperienza utente nei suoi prodotti grazie a un’interazione vocale più naturale, accurata e versatile.

In conclusione, gli investimenti strategici di Nvidia in questi settori chiave dell’AI promettono di portare benefici significativi all’azienda, migliorando la sua posizione di leader nell’industria dell’Intelligenza Artificiale.

ChatGPT di OpenAI continua a guadagnare popolarità

Secondo un recente sondaggio condotto dal Pew Research Center, il ChatGPT di OpenAI continua a guadagnare popolarità, con quasi un adulto statunitense su quattro che ha affermato di aver utilizzato il chatbot in qualche modo. Questo segna un aumento rispetto al 18% registrato sette mesi prima, evidenziando un trend di crescita costante nell’utilizzo del ChatGPT.

In particolare, l’uso del ChatGPT per scopi lavorativi è aumentato significativamente negli ultimi 12 mesi. Nel marzo 2023, l’8% degli adulti statunitensi ha affermato di aver utilizzato il chatbot per svolgere attività lavorative, percentuale che è salita al 20% a febbraio 2024.

L’età e il livello di istruzione sembrano influenzare chi utilizza maggiormente il ChatGPT per lavoro. Il sondaggio ha rivelato che quasi un americano su tre con meno di 30 anni ha utilizzato il chatbot per scopi lavorativi, mentre questa percentuale scende al 21% per gli adulti tra i 30 e i 49 anni e al 10% per coloro che hanno 50 anni o più.

Inoltre, gli adulti con titoli di studio laureati e triennali utilizzano il ChatGPT in misura maggiore, rispettivamente al 33% e al 25%, mentre scende al 19% per coloro che hanno un diploma di scuola superiore e all’8% per chi ha un diploma di scuola superiore o inferiore.

Tuttavia, c’è un aspetto su cui gli americani sembrano concordare: la diffidenza nei confronti del ChatGPT quando si tratta di politica, soprattutto in vista delle imminenti elezioni presidenziali americane del 2024. Il sondaggio ha rivelato che circa quattro cittadini su dieci non hanno troppa o nessuna fiducia nelle informazioni elettorali fornite dal ChatGPT, superando di gran lunga la fiducia nelle informazioni politiche fornite dalla piattaforma.

Nonostante il crescente numero di utenti del ChatGPT, il 34% degli americani intervistati dal Pew Research Center ha dichiarato di non aver mai sentito parlare del chatbot, evidenziando che c’è ancora una significativa fetta di popolazione che non è a conoscenza di questa tecnologia.

Amazon investe ulteriori 2,75 miliardi in Anthropic, portando il suo investimento nella società a 4 miliardi di dollari


Mercoledì, Amazon ha annunciato un ulteriore investimento di 2,75 miliardi di dollari nella startup di intelligenza artificiale generativa, Anthropic, portando il suo investimento totale nella società a 4 miliardi di dollari. .

Anthropic è il creatore di Claude, un chatbot alimentato da intelligenza artificiale generativa, che concorre con ChatGPT di OpenAI. Questo investimento rappresenta il più grande investimento esterno mai effettuato da Amazon , dopo un precedente investimento di 1,3 miliardi di dollari nel produttore di veicoli elettrici Rivian .

Secondo una nota di Amazon, il lavoro con Anthropic per portare le più avanzate tecnologie di Intelligenza Artificiale generativa ai clienti di tutto il mondo è appena all’inizio.

Come parte di un accordo di collaborazione strategica, Amazon e Anthropic hanno annunciato che Anthropic utilizzerà Amazon Web Services come principale fornitore di servizi cloud per carichi di lavoro mission-critical, inclusa la ricerca sulla sicurezza e lo sviluppo di futuri modelli di base.

L’investimento garantirà ad Amazon una quota di minoranza in Anthropic, tuttavia, non otterrà un posto nel consiglio di amministrazione. La valutazione più recente di Anthropic si aggira intorno a 18,4 miliardi di dollari, secondo quanto riportato da CNBC.

Questo investimento fa seguito a un precedente investimento di 1,25 miliardi di dollari effettuato da Amazon nel mese di settembre in Anthropic. In quel momento, si era speculato che Amazon potesse investire fino a 4 miliardi di dollari in una startup di intelligenza artificiale con sede a San Francisco, cosa che poi è effettivamente avvenuta.

Oltre ad Amazon, anche Google e Salesforce figurano tra i sostenitori di Anthropic, riconoscendo il potenziale di questa startup nel campo dell’intelligenza artificiale generativa.

Google lancia l’app nativa di Chrome per Windows on Arm

Qualcomm, un rinomato produttore di chip con sede a San Diego, è noto principalmente per la sua leadership nel settore dei dispositivi mobili, grazie ai suoi processori Snapdragon che alimentano una vasta gamma di smartphone e tablet in tutto il mondo. Tuttavia, negli ultimi anni, l’azienda ha ampliato la propria portata anche nel mercato dei PC.

La mossa di Qualcomm nel settore dei PC è stata guidata principalmente dalla crescente domanda di dispositivi sempre connessi e dall’evoluzione delle esigenze informatiche degli utenti, che cercano prestazioni elevate, efficienza energetica e connettività affidabile anche sui dispositivi portatili.

Il segmento dei PC basati su chip ARM, che offrono una maggiore efficienza energetica rispetto alle architetture tradizionali x86, sta guadagnando popolarità grazie alle sue capacità di lunga durata della batteria e alla sempre crescente potenza di elaborazione. Qualcomm, con la sua esperienza nel design di chip per dispositivi mobili, ha intravisto un’opportunità strategica nel portare le sue tecnologie anche nel mercato dei PC, contribuendo così a ridefinire il panorama informatico.

Per raggiungere questo obiettivo, Qualcomm ha continuamente sviluppato e migliorato la sua linea di chip Snapdragon per adattarla alle esigenze dei PC. Questi processori offrono non solo prestazioni elevate e una maggiore efficienza energetica, ma anche funzionalità avanzate, come la connettività 5G integrata e le capacità di intelligenza artificiale, che sono sempre più richieste nel settore dei PC moderni.

Inoltre, Qualcomm ha stabilito collaborazioni strategiche con importanti attori dell’industria, come Google, per portare le loro soluzioni software, come il browser web Chrome, su dispositivi basati su chip Snapdragon. Queste partnership sono cruciali per garantire un’esperienza utente ottimale e un’integrazione senza soluzione di continuità tra hardware e software.

La partnership tra Qualcomm e Google mira a ottimizzare l’esperienza di navigazione web su PC utilizzando chip che adottano l’architettura Arm. Il vicepresidente senior di Google, Hiroshi Lockheimer, ha sottolineato l’obiettivo di offrire agli utenti di Chrome la migliore esperienza possibile sui dispositivi desktop.

Lockheimer ha evidenziato la velocità, la sicurezza e la facilità d’uso come elementi fondamentali della filosofia di Chrome e ha espresso fiducia nella collaborazione con Qualcomm Technologies per portare queste caratteristiche anche sui PC compatibili con ARM.

La svolta nel mercato dei PC è supportata anche dalle innovazioni di Qualcomm, che ha annunciato l’introduzione del suo Snapdragon Elite X lo scorso ottobre, con l’obiettivo di modernizzare i PC Windows attraverso l’intelligenza artificiale. Cristiano Amon, presidente e CEO di Qualcomm, ha enfatizzato l’imminente ingresso dell’industria dei PC nell’era dell’intelligenza artificiale, anticipando il ruolo cruciale del potente sistema Snapdragon X Elite.

La piattaforma Snapdragon X Elite è dotata della nuova CPU personalizzata Qualcomm Oryon, che promette prestazioni CPU superiori rispetto alla concorrenza. Qualcomm ha dichiarato che Snapdragon X Elite può gestire modelli di intelligenza artificiale generativa con oltre 13 miliardi di parametri direttamente sul dispositivo, con una potenza di elaborazione fino a 4,5 volte superiore rispetto alle soluzioni concorrenti.

Per quanto riguarda Chrome, il browser sarà immediatamente disponibile per il download su laptop che utilizzano Snapdragon, mentre una versione ottimizzata per Snapdragon X Elite sarà resa disponibile entro la fine dell’anno. La collaborazione tra Qualcomm e Google si presenta quindi come un passo significativo verso l’espansione del mercato dei PC, offrendo agli utenti un’esperienza di navigazione web all’avanguardia, potenziata dall’intelligenza artificiale e supportata dalle tecnologie all’avanguardia di entrambe le società.

Adobe Summit di Las Vegas 2024

Adobe ha presentato martedì 26 Marzo , durante l’Adobe Summit di Las Vegas, una serie di innovazioni destinate ad arricchire l’esperienza dei clienti attraverso l’applicazione dell’intelligenza artificiale, secondo quanto riportato dall’azienda in una dichiarazione ufficiale.

Le novità riguardano principalmente Adobe Experience Cloud (base globale di 11.000 clienti ed è supportato da un vasto ecosistema di oltre 4.500 membri e più di 500 integrazioni di partner) e sono concepite per ottimizzare il coinvolgimento dei clienti tramite l’impiego della potenza dell’intelligenza artificiale.

In particolare, Adobe Experience Platform e Adobe Journey Optimizer sono stati progettati per permettere alle imprese di interagire con i clienti “giusti” attraverso “esperienze generative basate sull’intelligenza artificiale”, come affermato da Amit Ahuja, VP senior Digital Experience Business.

L’Adobe Experience Platform AI Assistant è un’innovativa soluzione fornita all’interno della piattaforma Adobe Experience Cloud. Si tratta di un assistente virtuale alimentato dall’intelligenza artificiale progettato per fornire supporto avanzato agli utenti nell’ambito della gestione dell’esperienza dei clienti e delle attività di marketing.

Le caratteristiche principali dell’Adobe Experience Platform AI Assistant includono:

  1. Assistenza personalizzata: L’assistente utilizza l’intelligenza artificiale per fornire suggerimenti e consigli personalizzati in base alle specifiche esigenze dell’utente e agli obiettivi di marketing dell’azienda.
  2. Ottimizzazione delle operazioni: Grazie alla sua capacità di analisi avanzata dei dati, l’AI Assistant aiuta a ottimizzare le operazioni di marketing, identificando tendenze, modelli e opportunità di miglioramento.
  3. Automazione dei compiti: L’assistente automatizza una serie di compiti ripetitivi e operazioni di routine, consentendo agli utenti di concentrarsi su attività più strategiche e ad alto valore aggiunto.
  4. Supporto decisionale: Fornisce raccomandazioni e suggerimenti basati sui dati per supportare le decisioni di marketing, consentendo agli utenti di prendere decisioni più informate e basate su evidenze.
  5. Integrazione con altre soluzioni Adobe: L’AI Assistant si integra senza soluzione di continuità con altre soluzioni all’interno dell’ecosistema Adobe Experience Cloud, consentendo un flusso di lavoro fluido e una collaborazione ottimale tra diversi strumenti e applicazioni.

Complessivamente, l’Adobe Experience Platform AI Assistant rappresenta un importante strumento per migliorare l’efficienza operativa, ottimizzare le strategie di marketing e offrire un’esperienza più coinvolgente e personalizzata ai clienti.
Con il suo supporto all’avanguardia basato sull’intelligenza artificiale, aiuta le aziende a raggiungere i propri obiettivi di business in modo più efficace e innovativo.

La collaborazione strategica con Microsoft un altro punto chiave è emerso durante l’evento.

Adobe ha annunciato una partnership con Microsoft per integrare Adobe Experience Cloud con Microsoft Copilot e Microsoft 365, al fine di agevolare la gestione dei dati di marketing e dei flussi di lavoro.

“Questa partnership offre un’opportunità unica per i team di marketing, semplificando le attività quotidiane attraverso la pianificazione, la collaborazione e l’esecuzione delle campagne”, ha dichiarato Ahuja.

Durante il summit, è stata data particolare attenzione anche a Adobe GenStudio, una soluzione “generativa basata sull’intelligenza artificiale” volta a fornire agli esperti di marketing strumenti avanzati per la pianificazione, la creazione, la gestione, l’attivazione e la misurazione dei contenuti di marca in modo rapido ed efficace.

Secondo Eric Hall, chief marketing officer di Adobe Experience Cloud, numerose aziende leader a livello mondiale stanno già collaborando con Adobe per migliorare l’efficienza delle loro operazioni attraverso l’implementazione di soluzioni innovative.

Il contributo dell’intelligenza artificiale è cruciale anche nel settore farmaceutico, come confermato da Lidia Fonseca, chief digital and technology officer di Pfizer, che ha sottolineato il ruolo fondamentale dell’innovazione digitale e dell’intelligenza artificiale nel fornire contenuti pertinenti sui farmaci e vaccini agli utenti finali.

Oltre a queste innovazioni, Adobe ha introdotto nuovi strumenti di gestione dei dati per aiutare i brand a navigare nel panorama dell’intelligenza artificiale generativa.

Come Federated Audience Composition, che consente una gestione efficiente dei dati collegandosi direttamente ai data warehouse aziendali, e Adobe Real-Time Customer Data Platform Collaboration, un’applicazione per la scoperta e la misurazione dell’audience a prova di privacy.

Anche Firefly, lo strumento AI di Adobe, sembra godere di grande popolarità tra gli utenti, offrendo la possibilità di creare modelli personalizzati utilizzando dati proprietari. Questa funzionalità posiziona Firefly nella stessa categoria dei servizi AI offerti da Salesforce Einstein Copilot e Oracle , secondo quanto dichiarato da Utham.

Durante il summit, Adobe ha presentato dettagliatamente diverse nuove applicazioni e utilizzi di Firefly, dimostrando il suo impegno continuo nell’evolversi e nell’innovare nel campo dell’intelligenza artificiale.

Questo articolo si basa su un comunicato stampa di Adobe.

Compliance e Intelligenza Artificiale: strategie di gestione del rischio nel settore finanziario

Negli ultimi due anni, gli investimenti in progetti di digital compliance hanno registrato una crescita costante, con un tasso medio annuo del 10%. Questo aumento è stato particolarmente evidente nel settore bancario, il quale, grazie a una maggiore disponibilità di dati e a ingenti investimenti strategici, ha guadagnato un vantaggio significativo in termini di maturità tecnologica nel campo della compliance. Allo stesso tempo, il settore assicurativo ha intensificato i propri sforzi per colmare il divario digitale, con un notevole aumento degli investimenti che, nel 2023, hanno registrato un aumento del 25%. Sono dati che emergono da uno studio focalizzato sulla digital compliance e sul livello di digitalizzazione delle istituzioni finanziarie e condotto dal Centro di Ricerca dell’Università Cattolica del Sacro Cuore di Milano (Cetif Research) in collaborazione con Avantage Reply.

Attualmente, il 45% delle istituzioni bancarie e il 38% delle compagnie assicurative ha una specifica funzione di digital compliance all’interno della struttura di compliance. Altre istituzioni, pur non avendo un’unità strutturata, stanno integrando risorse specializzate. Le competenze più diffuse nel settore bancario sono quelle di verifica e controllo (34%) e analisi normativa (15%), mentre si stanno introducendo nuove figure con competenze digitali avanzate come data analyst o data architect (44%) e sviluppatori di IT (13%) o di AI (10%). Nel settore assicurativo, le competenze prevalenti includono analisti funzionali o subject matter expert (74%) e data scientist/analyst/architect (26%). Tuttavia, l’integrazione di figure professionali con competenze trasversali rimane una sfida a causa della complessità tecnica della funzione, che ostacola il suo sviluppo.

L’Intelligenza Artificiale rappresenta una delle soluzioni tecnologiche più promettenti per la compliance, sia nelle sue applicazioni più tradizionali come il Machine Learning e l’Advanced Analytics, sia nelle sue applicazioni generative come ChatGPT, perché è in grado di offire un sostegno significativo all’attività e all’operatività della compliance, specialmente considerando le sfide legate alla conformità regolamentare e alla gestione dei dati nel contesto normativo in rapida evoluzione.

Nel momento in cui la sicurezza e la gestione accurata dei dati diventano centrali, emerge la necessità di una governance solida per garantire la conformità normativa e limitare i potenziali rischi e per farlo, la compliance deve adottare un modello data-driven, anche attraverso l’uso di strumenti tecnologici avanzati come l’Intelligenza Artificiale.

Tutto questo richiede però un cambiamento culturale e organizzativo che, oltre all’adozione di strumenti specifici, preveda il coinvolgimento di risorse qualificate e competenze specialistiche, con la creazione di team eterogenei e una maggiore collaborazione tra le varie funzioni aziendali.

In conclusione, la digital compliance si conferma come un elemento chiave per le istituzioni finanziarie nel gestire le sfide normative e i rischi nel contesto digitale in evoluzione. L’adozione di tecnologie innovative come l’Intelligenza Artificiale e il potenziamento delle competenze trasversali sono quindi da ritenersi elementi cruciali per affrontare con successo queste sfide e garantire la conformità normativa.

Nuova tecnologia, vecchie truffe: l’ascesa dell’AI Generativa nel mercato dei libri

SCOTT SIMON, PRESIDENTE:

Quando è uscito l’ultimo libro di Kara Swisher, intitolato “Burn Book”, ha notato che le sue biografie hanno iniziato ad apparire su Amazon con copertine dall’aspetto molto simili. Apparentemente sono stati generati dall’intelligenza artificiale. E Kara Swisher ha raccontato al podcast “Hard Fork” del New York Times come è riuscita a rimuoverli.

MARY RASENBERGER: I libri truffa su Amazon sono un problema da anni.

Negli ultimi anni, i progressi nella tecnologia dell’intelligenza artificiale (IA) hanno portato a rivoluzioni in vari settori, tra cui la letteratura. Tuttavia, con l’avanzamento tecnologico sorgono anche nuove minacce, come dimostra un recente incidente che mette in luce l’uso ingegnoso delle tecniche di IA generativa (Gen AI) per perpetrare truffe nei mercati dei libri.

Quando si tratta di affrontare i libri falsi su Amazon, ci sono numerosi ostacoli da superare. Dal punto di vista legale, non è ancora chiaro se i contenuti generati dall’IA violino le leggi sul copyright.

È per questo che il New York Times ha recentemente intentato una causa per violazione del copyright contro OpenAI.

La genesi della truffa vede i mercati online, in particolare le piattaforme di e-book come Amazon Kindle Unlimited, invasi da una crescente offerta di romanzi che sembrano essere stati scritti utilizzando tecniche di Gen AI.

Questi libri, spesso di dubbia qualità, si fingono opere originali. Sfruttando algoritmi sofisticati, la Gen AI può generare contenuti che imitano lo stile di scrittura umano, rendendo difficile ai lettori distinguere tra opere genuine e artificiali.

Kindle Unlimited funziona tramite un sistema di abbonamento mensile che consente ai lettori di accedere a milioni di libri. Gli autori partecipanti vengono pagati attraverso un pool di fondi stabilito da Amazon, in base al numero di pagine lette dai loro libri.

Amazon ha istituito il Kindle Direct Publishing Selected (KDPS), un servizio attraverso il quale gli autori si impegnano a concedere in esclusiva i loro libri per 90 giorni, e le royalty vengono calcolate in base al numero di pagine lette dagli utenti abbonati al servizio Kindle Unlimited.

I lettori abbonati a Kindle Unlimited hanno il diritto di leggere tutti i libri inclusi nel programma KDPS.

La truffa viene svelata quando bot automatizzati, programmati per simulare il comportamento umano, acquistano in massa questi romanzi artificialmente generati. Di conseguenza, questi libri aumentano rapidamente nelle classifiche diventando bestseller sulle piattaforme di e-book.

Mentre lettori ignari possono contribuire inconsapevolmente al successo di queste opere fraudolente, i veri beneficiari sono gli autori falsi dietro la truffa.

Attraverso piani di abbonamento per lettori come Kindle Unlimited, gli autori falsi ricevono royalty per le pagine lette dagli abbonati. Questo modello di monetizzazione incoraggia gli scammer a sfruttare il sistema, poiché traggono profitto dall’inganno generato dai bot automatizzati.

Di conseguenza, gli autori genuini subiscono una riduzione della visibilità e del potenziale di guadagno a causa della proliferazione di contenuti artificialmente generati.

Per affrontare questa minaccia, sono necessarie misure rigorose da parte degli operatori delle piattaforme e degli enti regolatori. Una moderazione dei contenuti più efficace, protocolli di autenticazione migliorati e il monitoraggio proattivo delle attività sospette sono passaggi cruciali per contrastare efficacemente queste truffe.

In risposta alla crescente pressione da parte di autori e gruppi di difesa come la Authors Guild, Amazon ha adottato misure per affrontare il problema. L’anno scorso, la società ha implementato una politica che richiede agli editori che utilizzano Kindle Direct Publishing di rivelare se i loro contenuti sono generati dall’intelligenza artificiale.  

Inoltre, Amazon ha imposto limiti al numero di titoli pubblicati in un solo giorno.

La proliferazione delle truffe guidate dalla Gen AI nei mercati dei libri sottolinea l’importanza della vigilanza e dell’intervento proattivo. Mentre la tecnologia continua a progredire, è essenziale adottare strategie di difesa robuste per tutelare l’integrità dei mercati online.

Anche se Amazon sembra aver reagito rimuovendo i libri coinvolti nell’inganno, il rischio di frode rimane presente, minacciando sia gli autori che il servizio stesso.

In alternativa, Amazon e altri editori online potrebbero scegliere di svolgere un lavoro più accurato nello screening dei contenuti prodotti dall’intelligenza artificiale.

Ciò potrebbe comportare la richiesta di maggiore trasparenza e divulgazione. Al momento, spetta al lettore determinare se sta acquistando libri falsi su Amazon, ma sarebbe auspicabile che gli autori stessi segnalino eventuali violazioni.

Comprendiamo che il compito per Amazon sarebbe titanico, ma l’implementazione di politiche e pratiche volte a ridurre questa nuova truffa sui libri sull’intelligenza artificiale è essenziale per garantire l’integrità dei mercati online nel prossimo futuro.

Se le societa’ impegnate nelle Inelligenza Generativa, non riusciranno a capire come monetizzare i loro contenuti AI, la crescita sarà probabilmente più lenta del previsto.

Sovrasaturazione dei contenuti AI ?

I contenuti artistici AI sono ovunque in questo momento e potrebbero diventare troppo saturi in futuro. Sarà fondamentale per tutti produrre contenuti della migliore qualità in modo che possano diventare il fornitore di riferimento.

Investimento speculativo ?

Si tratta di un investimento speculativo perché si basa in gran parte sulla crescita futura che sarà generata da prodotti e servizi nuovi e non provati.

Hewlett Packard Enterprise (HPE) si posiziona come un protagonista nel campo dell’intelligenza artificiale


Considerando le preoccupazioni di Hewlett Packard riguardo a un possibile rallentamento del cloud computing dovuto a incertezze economiche e a una riduzione della spesa aziendale, l’azienda ha adottato una strategia volta a sfruttare l’attuale boom dell’intelligenza artificiale per garantire una maggiore redditività nel lungo termine.

L’obiettivo di Hewlett Packard è quello di raggiungere oltre il 50% dei ricavi derivanti da cloud e intelligenza artificiale entro l’anno fiscale 2026, una prospettiva che ha suscitato interesse e approvazione tra gli investitori.

Nel tentativo di capitalizzare su questo obiettivo, a inizio giugno, HP Enterprise ha lanciato un nuovo servizio cloud mirato a potenziare i sistemi di intelligenza artificiale, posizionandosi così in competizione diretta con giganti del cloud computing come Google di Alphabet, Microsoft e Amazon.

Inoltre, nel novembre dello stesso anno, l’azienda ha annunciato una collaborazione con l’Università di Bristol per lo sviluppo di quello che sarà il supercomputer più veloce del Regno Unito, integrando funzionalità di intelligenza artificiale.

Le iniziative di successo di HPE nei settori dell’IA e dell’Intelligent Edge stanno contribuendo in modo significativo alla diversificazione delle fonti di reddito dell’azienda, con Intelligent Edge che ora rappresenta una fetta significativa dei suoi ricavi.

L’unità di supercalcolo Cray di HPE ha dimostrato competenze uniche nella costruzione di supercomputer, collaborando con vari produttori di hardware come Nvidia, AMD e Intel. Questa expertise ha portato alla realizzazione del primo computer exascale al mondo, Frontier, nel 2022, che ha mantenuto il titolo di supercomputer più veloce del mondo fino al giugno 2023 secondo la classifica TOP 500.

Le tecnologie emergenti come l’IoT, l’Industria 4.0, le città intelligenti e il 5G stanno alimentando ulteriormente la crescita dell’edge computing. Quest’ultimo, che coinvolge l’elaborazione dei dati direttamente sul luogo di raccolta, sta diventando sempre più cruciale nell’era degli hyperscaler dell’intelligenza artificiale, i quali si affidano a enormi quantità di dati per creare modelli AI avanzati.

Non è quindi sorprendente che, secondo un recente rapporto, ci si attenda che l’edge computing cresca in modo esplosivo con un tasso di crescita annuo composto del 35% entro il 2032, con il Nord America in testa come il mercato più grande e promettente in questo settore in forte crescita.

AI’s Partnerships :

 Aleph Alpha , con sede a Heidelberg , leader nel campo dell’intelligenza artificiale spiegabile e affidabile, ha annunciato il 6 Novembre 2023 la firma con successo del suo round di finanziamento di serie B. La società ha raccolto più di 500 milioni di dollari USA da un consorzio di un totale di sette nuovi investitori, oltre agli investitori esistenti dei round precedenti.

Il consorzio è guidato dall’Innovation Park Artificial Intelligence (Ipai), Bosch Ventures e dalle aziende del Gruppo Schwarz. 

Altri nuovi investitori includono Christ & Company Consulting con sede a Berlino , la società globale edge-to-cloud Hewlett Packard Enterprise e la multinazionale tedesca di software applicativo aziendale SAP, nonché Burda Principal Investments. Partecipano inoltre gli investitori istituzionali esistenti, completando il round di sottoscrizioni in eccesso.

Ciascuna delle parti coinvolte in questo round svolge un ruolo fondamentale nell’aiutare Aleph Alpha a raggiungere il suo obiettivo di fornire soluzioni di intelligenza artificiale sovrane a imprese e governi. Il finanziamento totale supera il mezzo miliardo di dollari USA e comprende un sostanziale investimento nella ricerca applicata da parte dell’Ipai, nonché impegni per lo sviluppo aziendale congiunto.

Ciò include licenze di preconsumo con i leader mondiali del settore del consorzio, volte ad ampliare il modello di business.

L’Arabia Saudita pronta a mettere una fiche di 40 miliardi di dollari sull’Intelligenza Artificiale


Secondo un rapporto pubblicato martedì, riportato dal New York Times, l’Arabia Saudita starebbe valutando la creazione di un fondo da 40 miliardi di dollari per investire nel settore dell’Intelligenza Artificiale (AI).

Il fondo renderebbe lo Stato del Golfo il più grande investitore al mondo nell’Intelligenza Artificiale e aiuterebbe il Regno non solo a realizzare il suo programma Vision 2030 che ha l’obiettivo di diversificare la dipendenza dell’economia dal petrolio, ma anche a contrastare i principali rivali nella regione, gli Emirati Arabi Uniti che sono molto attivi nel settore.

Il Fondo di investimento pubblico (PIF) dell’dell’Arabia Saudita, che ha già investito molto nel cloud computing e in altre infrastrutture digitali, ha un patrimonio di oltre 900 miliardi di dollari e nelle ultime settimane avrebbe discusso una potenziale partnership con Andreessen Horowitz, una delle principali società di venture capital della Silicon Valley e con altri potenziali finanziatori del fondo. .

Questa nuova spinta agli investimenti dell’Arabia Saudita probabilmente decollerà durante la seconda metà di quest’anno e potrebbero essere parte della partita anche altre società globali , non necessariamente dei venture capital. Amazon Web Services (AWS) ad esempio, in occasione della conferenza tecnologica LEAP che si è tenuta a Riad all’inizio di questo mese di marzo, si è impegnato a investire 5,3 miliardi di dollari nel fiorente mercato tecnologico del regno per creare data center cloud a partire dal 2026.

Una notizia importante perché fa entrare un nuovo player nel settore. Ma se Stati Uniti e Cina sono abbastanza avanti in termini di vantaggio acquisito, così non è per altre realtà come la Gran Bretagna e l’Europa che, tra le altre cose, non possono contare su risorse infinite in un settore dove la capacità di investimento è determinante per il successo.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Pagina 20 di 21

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie