Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: nvdia Pagina 2 di 3

Nvidia: Problemi di surriscaldamento per i chip AI Blackwell nei server Gb200 nvl 72

I chip AI Blackwell di Nvidia stanno riscontrando seri problemi di surriscaldamento quando utilizzati in rack server capaci di ospitare fino a 72 unità. Questa situazione ha destato preoccupazioni tra importanti clienti come Meta, Microsoft e xAI di Elon Musk, poiché potrebbe ritardare l’apertura di nuovi data center che si basano su questi chip.

La crescita vertiginosa di NVIDIA nel 2023: un’analisi strategica per i mercati futuri

NVIDIA Corporation ha vissuto un 2023 straordinario, triplicando il suo valore di mercato grazie al boom della tecnologia di intelligenza artificiale. Tuttavia, l’imminente rapporto sugli utili del 20 novembre rappresenta un banco di prova cruciale, soprattutto in un contesto geopolitico e commerciale sempre più complesso. Secondo Tatiana Darie, editorialista di Bloomberg News, le politiche protezionistiche prospettate dal Presidente eletto Donald Trump potrebbero rappresentare un rischio significativo per l’azienda.

NVDIA introduce MM-Embed un’intelligenza artificiale che rivoluziona il modo la ricerca dei contenuti, testo e immagini

MM-Embed,” è un modello avanzato per la ricerca multimodale universale, sviluppato da NVIDIA e l’Università di Waterloo. Il modello si concentra su un nuovo approccio di recupero dell’informazione, in grado di gestire simultaneamente più modalità (testo, immagini e combinazioni di entrambi), in un unico sistema integrato per diversi compiti di recupero.

MM-Embed è progettato per comprendere e rispondere a query che combinano testo e immagini. Questa versatilità consente di affrontare compiti complessi, come domande visive e risposte basate su immagini, migliorando l’esperienza utente nella ricerca di informazioni.

Nvidia Potenzia l’AI con Colossus: Il Supercomputer che Sta Cambiando il Gioco

Nvidia ha annunciato lunedì che la sua tecnologia di rete Spectrum-X ha contribuito all’espansione del supercomputer Colossus della startup xAI, ora riconosciuto come il cluster di addestramento AI più grande al mondo. Situato a Memphis, Tennessee, Colossus è il terreno di addestramento per la terza generazione di Grok, la suite di modelli linguistici di grandi dimensioni sviluppata da xAI per potenziare le funzionalità chatbot per gli abbonati a X Premium.

SoftBank e il futuro dell’Intelligenza Artificiale: le visioni di Masayoshi Son

Il CEO di SoftBank, Masayoshi Son, ha recentemente sottolineato il potenziale di Nvidia, dichiarandola “sottovalutata” durante il suo intervento al Saudi FII Summit. Ha proiettato che per raggiungere l’intelligenza artificiale superintelligente (ASI) potrebbero essere necessari “centinaia di miliardi di dollari”, insieme a un investimento stimato di 9 trilioni di dollari e 200 milioni di chip. Nonostante un leggero calo delle azioni di Nvidia nel premarket, l’azienda ha visto una crescita notevole, con le azioni in aumento del 191% dall’inizio dell’anno e oltre il 2.600% negli ultimi cinque anni.

Apple e Nvidia pronte a dominare il mercato con capitalizzazioni record: la soglia dei 4 trilioni è vicina

La prossima grande tappa nel mondo tecnologico sarà la corsa di Apple verso una valutazione di mercato di $4 trilioni, seguita da Nvidia, secondo il noto analista di Wedbush Securities, Dan Ives. Questo traguardo epocale potrebbe materializzarsi nel 2025, spinto dalla capacità di entrambe le aziende di capitalizzare sull’intelligenza artificiale (IA), su ecosistemi integrati e sulla capacità di mantenere rilevante la loro base utenti. Secondo Wedbush, la visione strategica e tecnologica dei due colossi pone Apple e Nvidia in una posizione dominante, difficilmente eguagliabile.

Nvidia Sana: Rivoluzionaria Intelligenza Artificiale per l’Arte Generativa, ora Accessibile anche su Hardware di Fascia Consumer

Nvidia ha recentemente introdotto Sana, un modello AI che potrebbe cambiare le regole del gioco nell’arte generativa, soprattutto per coloro che non dispongono di macchine ad alte prestazioni. La chiave del successo di Sana risiede in una serie di innovazioni tecniche: grazie a un deep compression autoencoder è possibile ridurre la dimensione dei dati immagine a 1/32 dell’originale, mantenendo una qualità impeccabile. Questa innovazione, combinata con il modello linguistico Gemma 2 per la comprensione dei prompt, garantisce un output di altissima qualità su hardware relativamente economico, una mossa strategica per Nvidia nel conquistare una platea più ampia.(Sana Github)

Crusoe Energy

L’industria dell’intelligenza artificiale sta assistendo a un’emergente corsa tra startup di data center, che affermano di poter muoversi più rapidamente rispetto ai grandi sviluppatori.

L’ultima in ordine di tempo è Crusoe Energy, che ha annunciato un accordo per ottenere un prestito di 3,4 miliardi di dollari per sviluppare un data center che potrebbe diventare uno dei più grandi al mondo.Oracle, un importante fornitore di servizi cloud, affitterà il sito e noleggerà server equipaggiati con chip Nvidia per le applicazioni di intelligenza artificiale di OpenAI.

Questo progetto rappresenta una significativa opportunità per Crusoe, che ha già dimostrato la sua capacità di adattarsi rapidamente alle esigenze del mercato AI.Il data center sarà situato nel Lancium Clean Campus ad Abilene, Texas, e sarà progettato per supportare applicazioni IT ad alta densità energetica.

Si prevede che il centro dati operi con un potenziale di 206 MW e possa gestire fino a 100.000 GPU su una rete integrata, ottimizzando l’uso delle risorse energetiche rinnovabili.

Questa iniziativa non solo evidenzia la crescente domanda di infrastrutture dedicate all’AI, ma sottolinea anche come le startup come Crusoe possano competere efficacemente con i giganti del settore grazie a modelli di business innovativi e approcci sostenibil

Super Micro Computer server NVIDIA GB200 NVL72 e HGX B200

Super Micro Computer ha recentemente annunciato il lancio dei server NVIDIA GB200 NVL72 e HGX B200, progettati per affrontare le crescenti esigenze delle applicazioni di intelligenza artificiale (AI) e dei modelli di linguaggio di grandi dimensioni (LLM). Questi server rappresentano una significativa evoluzione nella potenza di calcolo e nell’efficienza energetica, grazie all’integrazione della nuova architettura Blackwell di NVIDIA.

CoreWeave e altre aziende investono 8,2 miliardi nei data center nel Regno Unito

CoreWeave, un fornitore di cloud specializzato sostenuto da Nvidia, è tra le aziende che hanno annunciato un investimento complessivo di 8,2 miliardi di dollari nei data center nel Regno Unito. Questo investimento segna un passo significativo nella crescita dell’infrastruttura AI nel paese, contribuendo a rafforzare la posizione del Regno Unito come hub tecnologico.

AMD Instinct MI325X: La Nuova Frontiera nell’Intelligenza Artificiale per Competere con Nvidia

AMD ha svelato il suo ultimo chip per intelligenza artificiale, l’Instinct MI325X, durante un evento volto a sfidare il dominio di Nvidia nel mercato delle GPU per data center. Questo nuovo chip inizierà la produzione entro la fine del 2024 ed è progettato per competere direttamente con i prossimi chip Blackwell di Nvidia, che si prevede inizieranno a essere spediti all’inizio del prossimo anno.

Il Futuro dell’AI secondo Jensen Huang di Nvidia

Jensen Huang, CEO di Nvidia, ha dichiarato che il futuro dell’intelligenza artificiale (AI) sarà caratterizzato da servizi in grado di “ragionare”. Tuttavia, ha sottolineato che è necessario ridurre i costi di calcolo per raggiungere questa fase, come riportato da Bloomberg News.

Durante un podcast con Rene Haas, CEO di Arm, Huang ha spiegato che i prossimi strumenti AI saranno in grado di rispondere a domande attraverso centinaia o migliaia di passaggi, riflettendo sulle proprie conclusioni. Questo approccio differenzierà il software futuro dagli attuali sistemi come ChatGPT, che Huang utilizza quotidianamente.

Foxconn sta costruendo il più grande impianto di produzione SUPERCHIPS al mondo

l gigante tecnologico taiwanese Foxconn sta costruendo il più grande impianto di produzione al mondo, dedicato alla realizzazione dei superchip NvidiaGB200 per soddisfare la “enorme” domanda. “Stiamo costruendo il più grande impianto di produzione di GB200 del pianeta,” ha dichiarato il dirigente senior Benjamin Ting durante l’annuale Hon Hai Tech Day a Taipei.

“Non credo di poter dire dove al momento, ma è il più grande del pianeta,”

La nuova fabbrica è destinata a soddisfare la crescente domanda della piattaforma Blackwell di Nvidia, fondamentale per la tecnologia dei server AI. “La domanda è estremamente elevata,”

Ting.

Foxconn, il maggiore assemblatore di iPhone per Apple, sta usando le sue capacità produttive per entrare nel mercato in crescita dell’IA. Il presidente Young Liu ha detto che la catena di approvvigionamento dell’azienda è pronta per la rivoluzione dell’IA. Foxconn ha migliorato le sue tecniche di produzione, includendo tecnologie avanzate di raffreddamento a liquido e dissipazione del calore per i server GB200.

DigitalOcean Introduce un Modello di Pagamento Flessibile per GPU Nvidia H100

DigitalOcean Holdings ha recentemente lanciato un modello di pagamento flessibile che consente a startup e aziende digitali in crescita di accedere alle GPU H100 di Nvidia per applicazioni di intelligenza artificiale (AI). Questa iniziativa mira a democratizzare lo sviluppo dell’AI fornendo risorse informatiche ad alte prestazioni a un costo accessibile, senza la necessità di investimenti iniziali significativi in hardware.

NVIDIA Lancia Nemotron 51B

NVIDIA ha recentemente presentato il Nemotron 51B, un modello di linguaggio AI all’avanguardia che vanta metriche di prestazione impressionanti, essendo 220% più veloce e capace di gestire 400% in più di carico di lavoro rispetto al suo predecessore, il Llama 3.1 70B. Questo modello rappresenta un significativo progresso nella tecnologia AI, in particolare in termini di velocità e scalabilità, rendendolo un rilascio notevole nel campo dell’AI generativa.

Collaborazioni di Salesforce con Google e NVIDIA per Avanzare gli Agenti AI

Salesforce ha recentemente annunciato importanti collaborazioni con NVIDIA e Google Cloud per migliorare le proprie capacità di intelligenza artificiale, in particolare attraverso la nuova iniziativa chiamata Agentforce. Questo annuncio è stato fatto durante l’evento Dreamforce 2024 a San Francisco.

NVIDIA vuole acquisire OctoAI

Nvidia è attualmente in trattative avanzate per acquisire la startup software OctoAI, con un’offerta di circa 165 milioni di dollari.

Questa informazione è stata riportata da The Information, che ha citato un documento inviato agli azionisti di OctoAI.

Jensen Huang NVDIA alla Goldman Sachs Communacopia + Technology Conference

Il CEO di Nvidia Jensen Huang ha affermato che un trilione di dollari di data center generici saranno modernizzati in elaborazione accelerata.

“Questo accadrà indipendentemente da tutto”, ha osservato Huang mentre discuteva del mercato dei data center.

Xockets accusa Nvidia e Microsoft di aver violato i brevetti e di aver formato un cartello

Xockets, una startup con sede in Texas co-fondata dall’ingegnere Parin Dalal, ha intentato una causa contro Nvidia e Microsoft, accusandole di violazione di brevetto e violazioni delle leggi antitrust. La causa, presentata al Tribunale Distrettuale degli Stati Uniti per il Western District del Texas, sostiene che entrambe le aziende abbiano utilizzato illegalmente la tecnologia del data processing unit (DPU) brevettata da Xockets, fondamentale per migliorare l’efficienza delle infrastrutture cloud e delle applicazioni di intelligenza artificiale.

Nvdia analisi di un crollo

Il recente crollo delle azioni di Nvidia ha suscitato un ampio dibattito nel mondo finanziario, con l’analista della Deutsche Bank, Jim Reid, che ha evidenziato come la società abbia registrato metà dei maggiori cali di mercato nella storia. Martedì, le azioni di Nvidia sono scese del 9,5%, comportando una perdita di circa 279 miliardi di dollari in valore di mercato, il che rappresenta il più grande calo di capitalizzazione di mercato in un solo giorno nella storia delle aziende pubbliche statunitensi.

EAGLE: un modello di linguaggio di visione super impressionante disponibile in 7B, 13B e 13B perfezionato su Chat

EAGLE è un innovativo modello di intelligenza artificiale sviluppato da Nvidia, progettato per migliorare significativamente la comprensione visiva e testuale delle macchine. Questo modello si distingue per la sua capacità di elaborare immagini ad alta risoluzione e di integrare diversi encoder visivi, rendendolo particolarmente efficace in compiti complessi che richiedono una comprensione multimodale.

La famiglia di modelli Eagle, nota anche come  NVEagle , include diverse varianti su misura per diverse attività e requisiti. I modelli sono disponibili in tre versioni principali: Eagle-X5-7B , Eagle-X5-13B ed Eagle-X5-13B-Chat .

Dai un’occhiata alle Model Cards e alla Demo . 

Podcast: Nvdia utili impressionanti ma cosa spaventa gli investitori?

Gli investitori sono attualmente inquieti nonostante Nvidia abbia riportato utili impressionanti, principalmente a causa di preoccupazioni relative ai ritardi nella distribuzione del suo chip AI di nuova generazione, Blackwell.

Podcast Un caffe’ al Bar dei Daini: Nvidia e i Risultati Attesi, Tra Domanda Elevata e Sfide Produttive

Benvenuti a “Un Caffè al Bar dei Daini”! Oggi ci soffermiamo su Nvidia, che è attesa a pubblicare i risultati del secondo trimestre dopo la chiusura delle contrattazioni mercoledì, 28 agosto 2024. Tra aspettative elevate e sfide produttive, gli occhi degli investitori sono puntati sul colosso dei chip per capire se riuscirà a mantenere il suo slancio di crescita.

Prendete un caffè e preparatevi a immergervi nei dettagli di questa attesissima pubblicazione.

SLMming Down Latency: modello di linguaggio ridotto su dispositivo di NVIDIA rende gli esseri umani digitali più realistici: JAMES

NVIDIA ha recentemente presentato alla Gamescom 2024 il suo primo modello di linguaggio ridotto su dispositivo, il Nemotron-4 4B, parte della suite NVIDIA ACE.

Questa tecnologia rappresenta un passo significativo verso la creazione di “umani digitali” più realistici nei videogiochi, in particolare nel titolo Mecha BREAK di Amazing Seasun Games, il primo a integrare completamente questa innovazione.

Cosa è NVIDIA ACE e come funziona?

NVIDIA ACE (AI Companions for Entertainment) è una suite di strumenti progettati per migliorare l’interazione tra i giocatori e i personaggi non giocanti (NPC).

Con l’implementazione del Nemotron-4 4B, i NPC possono ora conversare in modo più naturale e coinvolgente, simile a come farebbe un compagno reale. Questo modello di linguaggio ridotto è alimentato localmente da RTX AI, permettendo risposte più rapide e pertinenti, il che è cruciale per esperienze di gioco immersive.

NVDIA rilascia Mistral-NeMo-Minitron 8B, SML allo state dell’arte

NVIDIA ha recentemente lanciato un nuovo modello di linguaggio di piccole dimensioni chiamato Mistral-NeMo-Minitron 8B, che offre un’accuratezza all’avanguardia pur essendo compatto abbastanza da funzionare su postazioni di lavoro con schede NVIDIA RTX di fascia consumer.

Nvidia sotto esame del Dipartimento di Giustizia: “In mezzo a un dominio di mercato senza precedenti”

Nvidia sta affrontando un’attenta analisi negli Stati Uniti per accuse di pratiche anticoncorrenziali, in particolare per quanto riguarda le sue tattiche di vendita e il bundling dei prodotti. Il Dipartimento di Giustizia degli Stati Uniti (DoJ) ha avviato un’indagine in seguito alle denunce dei rivali, tra cui Advanced Micro Devices (AMD).

Huawei sta per lanciare un nuovo chip per l’intelligenza artificiale

Huawei Technologies sta per lanciare un nuovo chip per l’intelligenza artificiale, cercando di superare le sanzioni USA e competere con Nvidia, ha riportato il Wall Street Journal.

Di recente, aziende Internet e operatori di telecomunicazioni cinesi hanno testato il nuovo chip, Ascend 910C, secondo il rapporto. Huawei sostiene che il chip è paragonabile all’H100 di Nvidia, che non è disponibile in Cina.

Tuttavia, Huawei ha affrontato ritardi nella produzione dei suoi chip attuali e potrebbe subire ulteriori restrizioni dagli Stati Uniti, impedendole di ottenere parti di macchine e chip di memoria per l’hardware AI.

Progetto Ceiba: Il Supercomputer AI di AWS e NVIDIA

Ripensando all’evento AWS re:Invent 2023, Jensen Huang, fondatore e CEO di NVIDIA, ha parlato sul palco con il CEO di AWS Adam Selipsky. Hanno discusso di come NVIDIA e AWS stiano collaborando per permettere a milioni di sviluppatori di accedere a tecnologie avanzate per innovare rapidamente con l’intelligenza artificiale generativa.

AWS e NVIDIA hanno rafforzato la loro collaborazione al GTC 2024. I CEO delle due aziende hanno discusso la loro partnership e l’evoluzione dell’intelligenza artificiale in un comunicato stampa:

“La profonda collaborazione tra le nostre due organizzazioni risale a più di 13 anni fa, quando insieme abbiamo lanciato la prima istanza cloud GPU al mondo su AWS, e oggi offriamo la più ampia gamma di soluzioni GPU NVIDIA per i clienti”, afferma Adam Selipsky , CEO di AWS. “Il processore Grace Blackwell di nuova generazione di NVIDIA segna un significativo passo avanti nell’intelligenza artificiale generativa e nel GPU computing. Se combinato con la potente rete Elastic Fabric Adapter di AWS, il clustering iperscalabile di Amazon EC2 UltraClusters e le esclusive funzionalità di virtualizzazione e sicurezza avanzate del nostro AWS Nitro System , rendiamo possibile per i clienti creare ed eseguire modelli di linguaggio di grandi dimensioni con più di trilioni di parametri più velocemente, su larga scala e in modo più sicuro che altrove. Insieme, continuiamo a innovare per rendere AWS il posto migliore in cui eseguire GPU NVIDIA nel cloud”.

Il Progetto Ceiba, una collaborazione tra Amazon Web Services (AWS) e NVIDIA, è destinato a rivoluzionare il mondo dell’intelligenza artificiale (AI) costruendo il più grande supercomputer AI nel cloud. Questo supercomputer all’avanguardia, ospitato esclusivamente su AWS, alimenterà gli sforzi di ricerca e sviluppo di NVIDIA nell’AI, spingendo i confini di ciò che è possibile in campi come i modelli di linguaggio di grandi dimensioni (LLM), la grafica, la simulazione, la biologia digitale, la robotica, i veicoli autonomi e la previsione climatica.

Il ritardo del nuovo chip AI di Nvidia, impatti

Il recente ritardo nei lanci dei chip di intelligenza artificiale di Nvidia , causato da difetti di progettazione scoperti all’ultimo minuto, rappresenta un serio problema sia per l’azienda che per i suoi clienti principali come Meta , Google e Microsoft.

Ci risiamo: Nvidia è in una bolla e il tema dell’intelligenza artificiale è “troppo pubblicizzato” – Elliott Management

Il fondo speculativo Elliott Management ha dichiarato che Nvidia è in una bolla perché il tema dell’intelligenza artificiale che sostiene il prezzo delle sue azioni è sopravvalutato.

Secondo una lettera del secondo trimestre vista dal Financial Times, Elliott Management ha detto che le mega-cap tecnologiche, come Nvidia, sono in una “terra di bolle” e che l’hedge fund dubita che queste aziende continueranno a comprare GPU di Nvidia in grandi quantità.

I data center di Meta AI contengono circa 600.000 GPU H100 di Nvidia

Il CEO di Nvidia Jensen Huang ha annunciato che i data center di Meta AI contengono circa 600.000 GPU H100 di Nvidia, durante un’intervista al SIGGRAPH 2024 di Denver.

Mark Zuckerberg e Jensen Huang a SIGGRAPH 2024

SIGGRAPH 2024 si svolgera’ dal 30 luglio al 1 agosto 2024 presso il Colorado Convention Center di Denver. Questa conferenza è considerata la più importante esposizione su computer grafica e tecniche interattive, celebrando 50 anni di innovazione nel settore. Durante l’evento, i partecipanti esploreranno i progressi in vari ambiti, tra cui arte digitale, animazione, effetti visivi, realtà mista e intelligenza artificiale.

Vendi e Pentiti Huang NVDIA vende 169M$ di Azioni

Il CEO di Nvidia, Jensen Huang, ha venduto 1,3 milioni di azioni della sua azienda la scorsa settimana, approfittando dell’aumento del prezzo del 155% dall’inizio dell’anno. Le azioni Nvidia sono aumentate di un altro 4% mercoledì, con la chiusura anticipata del mercato azionario per il 4 luglio.

Gaudi 3 più economico dell’H100 di Nvidia

L’acceleratore AI Gaudi 3 di Intel si sta affermando come un’opzione economica rispetto all’H100 di Nvidia. Intel offre una scheda con otto processori Gaudi 3 a $125.000, a un prezzo molto inferiore rispetto a Nvidia, e sostiene di avere prestazioni migliori nei carichi di lavoro AI, secondo TechRadar e Ars Technica.

Costo Gaudi 3 vs. H100

Nvidia prosegue nel percorso di certificazione dei chip AI HBM di Samsung

Il CEO di Nvidia, Jensen Huang, ha detto ai giornalisti che i chip di memoria veloci di Samsung devono ancora essere certificati per l’uso nell’addestramento dell’intelligenza artificiale, secondo Bloomberg.

Huang ha anche detto che Nvidia sta valutando i chip HBM di Micron Technology e Samsung per vedere se possono competere con quelli di SK Hynix, che già fornisce chip HBM3 e HBM3e a Nvidia, riporta il rapporto. Huang ha confermato che i chip HBM di Samsung non hanno superato i test di qualificazione e richiedono più lavoro di ingegneria.

Novita’ in casa Cisco Cohere e Nvdia

Cisco Systems ha unito le forze con diverse startup di intelligenza artificiale per creare un fondo globale da 1 miliardo di dollari. L’obiettivo è supportare l’ecosistema delle startup e sviluppare soluzioni IA affidabili.

“I nostri recenti investimenti in aziende di intelligenza artificiale generativa si allineano perfettamente con questa strategia di lunga data”,

“Oltre a costruire tecnologie essenziali per connettere, proteggere e far progredire l’intelligenza artificiale, Cisco si impegna a investire nell’ecosistema AI più ampio per soddisfare in modo più efficace le esigenze dei nostri clienti”,

Mark Patterson, Chief Strategy Officer di Cisco.

Nvdia ha superato i 1000$ ma le Chips fanno fatica

Giovedì le azioni dei semiconduttori sono state per lo più in calo, nonostante Nvidia, leader del settore, abbia annunciato risultati trimestrali e previsioni superiori alle aspettative, ottenendo grandi consensi a Wall Street. Le azioni di Nvidia sono aumentate del 10%, superando i 1.000 dollari, dopo che l’azienda ha previsto ricavi per il secondo trimestre di 28 miliardi di dollari, con una variazione del 2%. Gli analisti avevano stimato entrate per 26,8 miliardi di dollari per la società guidata da Jensen Huang. Il margine lordo rettificato è previsto intorno al 75,5%, con una variazione di 50 punti base, mentre le spese operative rettificate dovrebbero attestarsi intorno ai 2,8 miliardi di dollari.

“La prossima rivoluzione industriale è iniziata: aziende e paesi stanno collaborando con NVIDIA per spostare i tradizionali data center da trilioni di dollari verso l’elaborazione accelerata e costruire un nuovo tipo di data center – le fabbriche di intelligenza artificiale – per produrre un nuovo bene: l’intelligenza artificiale”,

Huang

Microsoft offre AMD come alternativa a Nvdia

Microsoft ha annunciato giovedì che intende offrire ai clienti del suo servizio di cloud computing una piattaforma di chip AI sviluppata da Advanced Micro Devices (AMD), in competizione con i prodotti Nvidia, secondo quanto riportato da Reuters.

I dettagli saranno rivelati durante la conferenza degli sviluppatori Build la prossima settimana. In occasione dell’evento, l’azienda presenterà anche un’anteprima dei nuovi processori personalizzati Cobalt 100, secondo quanto riportato.

I cluster di chip AI MI300X di AMD saranno disponibili attraverso il servizio cloud Azure di Microsoft, offrendo un’alternativa alla linea di GPU H100 di Nvidia, molto richiesta e dominante nel mercato dei chip per data center per l’intelligenza artificiale.

AMD prevede entrate per circa 4 miliardi di dollari dai chip AI nel 2024 e ha sottolineato che i chip sono altamente efficaci per addestrare ed eseguire modelli IA di grandi dimensioni.

Microsoft, inoltre, vende l’accesso ai suoi chip AI autoprodotti chiamati Maia. Separatamente, Microsoft ha dichiarato che i processori Cobalt 100, che saranno presentati in anteprima la prossima settimana, offrono prestazioni superiori del 40% rispetto ad altri processori basati sulla tecnologia Arm.

Secondo il rapporto, aziende come Snowflake hanno già iniziato a utilizzarli. Microsoft aveva annunciato i chip Cobalt a novembre e attualmente sono in fase di valutazione per potenziare il servizio di messaggistica Teams. Questi chip competono anche con le CPU Graviton di Amazon.com.

Foresight sfrutta NVIDIA Jetson Orin per presentare una nuova soluzione di percezione 3D a 360 gradi

Foresight Autonomous ha annunciato mercoledì una svolta con lo sviluppo di Dragonfly Vision, la sua soluzione di percezione 3D a 360 gradi, basata sulla piattaforma NVIDIA Jetson AGX Orin, facendo salire le azioni nelle prime fasi degli scambi.

Grazie ad algoritmi avanzati e all’intelligenza artificiale, Dragonfly Vision consente una precisione e una copertura della superficie stradale senza precedenti, offrendo soluzioni rivoluzionarie e convenienti rispetto ai sistemi LiDAR tradizionali.

Utilizzando la notevole potenza di calcolo dell’intelligenza artificiale della piattaforma NVIDIA Jetson AGX Orin, Foresight può creare una soluzione completa per il rilevamento degli ostacoli, compreso il rilevamento di oggetti non classificati.

Il system-on-module NVIDIA Jetson AGX Orin viene utilizzato per accelerare progetti di agricoltura autonoma e macchinari pesanti e supporta fino a sei canali stereo per ottenere una copertura completa attorno a qualsiasi tipo di veicolo, ha affermato Foresight Autonomous.

Nvdia DrEureka

DrEureka: Trasferimento Sim-To-Real Guidato da Modelli di Linguaggio

DrEureka rappresenta un’innovativa applicazione del concetto di trasferimento Sim-To-Real guidato da modelli di linguaggio, sviluppata da un team di ricercatori provenienti da diverse istituzioni accademiche di spicco. Tra i membri chiave di questo team troviamo Jason Ma e William Liang dell’Università di Pennsylvania, Hungju Wang, Sam Wang, Osbert Bastani e Dinesh Jayaraman, tutti coinvolti nello sviluppo e nell’implementazione di DrEureka.

Collaborazione e Contributi

La collaborazione interistituzionale è stata un elemento fondamentale per il successo di DrEureka. Oltre all’Università di Pennsylvania, il team includeva anche ricercatori di NVIDIA e dell’Università del Texas ad Austin, tra cui Yuke Zhu e Linxi “Jim” Fan. L’uguale contributo di Jason Ma e William Liang sottolinea l’importanza della collaborazione e della condivisione di conoscenze in progetti di ricerca complessi come questo.

Obiettivi e Metodologia

DrEureka si propone di superare le sfide del trasferimento Sim-To-Real attraverso l’utilizzo di modelli di linguaggio avanzati. Il team ha adottato un approccio innovativo che combina la potenza dei modelli di linguaggio con la precisione e la versatilità dei sistemi di controllo robotico.

DrEureka rappresenta un passo avanti significativo nel campo del trasferimento Sim-To-Real guidato da modelli di linguaggio. Grazie alla collaborazione interdisciplinare e all’approccio innovativo adottato dal team di ricerca, questo progetto promette di aprire nuove prospettive nel mondo dell’IA e della robotica.

Trasferimento Sim-To-Real Guidato da Modelli di Linguaggio

L’avvento dell’intelligenza artificiale (IA) ha rivoluzionato il modo in cui affrontiamo le sfide del mondo reale. Uno degli ambiti più affascinanti di questa tecnologia è il trasferimento Sim-To-Real, ovvero la capacità di trasferire le conoscenze acquisite in ambienti di simulazione al mondo fisico. Questo processo è fondamentale per l’applicazione pratica di molte soluzioni IA, come la robotica, l’automazione industriale e la guida autonoma.

Sfide del Trasferimento Sim-To-Real

Il trasferimento Sim-To-Real non è privo di sfide. Gli ambienti di simulazione, per quanto realistici, non possono replicare perfettamente la complessità e l’imprevedibilità del mondo reale. Differenze sottili, come la frizione, la dinamica dei fluidi o le interazioni con gli oggetti, possono avere un impatto significativo sulle prestazioni di un sistema IA quando viene implementato nel mondo fisico.

Inoltre, la raccolta di dati del mondo reale può essere onerosa e difficile, rendendo la creazione di modelli accurati una sfida. Questo è particolarmente vero in scenari pericolosi o inaccessibili, come la robotica spaziale o la chirurgia robotica.

Il Ruolo dei Modelli di Linguaggio

È qui che i modelli di linguaggio, come il famoso GPT-3, entrano in gioco. Questi modelli di IA, addestrati su vasti corpora di testi, hanno dimostrato una straordinaria capacità di comprendere e generare linguaggio naturale. Ma il loro potenziale va ben oltre la semplice elaborazione del linguaggio.

Recenti ricerche hanno dimostrato che i modelli di linguaggio possono essere utilizzati per guidare il trasferimento Sim-To-Real, colmando il divario tra le simulazioni e il mondo reale. Attraverso l’apprendimento di rappresentazioni astratte e la capacità di generalizzare, questi modelli possono aiutare a creare sistemi IA più robusti e adattabili.

Pagina 2 di 3

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie