Nvidia ha recentemente lanciato il suo NVLM 1.0, una famiglia di modelli di linguaggio multimodali open source, che include il modello di punta NVLM-D-72B con 72 miliardi di parametri. Questo rilascio è posizionato come un concorrente significativo rispetto ai modelli proprietari come GPT-4o di OpenAI e le offerte di Google, mostrando capacità impressionanti in compiti sia visivi che linguistici.
Tag: nvidia
Nvidia sta collaborando con l’azienda di intelligenza artificiale con sede negli Emirati Arabi Uniti, G42, per stabilire un Climate Tech Lab ad Abu Dhabi, con l’obiettivo di avanzare la tecnologia climatica attraverso soluzioni innovative basate sull’IA. Questa collaborazione è particolarmente focalizzata sul miglioramento dell’accuratezza delle previsioni meteorologiche a livello globale.
BlackRock e Microsoft hanno annunciato una significativa partnership per lanciare il Global AI Infrastructure Investment Partnership, con l’obiettivo di raccogliere 30 miliardi di dollari per sviluppare infrastrutture essenziali per l’intelligenza artificiale (AI). Questa iniziativa è progettata per affrontare le crescenti richieste di data center e progetti energetici necessari a supportare l’aumento della potenza computazionale richiesta dai modelli avanzati di AI.
Il governo degli Stati Uniti è vicino a consentire a Nvidia di esportare i suoi chip di intelligenza artificiale in Arabia Saudita, secondo quanto riportato dalla testata Semafor. Questa possibilità è emersa durante il summit sull’intelligenza artificiale, Gain, che si è tenuto a Riad dal 10 al 12 settembre 2024, dove erano presenti rappresentanti di importanti aziende del settore come Alphabet, Qualcomm e Groq.
Sale il pressing delle autorità americane su Nvidia. Il Dipartimento di Giustizia ha inviato richieste di informazioni vincolanti al colosso dei semiconduttori e ad altri produttori di chip per valutare eventuali violazioni delle norme antitrust.
Nvidia ha recentemente riportato risultati finanziari record per il secondo trimestre dell’anno fiscale 2025, con un fatturato totale di 30 miliardi di dollari, di cui 26,3 miliardi provengono dal settore dei data center.
Nvidia ha dominato il mercato delle GPU grazie all’esplosione dell’intelligenza artificiale, ma recenti analisi rivelano una vulnerabilità significativa nelle sue tecnologie, in particolare nella generazione di video. Questo aspetto potrebbe influenzare la sua posizione di mercato e aprire opportunità per i concorrenti.
Hugging Face ha recentemente annunciato un nuovo servizio di Inference-as-a-Service che sfrutta le potenzialità delle microservizi NVIDIA NIM, presentato durante la conferenza SIGGRAPH. Questo servizio offre agli sviluppatori l’accesso immediato a modelli di intelligenza artificiale (AI) di alta qualità, ottimizzati per l’efficienza e la velocità, grazie all’infrastruttura NVIDIA DGX Cloud.
Nvidia sta sviluppando una versione dei suoi nuovi chip AI di punta, la serie Blackwell, specificamente per il mercato cinese, in conformità con le attuali restrizioni alle esportazioni statunitensi.
Generare Dati Sintetici con Nemotron-4 340B di NVIDIA
NVIDIA ha recentemente annunciato il rilascio di Nemotron-4 340B, una famiglia rivoluzionaria di modelli progettati per generare dati sintetici per l’addestramento di modelli di linguaggio su larga scala (LLM) in vari ambiti commerciali. Questo lancio rappresenta un importante passo avanti nell’intelligenza artificiale generativa, offrendo un insieme completo di strumenti ottimizzati per NVIDIA NeMo e NVIDIA TensorRT-LLM, inclusi modelli all’avanguardia per istruzioni e ricompense.
La GPU di intelligenza artificiale di prossima generazione di Nvidia ), soprannominata R100, potrebbe entrare in produzione di massa alla fine del prossimo anno, ha detto martedì un analista. Le future GPU Nvidia potrebbero chiamarsi Rubin, come la famosa astronoma.
Il chip della serie R, che probabilmente utilizzerà il nodo da 3 nanometri di Taiwan Semiconductor, potrebbe essere prodotto in serie entro il quarto trimestre, con l’avvio della produzione di massa del sistema e della soluzione rack nel primo trimestre del 2026, analista di TF International Securities Ming-Chi Kuo ha detto in un post sul blog . (一些關於Nvidia下一代AI晶片R系列/R100的預測更新 )
È probabile che l’R100 utilizzi anche il chip on wafer di Taiwan Semiconductor sul packaging del substrato, proprio come fa il B100 di quest’anno . Potrebbe anche avere otto unità di memoria ad alta larghezza di banda, o HBM4, ha aggiunto Kuo.
“Nvidia si rende conto che il consumo energetico dei server AI è diventato una sfida per l’approvvigionamento dei clienti e la costruzione di data center”, ha scritto Kuo. “Pertanto, i chip della serie R e le soluzioni di sistema si concentrano sul miglioramento del consumo energetico oltre a potenziare la potenza di calcolo dell’intelligenza artificiale.”
Nvidia sta rafforzando il suo dominio nello spazio dell’intelligenza artificiale attraverso acquisizioni, le ultime delle quali sono due startup israeliane che mirano a ridurre i costi di creazione e gestione di modelli di intelligenza artificiale.
Mercoledì il colosso dei chip ha confermato che acquisirà Run:ai e si dice che abbia raggiunto un accordo per un’altra startup Deci, ha riferito The Information citando una persona coinvolta nell’accordo.
La domanda per i chip avanzati di Nvidia è aumentata poiché le aziende tecnologiche investono sempre più in modelli di intelligenza artificiale. Ma i modelli di intelligenza artificiale sono molto costosi da gestire e sono soggetti a errori, il che porta a preoccupazioni sui rendimenti di investimenti così ingenti.
Sia Deci che Run:ai lavorano per ridurre questi costi. Run:ai rende i chip AI più efficienti consentendo l’esecuzione di più carichi di lavoro in parallelo, riducendo il numero di GPU necessarie per completare le attività.
Nel frattempo, Deci modifica i modelli di intelligenza artificiale per garantire che funzionino in modo più economico. Il suo lavoro è simile a quello di OmniML, un’altra startup che Nvidia ha acquisito tranquillamente l’anno scorso.
Se Nvidia riuscisse a ridurre i costi di gestione dei modelli di intelligenza artificiale, sarebbe in grado di mantenere la domanda a lungo termine per i suoi chip che alimentano questi modelli.
Secondo il rapporto , la società dovrebbe offrire la tecnologia di Deci e OmniML insieme alla sua piattaforma di elaborazione parallela Cuda . Il servizio di supercalcolo AI DGX Cloud di Nvidia integrerà probabilmente il software Run:ai.
Nvidia ha comunicato i risultati del quarto trimestre fiscale battendo di gran lunga le previsioni di Wall Street per quanto riguarda utili e vendite: 22,10 miliardi di dollari di ricavi contro i 20,62 miliardi di dollari previsti dagli analisti e un utile per azione di 5,16 dollari rispetto ai 4,64 dollari attesi.
Nvidia, che ha beneficiato del recente boom del settore tecnologico per i grandi modelli di Intelligenza Artificiale che vengono sviluppati sui costosi processori grafici per server dell’azienda e che l’ha portata a superare Alphabet e Amazon in termini di capitalizzazione di borsa, ha messo a tacere anche i timori degli investitori sulla sua capacità di continuare a mantenere questi livelli di crescita anche per il prossimo anno, dichiarando, per bocca del suo amministratore delegato, Jensen Huang, che la domanda di GPU dell’azienda rimarrà elevata grazie all’Intelligenza Artificiale generativa e al passaggio, in tutto il settore, dai processori tradizionali a quelli ad alte prestazioni prodotti da Nvidia.
Nel complesso, il fatturato totale di Nvidia è aumentato del 265% rispetto a un anno fa, grazie alle forti vendite di chip AI per server, in particolare i chip “Hopper” dell’azienda, come l’H100, con la domanda trainata dal software aziendale e dalle applicazioni Internet per i consumatori, oltre che da diversi settori verticali, tra cui l’automotive, i servizi finanziari e la sanità.
Nonostante il rallentamento delle vendite in Cina dovuto alle restrizioni all’export imposte dal governo degli Stati Uniti per paura che i chip AI di Nvidia possano essere utilizzati per scopi militari, la società ha dichiarato di prevedere un fatturato per il trimestre in corso di 24,0 miliardi di dollari, superiore ai 22,17 miliardi di dollari attesi dagli analisti.
Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Masayoshi Son, il fondatore di SoftBank Group Corp. una delle holding giapponesi più importanti al mondo e specializzata nell’investimento in capitale di rischio, ha intenzione di raccogliere fino a 100 miliardi di dollari per finanziare un’impresa di chip in grado di competere con Nvidia Corp. e fornire semiconduttori essenziali per l’Intelligenza Artificiale.
Lo riporta Bloomberg, secondo cui il progetto, con il nome in codice di Izanagi – il dio giapponese della creazione e della vita – mira a creare una società che possa integrare al suo interno l’unità di progettazione di chip Arm Holdings (società controllata sempre da SoftBank e specializzata nel settore dei semiconduttori) e nel quale SoftBank investirebbe 30 miliardi di dollari, mentre 70 miliardi di dollari arriverebbero da investitori istituzioni del Medio Oriente.
Se avrà successo, questo progetto rappresenterà uno dei maggiori investimenti nell’ambito dell’intelligenza artificiale dall’avvento di ChatGPT, superando di gran lunga l’investimento di oltre 10 miliardi di dollari di Microsoft Corp. in OpenAI.
I dettagli su come il progetto sarà finanziato o le modalità con le quali verranno investiti i finanziamenti non sono ancora stati definiti. Quello che è noto al momento è che Son sta valutando diverse idee e strategie di investimento per rafforzare la presenza di Arm nel mercato dei chip dell’Intelligenza Artificiale, al momento dominata da Nvidia, ed esplorando la possibilità di realizzare processori di prossima generazione.
Nvidia continua la sua irresistibile ascesa in Borsa. L’azienda californiana di semiconduttori, protagonista indiscussa dei processori di intelligenza artificiale, ha raggiunto un nuovo traguardo ieri, 14 febbraio, superando Alphabet in termini di capitalizzazione di mercato, appena un giorno dopo aver superato Amazon.
Bloomberg riporta che le azioni del produttore di chip valgono ora 1,83 trilioni di dollari , battendo, anche se di poco, la capitalizzazione di mercato di 1,82 dollari della holding a cui fa capo Google. Tutto ciò rende Nvidia la quarta azienda con maggiore capitalizzazione al mondo dopo Microsoft (3,04 trilioni di dollari), Apple (2,84 trilioni di dollari) e Saudi Aramco.
La quotazione di Nvidia è il segno di quanto sia forte la domanda di chip in grado di gestire l’intelligenza artificiale all’avanguardia, nonché dell’interesse degli investitori per le aziende che producono semiconduttori.
fabio ricceri
Le azioni di Nvidia sono aumentate di oltre il 246% negli ultimi 12 mesi a causa della forte domanda per i suoi chip AI per server che possono costare più di 20 mila dollari ciascuno, che aziende come Microsoft, OpenAI e Meta acquistano a migliaia per prodotti come ChatGPT e Copilot. Motivo per cui l’azienda si sta affermando come attore chiave nella rivoluzione dell’Intelligenza Artificiale generativa, anche se progetta semplicemente i suoi chip che poi vengono prodotti da realtà come TSMC a Taiwan e Samsung in Corea del Sud.
Più in generale, si prevede che il mercato dei chip AI esploderà nei prossimi dieci anni, passando da 29 miliardi di dollari nel 2023 a quasi 260 miliardi di dollari nel 2033, con un aumento di quasi nove volte il valore dello scorso anno.