Tag: nvdia Pagina 1 di 5

Softbank vende tutto di Nvidia e punta 40 miliardi su OpenAI: la scommessa più pericolosa del capitalismo tecnologico

SoftBank ha deciso di abbandonare la regina delle GPU. Nessun rimorso, nessuna esitazione, solo una fredda strategia: vendere interamente la partecipazione in Nvidia per 5,83 miliardi di dollari e dirottare il capitale verso OpenAI, la società che oggi rappresenta insieme un miracolo di crescita e un enigma contabile. In un solo colpo, Masayoshi Son ha rinnegato la fede nel silicio per abbracciare quella nella mente artificiale, scommettendo che il futuro del potere tecnologico non passerà più dai chip ma dall’intelligenza che li governa. Una mossa che lascia Wall Street perplessa, Silicon Valley spiazzata e i regolatori americani più nervosi che mai.

AMD sfida Nvdia nella corsa all’intelligenza artificiale da un trilione di dollari

Lisa Su non fa mai giri di parole. Quando la CEO di AMD parla di “insaziabile domanda” per la potenza di calcolo destinata all’intelligenza artificiale, il mercato ascolta. Durante il Financial Analyst Day, ha alzato la posta in gioco dichiarando che il mercato totale indirizzabile dell’AI data center raggiungerà i 1000 miliardi di dollari entro il 2030, raddoppiando le precedenti previsioni. Una cifra che non solo ridisegna le ambizioni di AMD, ma riscrive anche le regole della competizione contro Nvidia, ancora saldamente al comando con una quota vicina al 90% del mercato AI.

Nvidia Blackwell Chip Cina: il silenzio rumoroso di Jensen Huang e la guerra fredda dei transistor

Il teatro globale dell’intelligenza artificiale si gioca oggi dentro un wafer di silicio grande quanto una mano. Mentre le borse oscillano e i capi di Stato recitano copioni di cooperazione, la vera partita tra Stati Uniti e Cina si misura in nanometri. Nvidia, l’azienda che più di ogni altra ha plasmato l’attuale rivoluzione dell’AI, si ritrova nel mezzo di una tensione tecnologica che somiglia sempre più a una guerra fredda fatta di transistor, embargo e dichiarazioni calibrate al millesimo di volt.

Jensen Huang avverte: la Cina sta per vincere la corsa dell’intelligenza artificiale

Il CEO di Nvidia, Jensen Huang, ha lanciato il suo avvertimento più forte: secondo lui la Cina è destinata a vincere la corsa globale all’intelligenza artificiale. In un’intervista al Financial Times, Huang ha espresso frustrazione per la crescente pressione regolatoria negli Stati Uniti, mentre Pechino sovvenziona energia e infrastrutture per potenziare i propri colossi tecnologici.

Nvidia e Hyundai: la fabbrica dell’intelligenza artificiale fisica che riscrive l’industria

C’è un’aria di rivoluzione industriale, ma non quella che odorava di carbone e ferro. Oggi profuma di silicio, di GPU e di algoritmi che imparano a vedere, capire e agire nel mondo reale. La partnership tra NVIDIA e Hyundai Motor Group, con la costruzione in Corea di una gigantesca fabbrica di intelligenza artificiale alimentata da 50.000 GPU Blackwell, non è solo un progetto tecnologico. È una dichiarazione di potenza, una mossa strategica da 3 miliardi di dollari per definire la nuova geopolitica dell’intelligenza artificiale fisica.

Nvidia e la corsa sudcoreana all’intelligenza artificiale

Jensen Huang, CEO di Nvidia, torna in Corea del Sud dopo quindici anni con l’aria di chi non si limita a fare una visita di cortesia. La sua agenda è chiara: consolidare la posizione di Nvidia come hub globale dell’AI industriale e costruire ponti tra Silicon Valley e Seoul, dove giganti come Hyundai, Samsung, SK e Naver stanno già correndo verso un futuro sempre più automatizzato. Durante il vertice APEC 2025, l’annuncio di una partnership ampliata tra Nvidia e il governo sudcoreano ha segnato una tappa cruciale: la Corea del Sud non vuole limitarsi a importare tecnologia, vuole diventare un nodo centrale nella rete globale dell’intelligenza artificiale fisica.

Nvidia è davvero ovunque? il salto quantico e il dominio infrastrutturale

Quando Jensen Huang, CEO e fondatore di Nvidia, affermò in keynote “Our GPUs are everywhere”, non stava usando un’iperbole da marketing: aveva una roadmap sotto braccio. Mercoledì a Washington, durante il GTC un palco che è ormai diventato centro strategico globale per l’IA ha mostrato come Nvidia si stia spingendo a colonizzare ogni angolo (fisico, digitale, quantico) dell’infrastruttura moderna. Le azioni NVDA sono schizzate oltre il 5 %, sfondando il muro di $200.

Da centri di ricerca governativi a reti 6G, da robotaxi a bioinformatica, Huang ha puntato tutto sull’idea che l’IA non è uno strumento: è lavoro. Chip che lavorano come operai, infrastrutture che “producono token” vocaboli dell’IA per immagini, video, molecole e persino ponti quantici-classici in un’unica sinfonia. Il claim “Nvidia è ovunque” appare provocatorio, ma dietro c’è un calcolo: visibilità su mezzo trilione di dollari di vendite previste per Blackwell e Vera Rubin fino al 2026.

Sembra tanto il gioco delle 3 carte: Nvidia, OpenAI e il prestito in bilico

L’idea che Nvidia possa garantire parte dei prestiti che OpenAI intende contrarre per costruire data center suona come un trucco da prestigiatore: sembra tutto bello, finché non si scopre l’imbroglio. Secondo il Wall Street Journal, Nvidia starebbe valutando questo passo rischioso nell’ambito di una partnership più ampia che punta a trasformare i chip in un business “a rendita”. Se OpenAI non dovesse ripagare, il gigante dei semiconduttori potrebbe trovarsi con un debito gigantesco sulle spalle.

La strategia di investimento di Nvidia: costruire un ecosistema AI da $4.5 Trilioni

Il panorama tecnologico globale è stato ridefinito dall’avvento dell’AI generativa, e nessuna azienda ne ha capitalizzato il potenziale in modo più spettacolare di Nvidia. Da quando ChatGPT ha fatto il suo debutto, i ricavi, la redditività e le riserve di liquidità del produttore di GPU ad alte prestazioni sono saliti alle stelle, portando la sua capitalizzazione di mercato a $4.5 trilioni.

Tuttavia, il successo di Nvidia non è più solo una questione di vendita di hardware. La vera narrazione strategica risiede nell’uso di questa fortuna per finanziare e in sostanza, modellare il futuro della tecnologia attraverso massicci investimenti in startup.

Nvidia DGX Spark e la rivoluzione del supercomputer AI da scrivania

C’è un momento preciso in cui la tecnologia smette di sembrare futuristica e diventa semplicemente inevitabile. Quel momento è adesso. Nvidia l’ha capito meglio di chiunque altro, e il suo DGX Spark è la prova definitiva. Un personal AI supercomputer che entra letteralmente sulla scrivania, con una potenza che fino a ieri richiedeva un data center, un climatizzatore dedicato e un contratto energetico da piccola industria. Il paradosso è che ora quella stessa potenza si collega a una presa elettrica domestica. E costa meno di un Mac Pro.

OpenAI Nvidia AMD Oracle: la nuova geopolitica del silicio

Ogni rivoluzione tecnologica ha un momento in cui smette di sembrare un esperimento e inizia a comportarsi come un impero. Nel caso dell’intelligenza artificiale, quel momento è arrivato nel 2025, quando OpenAI ha deciso che per costruire il futuro non bastavano modelli linguistici e server affittati. Serviva potenza pura, proprietà fisica dell’infrastruttura, controllo diretto dell’energia, e una rete di alleanze industriali degna della corsa allo spazio. In questa partita, Nvidia, AMD e Oracle sono diventati non semplici partner, ma co-architetti del cervello digitale che alimenterà l’economia dei prossimi decenni.

The xAI-Nvidia deal che fa tremare il mondo AI: una posta in gioco da 20 miliardi

La notizia è deflagrante: la start-up di intelligenza artificiale sostenuta da Elon Musk, xAI, starebbe ampliando il suo round di finanziamento ben oltre le stime iniziali, con un’operazione che punta a raccogliere fino a 20 miliardi di dollari, includendo anche un investimento azionario di Nvidia. Fonti vicine all’operazione sostengono che Nvidia potrebbe immettere fino a 2 miliardi di dollari nel capitale del progetto.

AMD sfida Nvidia: la scommessa da sei gigawatt con OpenAI

Buona notizia per chi ama i “colpi di scena” tecnologici: AMD e OpenAI hanno firmato un accordo pluriennale per fornire sei gigawatt di potenza di calcolo ai data center di Intelligenza Artificiale, con l’obiettivo iniziale di dispiegare un gigawatt di GPU Instinct MI450 nella seconda metà del 2026.

Questo passo ha fatto esplodere il titolo AMD in pre-market, con guadagni attorno al 24-25 %.

La portata di questa mossa non è solo finanziaria: è strategica. OpenAI non si affida più a un solo fornitore dominante (leggasi: Nvidia), ma distribuisce il rischio e impone una competizione per l’architettura che va ben oltre la semplice fornitura di chip.

Jensen Huang e la fame insaziabile di Nvidia nel mercato dei chip AI

Nvidia non compra aziende, le divora. Jensen Huang, con il suo giubbotto di pelle ormai diventato un simbolo quasi religioso della Silicon Valley, ha trascorso settembre a scrivere assegni come se il denaro fosse un concetto obsoleto. Nel giro di poche settimane ha impegnato oltre 13 miliardi di dollari, distribuendo acquisizioni, quote strategiche e investimenti con la stessa leggerezza con cui un adolescente scorre TikTok. Non è filantropia e nemmeno la solita espansione aggressiva che ci si aspetterebbe da un colosso della tecnologia. È l’ennesima dimostrazione che la parola “frenare” non esiste nel vocabolario di chi guida Nvidia, e soprattutto che la corsa al dominio nei chip AI non ammette esitazioni.

Alibaba cloud e Nvidia rafforzano la scommessa sull’embodied AI, tra robot umanoidi e infrastruttura AI

L’intelligenza artificiale senza corpo è già abbastanza spaventosa per molti, ma quella incarnata in robot e macchine autonome tocca corde molto più profonde, quasi primordiali. Alibaba Cloud e Nvidia hanno deciso di cavalcare proprio questa frontiera, annunciando a Hangzhou l’integrazione degli strumenti di embodied AI del gigante statunitense dei semiconduttori nella piattaforma cloud della società cinese. Una partnership che non sorprende nessuno, ma che racconta molto sul futuro che si sta disegnando sotto i nostri occhi, spesso più in fretta di quanto i regolatori possano leggere i documenti che loro stessi producono.

Nvidia + OpenAI: il patto da 100 miliardi che cambia le regole del gioco

Nel mondo dell’intelligenza artificiale, pochi annunci scuotono il terreno come quello di oggi: Nvidia mette sul piatto fino a 100 miliardi di dollari per OpenAI per costruire infrastrutture computazionali mastodontiche. È un passo che ridefinisce le alleanze, le dipendenze tecnologiche e apre scenari competitivi potenzialmente tumultuosi.

Secondo il comunicato ufficiale, le due aziende hanno firmato una letter of intent per realizzare almeno 10 gigawatt di data center basati su sistemi Nvidia, sufficienti a “alimentare milioni di case”. Questo porterà online il primo gigawatt nella seconda metà del 2026, utilizzando la nuova piattaforma hardware di Nvidia denominata Vera Rubin.

Mentre l’Italia approva DDL su AI, il Regno Unito costruisce fabbriche di GPU come se fossero miniere d’oro

Il paradosso è servito. Da una parte il Parlamento italiano che discute con toni solenni un disegno di legge sull’intelligenza artificiale, con la tipica liturgia normativa che somiglia più a un esercizio accademico che a una strategia industriale. Dall’altra parte il Regno Unito che, senza troppe cerimonie, annuncia con NVIDIA e i suoi partner la più massiccia operazione di rollout infrastrutturale AI della sua storia: fino a 120.000 GPU Blackwell Ultra, 11 miliardi di sterline in data center, supercomputer in arrivo e persino un progetto battezzato Stargate UK. Non è un dettaglio, è la fotografia plastica di come due paesi affrontano la cosiddetta AI industrial revolution. Da un lato la politica che si concentra su cornici etiche, dall’altro il capitalismo anglosassone che usa GPU come mattoni per costruire la sovranità digitale.

Restrizioni chip Nvidia Cina: il mito del 15 per cento e la realtà del controllo americano

C’è sempre un certo fascino nelle teorie complottiste, soprattutto quando si parla di chip, Cina e Stati Uniti. L’ultima voce che circola è quasi teatrale: la narrazione secondo cui l’Amministrazione Trump avrebbe autorizzato Nvidia a vendere i suoi chip di intelligenza artificiale a Pechino in cambio di una provvigione del 15 per cento incassata direttamente da Washington. Una sorta di pedaggio da pagare per passare la dogana della sicurezza nazionale. Peccato che non esista uno straccio di documento ufficiale a supporto e che la storia faccia acqua da tutte le parti. Ma il bello è proprio questo: nel settore dei semiconduttori, dove l’opacità geopolitica è pane quotidiano, una bugia ben raccontata suona più vera della realtà.

Partnership Nvidia Intel: il matrimonio che può cambiare la geografia dei chip

Ci sono momenti in cui la Silicon Valley sembra trasformarsi in un teatro di Broadway, dove i CEO recitano copioni che sembrano scritti da un regista visionario con un debole per i colpi di scena. La partnership Nvidia Intel rientra perfettamente in questa categoria: un’operazione da 5 miliardi di dollari che ha fatto schizzare in alto le azioni di Santa Clara e che, se letta con attenzione, segna un cambio di paradigma nel mercato globale dei semiconduttori. I protagonisti sono due colossi americani che, fino a ieri, si guardavano in cagnesco. Jensen Huang, il visionario con la giacca di pelle che ha trasformato Nvidia nel simbolo dell’intelligenza artificiale applicata, e Intel, il dinosauro della microelettronica che prova a reinventarsi dopo anni di incertezze produttive, rallentamenti tecnologici e una reputazione che ha oscillato pericolosamente tra rispetto storico e compassione industriale.

Nvidia, Jensen Huang, deluso dalle restrizioni sui chip in Cina

Il Cyberspace Administration of China (CAC) ha ordinato a grandi aziende tech cinesi tipo Alibaba, ByteDance di sospendere ordini e test del chip RTX Pro 6000D di Nvidia (versione su misura per la Cina).

Il divieto va oltre le restrizioni pregresse che avevano colpito l’H20 (altro chip Nvidia limitato) adesso anche questa versione “localizzata” non può più essere acquistata né testata. Jensen Huang, CEO di Nvidia, ha commentato esserne “deluso”, dicendo che la situazione riflette le tensioni USA-Cina più generali.

Data Center UK: il nuovo terreno di conquista di OpenAI e Nvidia

La geopolitica dell’intelligenza artificiale si è trasformata in una questione di megawatt e metri quadri di cemento raffreddato a liquido. Non si parla più di algoritmi e modelli come semplice leva competitiva, ma di chi possiede i data center UK più potenti e vicini al cuore finanziario europeo. Ed è qui che entrano in scena Sam Altman e Jensen Huang, rispettivamente volto e regista di due colossi come OpenAI e Nvidia, pronti a promettere miliardi di dollari di investimenti nel Regno Unito. Una mossa che arriva non a caso in sincronia con la visita di Donald Trump, trasformando Londra e dintorni nel palcoscenico preferito per dimostrare potenza tecnologica e influenza politica.

Nvidia fa marcia indietro sul cloud e lascia la scena ad AWS

Nvidia cloud. Suona bene, quasi come una dichiarazione di guerra, e infatti per un attimo sembrava che Jensen Huang fosse pronto a sfidare Jeff Bezos sul suo stesso terreno. Il progetto DGX Cloud era stato presentato come l’alternativa premium, l’oasi GPU-centrica dentro l’arida prateria dei cloud generalisti. Ma la realtà, come sempre, è meno poetica. Nvidia ha deciso di tirare il freno a mano. Non che chiuda il baraccone, sia chiaro, ma smette di fare la concorrenza frontale ad AWS e ai suoi cugini Microsoft e Google.

Una ritirata elegante, raccontata come “scelta strategica di collaborazione”. Tradotto dal gergo corporate: abbiamo visto che stava diventando un suicidio.Il motivo è quasi banale. Nvidia vive vendendo i suoi chip a quelli che avrebbe dovuto combattere. AWS, Microsoft Azure, Google Cloud. Non semplici clienti, ma clienti colossali che comprano in blocco l’intero arsenale di GPU H100 e presto Blackwell.

Fare la concorrenza a chi ti paga i conti significa mordere la mano che ti nutre. Huang è spavaldo, ma non stupido. Meglio ammorbidire il gioco, vendere tonnellate di silicio e lasciare che siano gli altri a sobbarcarsi il lavoro sporco di gestire data center, SLA e clienti insoddisfatti alle tre di notte.

Nvidia e la corsa ai data center da gigawatt: il futuro dell’infrastruttura AI

Quando Nvidia pubblica un bilancio che fa girare la testa agli investitori, non stiamo parlando di numeri da “cresciuto un po’”. Stiamo parlando di cifre che riscrivono la geografia economica dell’intelligenza artificiale. Jensen Huang, CEO della società, ha lanciato un’indicazione chiara: un singolo data center AI da un gigawatt costerà circa 50 miliardi di dollari. Di quei 50 miliardi, 35 miliardi finiranno nelle casse di Nvidia sotto forma di hardware, lasciando il resto per sistemi complementari. Non sono più i classici megawatt che si spostano con calma nei bilanci aziendali; qui parliamo di gigawatt, di super-fabbriche AI che potrebbero moltiplicare i costi e, ovviamente, i profitti di Nvidia.

OpenAI non sta giocando piccolo. Bloomberg ha riportato che l’azienda sta esplorando partnership in India per costruire un data center da un gigawatt e allo stesso tempo programma strutture simili negli Stati Uniti e in altre regioni globali. Tradotto in soldoni, se le stime di Nvidia reggono, il piano di OpenAI potrebbe tradursi in centinaia di miliardi di dollari destinati all’infrastruttura AI. Non è fantascienza, è capitalismo su scala industriale spinto dall’intelligenza artificiale.

Nvidia ha svelato il chip Rubin CPX, previsto per la fine del 2026

Nvidia ha appena annunciato la prossima rivoluzione nel calcolo dell’intelligenza artificiale: il chip rubin cpx, previsto per la fine del 2026. Questo nuovo prodotto non è solo un’evoluzione, ma una vera e propria reinvenzione del paradigma dell’inferenza ai massimi livelli. La promessa è audace: un chip progettato per gestire contesti complessi da milioni di token, spingendo l’ai oltre i limiti attuali.

Nebius e il nuovo gioco di potere nei Data Center AI

La scena è questa: un titolo poco noto come Nebius, capitalizzazione di mercato di circa 15 miliardi di dollari, annuncia che affitterà GPU Nvidia a Microsoft con un contratto pluriennale da 17,4 miliardi fino al 2031. Le azioni schizzano del 40% nell’after hours, gli investitori esultano e il settore dei data center AI prende nota. Non è soltanto la storia di un accordo, è la dimostrazione plastica di come si stia ridisegnando la geografia del potere tecnologico. Microsoft non compra, Microsoft affitta. Scarica il rischio, come fa da tempo con CoreWeave, e mette Nebius in prima fila nella corsa globale alle GPU.

Acquisizioni AI OpenAI compra Statsig per 1,1 miliardi e Nvidia punta su Solver

C’è un momento preciso in cui capisci che la Silicon Valley non gioca più a scacchi, ma a Risiko con carri armati digitali. L’acquisizione di Statsig da parte di OpenAI per 1,1 miliardi di dollari, seguita a ruota dall’acquisto di Solver da parte di Nvidia, non è un dettaglio finanziario da colonna economica, ma il sintomo evidente che la guerra per il controllo dell’intelligenza artificiale non è più una corsa alla tecnologia, ma una lotta feroce per chi possiede il cuore stesso della sperimentazione e della produttività. La keyword è “acquisizioni AI”, ma il sottotesto è molto più cupo: il consolidamento del potere passa dall’assorbimento sistematico delle startup che avrebbero dovuto rappresentare l’alternativa.

Nvidia afferma che le affermazioni sui limiti di fornitura sono “categoricamente false”

In risposta alle notizie riportate dai media, Nvidia ha tentato di chiarire le cose e ha dichiarato che non ci sono vincoli di fornitura per l’accesso al cloud per le sue GPU H100, H200 o Blackwell.

Nvidia e il rischio di dipendere da pochi clienti

Il mito della diversificazione cade sempre quando ci si sporca le mani con i numeri. Nvidia ha appena chiuso un trimestre da record, 46,7 miliardi di dollari di ricavi con un aumento del 56% su base annua, spinta da quella che tutti ormai chiamano “l’onda lunga” dei data center per l’intelligenza artificiale. Ma poi si va a leggere il dettaglio della SEC filing e scopri che quasi il 40% di quei soldi arriva da due soli clienti. Non partner vaghi o start-up in cerca di GPU: due entità precise, etichettate come “Customer A” e “Customer B”, che insieme hanno scritto l’assegno più pesante della storia recente dei semiconduttori.

Trump conferma accordo Nvidia per la vendita di chip AI in versione ridotta alla Cina

Il teatro geopolitico della tecnologia sembra ormai un palcoscenico da tragedia greca, con l’America a recitare il ruolo del protagonista burbero che decide chi può accedere al fuoco sacro dell’intelligenza artificiale. Jensen Huang, il CEO di Nvidia con la calma zen di un monaco che vede miliardi materializzarsi tra i transistor, ha dichiarato che le discussioni con la Casa Bianca per permettere la vendita in Cina di versioni “ridotte” dei chip Blackwell richiederanno tempo. In realtà, quando parla di tempo, Huang sembra riferirsi al ritmo degli equilibri politici più che ai cicli produttivi di TSMC. Perché il mercato cinese non è una semplice appendice, ma un bottino da 50 miliardi di dollari, una cifra che persino un impero come Nvidia non può permettersi di lasciare intatta nelle mani di altri.

Nvidia e la rivoluzione della silicon photonics nei supercluster di intelligenza artificiale

Chiunque abbia seguito Hot Chips 2025 ha capito subito che il messaggio di NVIDIA era diretto e provocatorio: il futuro dei supercluster di intelligenza artificiale non dipende più solo dalla potenza di calcolo delle GPU, ma dall’efficienza dei collegamenti che le uniscono. Lo chiamano Spectrum-X Ethernet Photonics ed è qualcosa che va oltre il semplice annuncio tecnologico. È una dichiarazione di guerra energetica, un nuovo asse strategico dove la silicon photonics smette di essere un esercizio da laboratorio e diventa il cuore pulsante delle reti AI. NVIDIA non si accontenta di dominare la GPU economy, ora vuole riscrivere le regole della connettività nei data center, colonizzando quella terra di nessuno dove finora si sono mossi timidamente Intel e AMD.

Robotica cinese e Nvidia Jetson AGX Thor: l’era dell’intelligenza fisica sta iniziando

Chi pensava che la guerra tecnologica tra Stati Uniti e Cina potesse frenare la corsa dell’intelligenza artificiale applicata ai robot umanoidi non ha compreso la logica spietata del mercato globale. I nuovi protagonisti non sono le banche centrali o i ministeri della difesa, ma le schede madri, i moduli GPU e i kit di sviluppo che permettono a un robot di camminare, combattere in un ring da kickboxing o semplicemente cambiare da solo la batteria come fa il Walker S2 di UBTech. Nvidia, con il suo Jetson AGX Thor, ha deciso di puntare forte sulla Cina, nonostante le tensioni politiche, offrendo una piattaforma che promette di essere il “supercomputer definitivo per l’età dell’intelligenza fisica”. In altre parole, il cervello delle macchine che non restano più confinate nelle simulazioni digitali, ma imparano a interagire con il mondo reale.

Nvidia nemotron nano-9b-v2 l’arma segreta

Nvidia nemotron nano-9b-v2 sembra il nome di un’arma segreta e in effetti lo è. Perché in un mercato in cui ogni azienda tecnologica annuncia quotidianamente un nuovo modello linguistico con la stessa frequenza con cui i politici promettono riforme mai realizzate, questo modello appare come un sabotaggio ben calcolato. Non è l’ennesimo transformer in giacca e cravatta, ma un ibrido che scompagina le regole del gioco. E il bello è che non pretende di vivere su un cluster di GPU da milioni di dollari, ma ti guarda dritto negli occhi e ti dice: “Io mi accontento di una singola A10G, e farò più di quanto immagini”. La narrazione romantica della potenza bruta cade a pezzi quando qualcuno dimostra che con meno puoi ottenere di più, se hai progettato l’architettura giusta.

Deepseek e il formato UE8MO FP8: la mossa che può ribaltare il dominio di Nvidia

La notizia è arrivata in sordina, con una frase criptica su WeChat. DeepSeek, la start-up di intelligenza artificiale con base a Hangzhou, ha annunciato che il suo nuovo modello V3.1 è stato addestrato usando il formato dati UE8M0 FP8, “pensato per i chip domestici di prossima uscita”. Bastano nove parole a scatenare la speculazione di mezzo settore tecnologico, perché in quelle nove parole si intravede la possibilità che la Cina abbia trovato la chiave per ridurre la dipendenza dai chip americani, in particolare dalle GPU Nvidia, che oggi dominano il mercato globale dell’AI.

Il dettaglio tecnico non è banale, anzi. FP8 significa floating-point 8, un formato a precisione ridotta che consente di accelerare il training e l’inferencing dei modelli di intelligenza artificiale, con un consumo molto più basso di memoria e banda. Nvidia lo aveva già dimostrato sui suoi forum, lodando l’efficienza del formato capace di dimezzare l’uso della VRAM senza impattare i risultati. Ma DeepSeek ha introdotto una variazione ingegneristica chiamata UE8M0, che promette un ulteriore taglio del fabbisogno di potenza di calcolo, storage e larghezza di banda. Tradotto: modelli di AI avanzati possono essere addestrati e fatti girare su chip meno potenti, potenzialmente i chip cinesi che faticano ancora a reggere il confronto con le GPU americane.

Nvidia scommette sui small language models: più intelligenti, più veloci e più economici degli LLM

Small Language Models are the Future of Agentic AI

L’idea che “più grande sia meglio” sembra ormai superata. NVIDIA rompe il dogma e lancia una provocazione: i Small Language Models, o SLM, potrebbero rappresentare il futuro dell’agentic AI, facendo ciò che i colossali LLM non riescono a fare: pianificare, ricordare e agire senza sprechi. Se fino a ieri il dibattito era tutto sui modelli da decine di miliardi di parametri, oggi si parla di efficienza, specializzazione e rapidità di risposta. L’argomento non è tecnico ma filosofico: cosa serve davvero a un agente artificiale per svolgere il suo lavoro? Con una precisione chirurgica, NVIDIA suggerisce che molto spesso meno è meglio.

H20 Nvidia e il teatro della diffidenza tecnologica in Cina

Quello che sta succedendo con Nvidia in Cina è un manuale vivente di come un mercato strategico possa trasformarsi in un campo minato geopolitico, con tanto di mine messe in posizione sia da Washington che da Pechino. L’H20, nato come versione “legalmente addomesticata” delle GPU per intelligenza artificiale destinate al mercato cinese, doveva essere un compromesso elegante: abbastanza potente da restare competitivo, ma castrato quel tanto che basta per non infrangere i diktat dell’Export Administration Regulations statunitense. Poi qualcuno al Dipartimento del Commercio ha avuto l’idea geniale di monetizzare la compliance, chiedendo un 15 per cento di revenues in cambio della licenza. È come vendere un’auto con il freno a mano tirato e pretendere pure un pedaggio ad ogni chilometro.

La prossima ondata di intelligenza artificiale: l’intelligenza artificiale fisica Physical AI

Quando il laboratorio di ricerca Nvidia aprì le sue porte a nuove sfide nel 2009, era ancora un microcosmo di appena una dozzina di ricercatori concentrati sul ray tracing, una tecnica di rendering sofisticata ma di nicchia. Allora Nvidia era percepita come una fabbrica di GPU per gamer esigenti, non certo come il motore di una rivoluzione tecnologica. Oggi, quello stesso laboratorio conta oltre 400 persone e ha contribuito a trasformare l’azienda in una potenza da 4 trilioni di dollari che guida la corsa globale all’intelligenza artificiale. La nuova ossessione è la physical AI, l’intelligenza artificiale che non vive soltanto nei data center, ma interagisce fisicamente con il mondo, comandando robot e macchine autonome.

Trump apre alla vendita ridotta dei chip Blackwell di Nvidia alla Cina: geopolitica, affari e il nuovo baratto tecnologico

Trump non ha mai amato le mezze misure, ma questa volta sembra averne inventata una. L’idea di permettere a Nvidia di vendere alla Cina una versione depotenziata del chip AI Blackwell suona come un cocktail di calcolo politico, fiuto per l’affare e volontà di riscrivere le regole della diplomazia tecnologica. Un compromesso al 30-50 per cento della potenza originale, come se un’auto di lusso venisse consegnata con il limitatore inserito. La motivazione ufficiale? Gestire il rischio tecnologico e la sicurezza nazionale. La realtà, come sempre, è più torbida.

Questo non è un semplice annuncio industriale. È un’operazione chirurgica dentro la supply chain globale dell’intelligenza artificiale, con Washington che improvvisamente si atteggia a broker delle performance dei chip. La Cina vuole capacità computazionale, e non da oggi. Gli Stati Uniti vogliono risorse strategiche e vantaggi commerciali. E nel mezzo c’è Jensen Huang, CEO di Nvidia, costretto a un balletto diplomatico in cui ogni passo costa miliardi e ogni sorriso può valere una licenza di esportazione. Il paradosso è che la Casa Bianca non sta bloccando del tutto l’export, ma lo sta monetizzando.

Nvidia e la corsa per il cervello delle macchine Cosmos Reason

Quello che Nvidia ha messo sul tavolo a SIGGRAPH non è un semplice aggiornamento di prodotto, è un messaggio diretto al futuro della robotica e dell’intelligenza artificiale fisica. Cosmos Reason, con i suoi 7 miliardi di parametri, non è l’ennesimo modello vision-language: è la dichiarazione che il ragionamento applicato ai robot non è più un esercizio accademico ma una commodity tecnologica pronta a scalare. Nvidia non sta vendendo soltanto potenza di calcolo, sta cercando di diventare l’orchestratore del “pensiero” delle macchine, spostando l’asticella dal percepire al prevedere. La capacità di far “immaginare” a un agente incarnato la sequenza ottimale di azioni, basandosi su memoria e fisica del mondo, significa trasformare la pianificazione robotica in qualcosa di simile a una conversazione interna tra modelli.

Nvidia e la fiducia tradita: il caso dei chip H20 in cina e la guerra fredda tecnologica

Non capita tutti i giorni che un gigante del chip come Nvidia si ritrovi al centro di un terremoto di fiducia da parte di uno dei mercati più ambiti al mondo. La storia dell’H20, il processore di intelligenza artificiale “su misura” per la Cina, è l’ennesimo esempio di come la tecnologia oggi sia una partita geopolitica dove il sospetto domina più della logica. Nvidia, dopo aver ottenuto il via libera da Washington per esportare l’H20 in Cina pagando il 15 per cento dei ricavi allo Stato americano, si trova accusata dai media statali cinesi di aver inserito “back door” di sorveglianza. Il tutto mentre il colosso rassicura che non ci sono “kill switch” o spyware nei suoi chip, a dimostrazione che la fiducia in ambito tecnologico è ormai un bene più fragile del silicio stesso.

Il paradosso è bello e grosso. Da un lato, Nvidia accetta di versare una percentuale sostanziosa delle sue vendite alla Casa Bianca, come pegno di un accordo fragile e geopoliticamente carico. Dall’altro, Pechino risponde con una campagna di demonizzazione che mette sotto accusa proprio il chip che dovrebbe alimentare il futuro dell’AI cinese. Il commento su Yuyuan Tantian di China Central Television è impietoso: “Un chip né avanzato, né sicuro, né rispettoso dell’ambiente, è semplicemente un prodotto da rifiutare”. Ironia della sorte, la strategia di Nvidia si ritorce contro, come un moderno gioco di specchi in cui ogni mossa è monitorata da occhi governativi. Una curiosità storica emerge dal passato, quando nel 1992 si parlava già di tentativi americani di inserire back door nei chip per motivi di sicurezza nazionale. Oggi, quella paranoia diventa mainstream, soprattutto nel contesto della guerra commerciale e tecnologica Usa-Cina.

Nvidia e AMD pagheranno una quota delle vendite di chip ai cinesi: il nuovo patto americano che riscrive le regole del gioco

Un accordo “altamente insolito” sta scuotendo il mondo dell’intelligenza artificiale e dei semiconduttori. Nvidia e AMD, due colossi della produzione di chip AI, hanno accettato di cedere una fetta dei ricavi delle loro vendite in Cina al governo statunitense. Non è uno scherzo, né una mera questione di cortesia commerciale: il Financial Times ha svelato come Nvidia condividerà il 15% dei profitti derivanti dalle vendite dei suoi chip H20 in Cina, mentre AMD applicherà la stessa percentuale sulle entrate dei chip MI308. Un modo piuttosto diretto per mettere il governo americano dentro al business della tecnologia made in USA esportata ai rivali geopolitici.

Pagina 1 di 5

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie