Categoria: Chip Pagina 1 di 4

AMD sfida Nvdia nella corsa all’intelligenza artificiale da un trilione di dollari

Lisa Su non fa mai giri di parole. Quando la CEO di AMD parla di “insaziabile domanda” per la potenza di calcolo destinata all’intelligenza artificiale, il mercato ascolta. Durante il Financial Analyst Day, ha alzato la posta in gioco dichiarando che il mercato totale indirizzabile dell’AI data center raggiungerà i 1000 miliardi di dollari entro il 2030, raddoppiando le precedenti previsioni. Una cifra che non solo ridisegna le ambizioni di AMD, ma riscrive anche le regole della competizione contro Nvidia, ancora saldamente al comando con una quota vicina al 90% del mercato AI.

Tesla pensa ai chip: il piano di Musk per costruire una fabbrica tutta sua

Elon Musk ha deciso che non gli basta più dominare le auto elettriche, l’intelligenza artificiale e i razzi spaziali. Ora vuole anche mettere le mani nel cuore di silicio di tutto questo: i chip. Durante l’assemblea annuale di Tesla, il CEO ha lanciato un messaggio che ha fatto vibrare l’intero ecosistema tecnologico: “Come possiamo produrre abbastanza chip?”. La domanda non era retorica. Dopo l’approvazione del suo pacchetto retributivo da mille miliardi di dollari, Musk ha chiarito che la scarsità di semiconduttori rischia di frenare la corsa di Tesla nell’autonomia dei veicoli e nella robotica.

Nvidia Blackwell Chip Cina: il silenzio rumoroso di Jensen Huang e la guerra fredda dei transistor

Il teatro globale dell’intelligenza artificiale si gioca oggi dentro un wafer di silicio grande quanto una mano. Mentre le borse oscillano e i capi di Stato recitano copioni di cooperazione, la vera partita tra Stati Uniti e Cina si misura in nanometri. Nvidia, l’azienda che più di ogni altra ha plasmato l’attuale rivoluzione dell’AI, si ritrova nel mezzo di una tensione tecnologica che somiglia sempre più a una guerra fredda fatta di transistor, embargo e dichiarazioni calibrate al millesimo di volt.

Google Ironwood TPU entra in scena

In un mondo in cui l’intelligenza artificiale sta rapidamente oltrepassando i limiti del “solo training”, Google lancia la settima generazione della sua unità di elaborazione tensoriale: la Ironwood TPU. Il termine “inference a larga scala” acquisisce un nuovo significato, e basta leggere qualche numero per capire che non siamo più nella logica delle incrementali ottimizzazioni. Google afferma che il chip può essere collegato in un superpod da 9 216 unità.

Intel e il bilancio delle promesse ambiziose che non hanno dato frutti

Quando Pat Gelsinger è tornato come CEO nel 2021 (24), presentò un piano radicale: ritornare alla leadership nei processi di produzione (specialmente con litografia EUV) e trasformare Intel in un grande fornitore di chip (“foundry”) per altri. Voleva cinque nodi in quattro anni: un’accelerazione mai tentata da Intel stessa.

Il problema è che l’esecuzione non ha retto alla pressione. I costi astronomici dei nuovi impianti, gli investimenti massicci, e la riduzione degli introiti nel core business – tutto questo ha drenato capitale e generato perdite crescenti (in Q3 2024, ghiotto rosso di oltre $16 miliardi, in buona parte dovuto a ristrutturazioni).

Nvidia e la corsa sudcoreana all’intelligenza artificiale

Jensen Huang, CEO di Nvidia, torna in Corea del Sud dopo quindici anni con l’aria di chi non si limita a fare una visita di cortesia. La sua agenda è chiara: consolidare la posizione di Nvidia come hub globale dell’AI industriale e costruire ponti tra Silicon Valley e Seoul, dove giganti come Hyundai, Samsung, SK e Naver stanno già correndo verso un futuro sempre più automatizzato. Durante il vertice APEC 2025, l’annuncio di una partnership ampliata tra Nvidia e il governo sudcoreano ha segnato una tappa cruciale: la Corea del Sud non vuole limitarsi a importare tecnologia, vuole diventare un nodo centrale nella rete globale dell’intelligenza artificiale fisica.

Nvidia è davvero ovunque? il salto quantico e il dominio infrastrutturale

Quando Jensen Huang, CEO e fondatore di Nvidia, affermò in keynote “Our GPUs are everywhere”, non stava usando un’iperbole da marketing: aveva una roadmap sotto braccio. Mercoledì a Washington, durante il GTC un palco che è ormai diventato centro strategico globale per l’IA ha mostrato come Nvidia si stia spingendo a colonizzare ogni angolo (fisico, digitale, quantico) dell’infrastruttura moderna. Le azioni NVDA sono schizzate oltre il 5 %, sfondando il muro di $200.

Da centri di ricerca governativi a reti 6G, da robotaxi a bioinformatica, Huang ha puntato tutto sull’idea che l’IA non è uno strumento: è lavoro. Chip che lavorano come operai, infrastrutture che “producono token” vocaboli dell’IA per immagini, video, molecole e persino ponti quantici-classici in un’unica sinfonia. Il claim “Nvidia è ovunque” appare provocatorio, ma dietro c’è un calcolo: visibilità su mezzo trilione di dollari di vendite previste per Blackwell e Vera Rubin fino al 2026.

Qualcomm sfida Nvidia con i suoi nuovi chip AI200 e AI250

Qualcomm ha annunciato il lancio dei suoi nuovi chip AI200 e AI250, segnando un deciso ingresso nel mercato dei data center per l’intelligenza artificiale. Questi chip sono progettati per ottimizzare l’inferenza AI, ovvero l’esecuzione di modelli già addestrati, piuttosto che il loro addestramento. L’AI200 sarà disponibile nel 2026, mentre l’AI250 è previsto per il 2027. Questi sviluppi pongono Qualcomm in diretta competizione con leader consolidati come Nvidia e AMD nel settore dei server AI rack-scale.

Il miracolo crio tomografico


Secondo la pubblicazione su Nature Communications, il team guidato da ricercatori della Peking University ha applicato una cryo-electron tomography (cryo-ET) per visualizzare, in condizioni prossime al liquido, la struttura tridimensionale, l’interfaccia e l’intreccio (entanglement) delle catene polimeriche del photoresist.

La tecnica sfrutta il congelamento rapido (plunge freezing) per immobilizzare le molecole in “stato nativo”, evitando l’artefatto da essiccamento o distorsione che affligge le tecniche convenzionali come SEM o AFM, le quali non sono in grado di osservare le molecole nel loro ambiente liquido originario.

Chip di cartone o realtà? la Cina sfida Nvidia nel calcolo analogico

C’è un rumore strano nel mondo dei transistor. Un suono di ritorno al passato che arriva da Pechino, dove un gruppo di ricercatori dell’Università di Peking sostiene di aver costruito un chip analogico capace di battere le GPU digitali più avanzate, compresa la mitologica Nvidia H100. Non è una boutade accademica: la notizia è finita su Nature Electronics, il che in sé è già un indicatore di serietà scientifica, anche se la prudenza rimane d’obbligo. Secondo i dati dichiarati, il nuovo superchip cinese, basato su memorie resistive, potrebbe elaborare calcoli mille volte più velocemente e con cento volte meno energia rispetto ai processori digitali tradizionali. Sembra fantascienza, ma la fisica a volte ha la tendenza a fare il verso alla magia.

NVIDIA Blackwell TSMC Arizona onshoring semiconduttori

AI ha acceso una nuova rivoluzione industriale e stavolta gli Stati Uniti non vogliono guardare da lontano. NVIDIA e TSMC stanno costruendo l’infrastruttura che alimenta le fabbriche di intelligenza artificiale, direttamente sul suolo americano. Jensen Huang, fondatore e CEO di NVIDIA, ha visitato lo stabilimento TSMC a Phoenix per celebrare il primo wafer NVIDIA Blackwell prodotto negli Stati Uniti, segnando l’inizio della produzione di massa di Blackwell in patria.

Alibaba lancia Aegaeon e riduce l’uso di GPU Nvdia dell’82 per cento

Alibaba Group Holding ha appena scosso il mondo dell’intelligenza artificiale e del cloud computing con l’annuncio di Aegaeon, un sistema di pooling computazionale che promette di rivoluzionare il modo in cui le GPU vengono utilizzate per servire modelli di AI su larga scala. Secondo quanto riportato in un paper presentato al 31° Symposium on Operating Systems Principles a Seoul, il nuovo sistema ha permesso di ridurre il numero di GPU Nvidia H20 necessarie per gestire decine di modelli fino a 72 miliardi di parametri da 1.192 a soli 213 unità, un taglio impressionante dell’82 per cento. La beta di Aegaeon è stata testata per oltre tre mesi nel marketplace di modelli di Alibaba Cloud, evidenziando come la gestione delle risorse sia stata tradizionalmente inefficiente.

META abdica a Intel? la scommessa audace su ARM che scuote l’architettura dell’AI

La notizia è esplosa come un fulmine in (quasi) cielo sereno: Meta Platforms e Arm Holdings hanno ufficializzato mercoledì una partnership strategica tramite la quale Meta impiegherà le piattaforme data center di Arm per potenziare i suoi sistemi di classificazione e raccomandazione. Lo scopo: sostituire (in parte) l’egemonia dell’architettura x86 con soluzioni basate su Neoverse, più efficienti dal punto di vista energetico.

La Germania scopre il chip nazionale: nasce la strategia per l’autonomia digitale europea

È ufficiale: anche Berlino vuole il suo chip. Non quello da aperitivo, ma quello che, in un mondo dominato da silicio, intelligenza artificiale e geopolitica, vale più dell’oro. Il governo tedesco ha approvato la nuova “Strategia per la microelettronica”, un piano ambizioso che promette di trasformare la Germania in una potenza autonoma nella produzione di microprocessori e tecnologie strategiche. “L’obiettivo è rafforzare l’autonomia europea”, ha dichiarato Stefan Kornelius, portavoce del governo federale, con quella calma teutonica che fa sembrare perfino un piano decennale una faccenda di routine.

Wingtech sotto pressione in Europa: Olanda congela controllo di Nexperia e accende tensioni geopolitiche

La recente mossa del governo olandese di prendere il controllo del produttore di semiconduttori Nexperia, controllato dalla cinese Wingtech, segna un punto di svolta nel conflitto tecnologico tra Stati Uniti, Europa e Cina. L’intervento, effettuato ai sensi della legge olandese sulla disponibilità delle merci, è stato motivato da presunti gravi difetti di governance che minacciano la sicurezza economica europea.

L’annuncio: parole grosse per “il più avanzato semiconductor process mai realizzato negli Stati Uniti”

Intel ha presentato Panther Lake come il primo chip costruito su processo 18A, definendolo “il più avanzato processo di semiconduttore mai sviluppato e prodotto negli Stati Uniti”. Contemporaneamente ha mostrato l’anticipazione del processore server Clearwater Forest anche questo basato su 18A, con lancio previsto nella prima metà del 2026. Entrambi i chip e altri prodotti 18A saranno prodotti in Fab 52, il nuovo stabilimento di Intel ad Chandler, Arizona, che dovrebbe entrare in produzione ad alto volume entro fine anno secondo Intel.

Le promesse includono “catalizzatori per l’innovazione” derivanti dall’integrazione fra progettazione, processo, packaging avanzato e produzione interna. Il CEO Lip-Bu Tan ha sottolineato che gli Stati Uniti restano il fulcro della R&D e produzione avanzata di Intel un messaggio con doppio scopo politico e tecnologico.

Senato USA approva legge obbliga Nvidia e AMD a prioritizzare clienti interni verso China

Il Senato americano ha approvato una legge che obbliga produttori di chip per intelligenza artificiale avanzata come Nvidia e AMD a garantire priorità di fornitura alle aziende statunitensi prima di esportare in Cina.

“Oggi il Senato ha agito per assicurare che i clienti americani comprese le piccole imprese e le startup non siano costretti a fare la fila dietro ai giganti tecnologici cinesi quando acquistano i chip AI più recenti,”

Elizabeth Warren, co-sponsor democratica principale

Una decisione che accende la tensione tra protezionismo tecnologico e libertà di mercato, e che molti nel settore considerano un freno all’innovazione.

OpenAI e AMD: la mossa che potrebbe far lievitare il valore di AMD fino a 100 miliardi di dollari

AMD-OpenAI $100B Partnership: The Strategic Chip Deal Reshaping AI Infrastructure - FourWeekMBA

Nel mondo delle tecnologie emergenti, dove la velocità è tutto e l’innovazione è la moneta corrente, AMD e OpenAI hanno appena lanciato una mossa che potrebbe riscrivere le regole del gioco. Non stiamo parlando di una semplice partnership commerciale, ma di un’operazione finanziaria audace che potrebbe segnare un punto di svolta nella competizione tra i giganti dell’AI. La notizia è fresca: OpenAI ha siglato un accordo con AMD per l’acquisto e la distribuzione di ben 6 gigawatt di capacità computazionale, utilizzando le GPU Instinct MI450 di AMD. Ma ecco la parte che fa alzare le sopracciglia: OpenAI non pagherà in contante, ma con warrant azionari AMD, fino a un massimo di 160 milioni di azioni, a un prezzo simbolico di 0,01 dollari ciascuna. Un’operazione che potrebbe valere fino a 100 miliardi di dollari, se tutto va secondo i piani.

Perfetta illusione: come la partnership AMD OpenAI ridefinisce la finanza tecnologica dell’intelligenza artificiale

C’è qualcosa di esegetico nel modo in cui l’intelligenza artificiale sta riscrivendo non solo il codice dei computer, ma anche quello della finanza. La nuova partnership tra AMD e OpenAI ne è la prova vivente. Da un lato c’è AMD, la storica rivale di Nvidia, pronta a scalare il monte impossibile delle GPU per l’intelligenza artificiale. Dall’altro c’è OpenAI, l’azienda che ha trasformato l’intelligenza artificiale da fantascienza a infrastruttura strategica. Il risultato è un accordo che più che una transazione commerciale somiglia a un esperimento di ingegneria finanziaria in tempo reale, dove la valuta non è più il denaro ma la fiducia nel futuro del titolo azionario.

AMD sfida Nvidia: la scommessa da sei gigawatt con OpenAI

Buona notizia per chi ama i “colpi di scena” tecnologici: AMD e OpenAI hanno firmato un accordo pluriennale per fornire sei gigawatt di potenza di calcolo ai data center di Intelligenza Artificiale, con l’obiettivo iniziale di dispiegare un gigawatt di GPU Instinct MI450 nella seconda metà del 2026.

Questo passo ha fatto esplodere il titolo AMD in pre-market, con guadagni attorno al 24-25 %.

La portata di questa mossa non è solo finanziaria: è strategica. OpenAI non si affida più a un solo fornitore dominante (leggasi: Nvidia), ma distribuisce il rischio e impone una competizione per l’architettura che va ben oltre la semplice fornitura di chip.

IBM Chip neuromorfici per intelligenza artificiale efficiente

Il mondo dell’AI sta correndo così veloce che i data center sembrano turbine di centrali elettriche. IBM e Intel hanno appena lanciato prototipi di chip neuromorfici capaci di riscrivere le regole del gioco, promettendo un abbattimento del consumo energetico fino al 90 percento rispetto ai processori tradizionali. La chiave? Reti di memristor che tentano di replicare, con un minimalismo elettrico quasi poetico, la logica dei neuroni del cervello umano. Non è fantascienza, ma ingegneria avanzata al limite del paradosso: meno energia, più calcolo, più intelligenza distribuita sul bordo della rete.

OpenAI si allea con Samsung e SK Hynix per dominare l’era dei chip AI

La notizia che OpenAI stringa partnership strategiche con Samsung e SK Hynix non è solo un accordo industriale, ma un terremoto geopolitico nel cuore dell’economia dei semiconduttori. La fame insaziabile di calcolo generata dal progetto Stargate, il colossale piano infrastrutturale di OpenAI, sta ridisegnando le catene globali di fornitura e mettendo la Corea del Sud al centro del futuro dell’intelligenza artificiale. Mentre le cancellerie occidentali parlano di regolamentazioni etiche e linee guida sull’uso responsabile dell’AI, la realtà più cruda è che senza chip avanzati non c’è modello, non c’è generazione di testo, non c’è futuro digitale. E OpenAI lo sa bene, al punto da ordinare fino a 900.000 wafer di semiconduttori al mese da Samsung e SK Hynix. Un numero che non si legge nei bilanci di una startup, ma nei piani quinquennali di una superpotenza.

Jensen Huang e la fame insaziabile di Nvidia nel mercato dei chip AI

Nvidia non compra aziende, le divora. Jensen Huang, con il suo giubbotto di pelle ormai diventato un simbolo quasi religioso della Silicon Valley, ha trascorso settembre a scrivere assegni come se il denaro fosse un concetto obsoleto. Nel giro di poche settimane ha impegnato oltre 13 miliardi di dollari, distribuendo acquisizioni, quote strategiche e investimenti con la stessa leggerezza con cui un adolescente scorre TikTok. Non è filantropia e nemmeno la solita espansione aggressiva che ci si aspetterebbe da un colosso della tecnologia. È l’ennesima dimostrazione che la parola “frenare” non esiste nel vocabolario di chi guida Nvidia, e soprattutto che la corsa al dominio nei chip AI non ammette esitazioni.

TSMC punta sull’intelligenza artificiale per progettare chip più efficienti dal punto di vista energetico

TSMC, il colosso mondiale della produzione di semiconduttori, ha svelato una strategia rivoluzionaria per migliorare l’efficienza energetica dei chip per l’intelligenza artificiale. Durante una conferenza nella Silicon Valley, l’azienda ha mostrato come la collaborazione con Cadence Design Systems e Synopsys possa sfruttare software basati su AI per progettare chip capaci di consumare fino a dieci volte meno energia.

Trump contro i chip: la guerra dei semiconduttori e la fragile illusione dell’autarchia digitale

Donald Trump ha deciso che i semiconduttori non possono più arrivare a fiumi dalle fabbriche di Taiwan, Corea o Cina, senza che l’America si faccia almeno il favore di produrne altrettanti in casa propria. È la nuova trovata di una politica commerciale che assomiglia più a una roulette russa con supply chain globali che a un piano industriale coerente. La formula è tanto semplice quanto brutale: per ogni chip importato, devi produrne uno negli Stati Uniti. Se non ci riesci, paghi una tariffa che rischia di far sembrare il già caotico regime di dazi una partita a Tetris giocata a occhi chiusi.

OpenAI valuta il noleggio delle sue GPU Nvdia

OpenAI sta esplorando un cambiamento strategico nel finanziamento della propria infrastruttura AI, considerando l’opzione di noleggiare le GPU avanzate di Nvidia invece di acquistarle direttamente. Questa mossa potrebbe ridurre i costi dell’hardware del 10% al 15%, secondo fonti vicine alle trattative. Il possibile accordo di leasing quinquennale permetterebbe a OpenAI di evitare i significativi investimenti iniziali necessari per l’acquisto dei chip, riducendo al contempo i rischi legati all’obsolescenza tecnologica rapida.

Microsoft ha testato con successo un nuovo sistema di raffreddamento a microfluidi

I chip di intelligenza artificiale sono più caldi che mai, e Microsoft ha appena testato un metodo di raffreddamento rivoluzionario che va direttamente alla fonte. Incidendo canali microscopici direttamente nei chip di silicio, il nuovo sistema microfluidico dell’azienda rimuove il calore fino a tre volte più efficacemente rispetto alle piastre fredde avanzate odierne.

Alibaba cloud e Nvidia rafforzano la scommessa sull’embodied AI, tra robot umanoidi e infrastruttura AI

L’intelligenza artificiale senza corpo è già abbastanza spaventosa per molti, ma quella incarnata in robot e macchine autonome tocca corde molto più profonde, quasi primordiali. Alibaba Cloud e Nvidia hanno deciso di cavalcare proprio questa frontiera, annunciando a Hangzhou l’integrazione degli strumenti di embodied AI del gigante statunitense dei semiconduttori nella piattaforma cloud della società cinese. Una partnership che non sorprende nessuno, ma che racconta molto sul futuro che si sta disegnando sotto i nostri occhi, spesso più in fretta di quanto i regolatori possano leggere i documenti che loro stessi producono.

Qualcomm Snapdragon x2 e la guerra dei chip: perché i PC stanno finalmente diventando interessanti

La presentazione dei nuovi Snapdragon X2 Elite e X2 Elite Extreme non è solo l’ennesima conferenza piena di grafici, slogan e promesse di “performance rivoluzionarie”. È un atto di guerra dichiarato. Qualcomm non sta più cercando di convincere i partner a “provare” ARM su PC, sta puntando a ribaltare il tavolo di un settore che per decenni ha vissuto sotto l’egemonia di Intel e AMD, con risultati sempre meno entusiasmanti per gli utenti e con margini di profitto erosi da un lato da Apple, dall’altro da smartphone sempre più potenti.

Partnership Nvidia Intel: il matrimonio che può cambiare la geografia dei chip

Ci sono momenti in cui la Silicon Valley sembra trasformarsi in un teatro di Broadway, dove i CEO recitano copioni che sembrano scritti da un regista visionario con un debole per i colpi di scena. La partnership Nvidia Intel rientra perfettamente in questa categoria: un’operazione da 5 miliardi di dollari che ha fatto schizzare in alto le azioni di Santa Clara e che, se letta con attenzione, segna un cambio di paradigma nel mercato globale dei semiconduttori. I protagonisti sono due colossi americani che, fino a ieri, si guardavano in cagnesco. Jensen Huang, il visionario con la giacca di pelle che ha trasformato Nvidia nel simbolo dell’intelligenza artificiale applicata, e Intel, il dinosauro della microelettronica che prova a reinventarsi dopo anni di incertezze produttive, rallentamenti tecnologici e una reputazione che ha oscillato pericolosamente tra rispetto storico e compassione industriale.

Huawei SuperPod e la guerra fredda dell’intelligenza artificiale

Huawei ha deciso di smettere di giocare in difesa e con il lancio del SuperPod ha acceso i fari sul futuro dell’infrastruttura AI globale. A Shenzhen hanno capito che il vero campo di battaglia non è più il 5G o lo smartphone, ma la capacità di orchestrare decine di migliaia di chip in un ecosistema che possa rivaleggiare con il dominio quasi religioso di Nvidia. Non è un caso che la narrativa ufficiale parli di un supernode in grado di connettere 15.488 unità Ascend, quasi un inno alla ridondanza industriale cinese, come se la quantità fosse essa stessa una dimostrazione di potere.

Nvidia, Jensen Huang, deluso dalle restrizioni sui chip in Cina

Il Cyberspace Administration of China (CAC) ha ordinato a grandi aziende tech cinesi tipo Alibaba, ByteDance di sospendere ordini e test del chip RTX Pro 6000D di Nvidia (versione su misura per la Cina).

Il divieto va oltre le restrizioni pregresse che avevano colpito l’H20 (altro chip Nvidia limitato) adesso anche questa versione “localizzata” non può più essere acquistata né testata. Jensen Huang, CEO di Nvidia, ha commentato esserne “deluso”, dicendo che la situazione riflette le tensioni USA-Cina più generali.

Nvidia ha svelato il chip Rubin CPX, previsto per la fine del 2026

Nvidia ha appena annunciato la prossima rivoluzione nel calcolo dell’intelligenza artificiale: il chip rubin cpx, previsto per la fine del 2026. Questo nuovo prodotto non è solo un’evoluzione, ma una vera e propria reinvenzione del paradigma dell’inferenza ai massimi livelli. La promessa è audace: un chip progettato per gestire contesti complessi da milioni di token, spingendo l’ai oltre i limiti attuali.

OpenAI e Broadcom: la mossa da 10 miliardi che potrebbe cambiare l’equilibrio dei chip AI

OpenAI non vuole più essere solo il cliente affamato di Nvidia che compra GPU come fossero noccioline. Per anni Sam Altman ha urlato al mondo che la fame di potenza computazionale stava diventando la vera barriera all’espansione dell’intelligenza artificiale. Ora arriva la risposta: un chip proprietario, disegnato in collaborazione con Broadcom, con consegne previste già dal prossimo anno. È la prima volta che la società dietro ChatGPT decide di sporcarsi le mani con il silicio, e non è un dettaglio di poco conto.

Cina accelera verso l’autosufficienza tecnologica tra semiconduttori e intelligenza artificiale

La Cina sta correndo una maratona tecnologica a ritmo serrato, con Huawei e Alibaba in prima linea, sfidando le limitazioni imposte dagli Stati Uniti e ridefinendo il concetto stesso di indipendenza industriale. L’ultimo trimestre ha offerto uno spettacolo di contrasti: Huawei ha reclamato il trono nel mercato smartphone domestico, ma ha visto un calo del profitto netto del 32 per cento, attestandosi a 37,2 miliardi di yuan, mentre il fatturato cresceva di un modesto 4 per cento a 427 miliardi. La discrepanza tra ricavi e profitti non sorprende chi osserva il panorama tech cinese: l’azienda sta investendo massicciamente in ricerca e sviluppo, con spese pari a 97 miliardi di yuan, ossia il 23 per cento del fatturato, per alimentare HarmonyOS, i modelli Pangu AI e i chip Ascend.

Trump conferma accordo Nvidia per la vendita di chip AI in versione ridotta alla Cina

Il teatro geopolitico della tecnologia sembra ormai un palcoscenico da tragedia greca, con l’America a recitare il ruolo del protagonista burbero che decide chi può accedere al fuoco sacro dell’intelligenza artificiale. Jensen Huang, il CEO di Nvidia con la calma zen di un monaco che vede miliardi materializzarsi tra i transistor, ha dichiarato che le discussioni con la Casa Bianca per permettere la vendita in Cina di versioni “ridotte” dei chip Blackwell richiederanno tempo. In realtà, quando parla di tempo, Huang sembra riferirsi al ritmo degli equilibri politici più che ai cicli produttivi di TSMC. Perché il mercato cinese non è una semplice appendice, ma un bottino da 50 miliardi di dollari, una cifra che persino un impero come Nvidia non può permettersi di lasciare intatta nelle mani di altri.

Robotica cinese e Nvidia Jetson AGX Thor: l’era dell’intelligenza fisica sta iniziando

Chi pensava che la guerra tecnologica tra Stati Uniti e Cina potesse frenare la corsa dell’intelligenza artificiale applicata ai robot umanoidi non ha compreso la logica spietata del mercato globale. I nuovi protagonisti non sono le banche centrali o i ministeri della difesa, ma le schede madri, i moduli GPU e i kit di sviluppo che permettono a un robot di camminare, combattere in un ring da kickboxing o semplicemente cambiare da solo la batteria come fa il Walker S2 di UBTech. Nvidia, con il suo Jetson AGX Thor, ha deciso di puntare forte sulla Cina, nonostante le tensioni politiche, offrendo una piattaforma che promette di essere il “supercomputer definitivo per l’età dell’intelligenza fisica”. In altre parole, il cervello delle macchine che non restano più confinate nelle simulazioni digitali, ma imparano a interagire con il mondo reale.

Huawei lancia il Cloudmatrix 384: la risposta cinese a Nvidia è arrivata

Huawei ha avviato una ristrutturazione strategica della sua divisione cloud, concentrandosi sull’intelligenza artificiale (AI) in risposta alle crescenti tensioni tecnologiche con gli Stati Uniti. Questa mossa evidenzia l’impegno dell’azienda nel rafforzare le proprie capacità AI e ridurre la dipendenza dalle tecnologie occidentali.

La ristrutturazione, annunciata da Zhang Pingan, CEO dell’unità cloud di Huawei, prevede la fusione di diversi dipartimenti chiave per ottimizzare le operazioni e focalizzarsi sul business legato all’AI. Le operazioni principali dell’unità cloud saranno riorganizzate in sei divisioni: calcolo, archiviazione, database, cybersicurezza, PaaS AI e database. Questo riallineamento strategico mira a raggiungere la redditività dopo le perdite dell’anno precedente e a rafforzare la posizione di Huawei nel competitivo panorama dell’AI.

Nvidia nemotron nano-9b-v2 l’arma segreta

Nvidia nemotron nano-9b-v2 sembra il nome di un’arma segreta e in effetti lo è. Perché in un mercato in cui ogni azienda tecnologica annuncia quotidianamente un nuovo modello linguistico con la stessa frequenza con cui i politici promettono riforme mai realizzate, questo modello appare come un sabotaggio ben calcolato. Non è l’ennesimo transformer in giacca e cravatta, ma un ibrido che scompagina le regole del gioco. E il bello è che non pretende di vivere su un cluster di GPU da milioni di dollari, ma ti guarda dritto negli occhi e ti dice: “Io mi accontento di una singola A10G, e farò più di quanto immagini”. La narrazione romantica della potenza bruta cade a pezzi quando qualcuno dimostra che con meno puoi ottenere di più, se hai progettato l’architettura giusta.

Deepseek e il formato UE8MO FP8: la mossa che può ribaltare il dominio di Nvidia

La notizia è arrivata in sordina, con una frase criptica su WeChat. DeepSeek, la start-up di intelligenza artificiale con base a Hangzhou, ha annunciato che il suo nuovo modello V3.1 è stato addestrato usando il formato dati UE8M0 FP8, “pensato per i chip domestici di prossima uscita”. Bastano nove parole a scatenare la speculazione di mezzo settore tecnologico, perché in quelle nove parole si intravede la possibilità che la Cina abbia trovato la chiave per ridurre la dipendenza dai chip americani, in particolare dalle GPU Nvidia, che oggi dominano il mercato globale dell’AI.

Il dettaglio tecnico non è banale, anzi. FP8 significa floating-point 8, un formato a precisione ridotta che consente di accelerare il training e l’inferencing dei modelli di intelligenza artificiale, con un consumo molto più basso di memoria e banda. Nvidia lo aveva già dimostrato sui suoi forum, lodando l’efficienza del formato capace di dimezzare l’uso della VRAM senza impattare i risultati. Ma DeepSeek ha introdotto una variazione ingegneristica chiamata UE8M0, che promette un ulteriore taglio del fabbisogno di potenza di calcolo, storage e larghezza di banda. Tradotto: modelli di AI avanzati possono essere addestrati e fatti girare su chip meno potenti, potenzialmente i chip cinesi che faticano ancora a reggere il confronto con le GPU americane.

Pagina 1 di 4

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie