Categoria: Chip Pagina 1 di 5

Fractile, la startup britannica che vuole riscrivere le regole dei chip AI

Parliamoci chiaro, sfidare Nvidia equivale più o meno a presentarsi a Wimbledon con una racchetta di legno e l’ambizione di battere Alcaraz e Sinner in sequenza. Eppure, è esattamente quello che sta tentando di fare Fractile, una giovane startup londinese che sta attirando attenzione, capitali e una discreta dose di scetticismo.

Nvidia scommette su Marvell: 2 miliardi per cablare il cervello dell’intelligenza artificiale

Nel grande risiko globale dei semiconduttori, Nvidia decide di non limitarsi più a costruire i “muscoli” dell’intelligenza artificiale, ma punta dritto al sistema nervoso. L’investimento da 2 miliardi di dollari in Marvell Technology non è soltanto una mossa finanziaria, ma un segnale preciso: il futuro dell’AI non si gioca solo sulla potenza di calcolo, bensì sulla velocità e sull’efficienza con cui i dati scorrono tra i chip.

ARM rompe il tabù: dal licensing al silicio proprietario nell’era dell’AGI

Per trent’anni Arm Holdings ha giocato una partita elegante, quasi aristocratica, restando lontana dalla produzione diretta di chip e limitandosi a ciò che sapeva fare meglio: progettare architetture e incassare royalty. Un modello di business quasi rinascimentale, fatto di licenze, partnership e neutralità strategica. Poi arriva l’intelligenza artificiale, e con essa il sospetto che la neutralità sia sopravvalutata. Così Arm decide di fare ciò che per decenni ha evitato con disciplina britannica: costruire un proprio processore. Il nome è già un manifesto, Arm AGI CPU. Non un semplice chip, ma una dichiarazione d’intenti.

Il primo cliente è Meta, che negli ultimi anni ha dimostrato una certa goffaggine nel tentativo di emanciparsi dai fornitori tradizionali. Il fatto che sia contemporaneamente partner e co-sviluppatore racconta una verità più interessante dei comunicati stampa: nel mondo dell’AI nessuno vuole più essere solo cliente. Tutti vogliono controllare la stack, o almeno fingere di farlo. Meta, dopo aver speso miliardi in GPU di Nvidia, prova ora a costruirsi una via alternativa. Non per sostituire Nvidia, sarebbe ingenuo, ma per ridurre la dipendenza. È una guerra fredda tecnologica, non una rivoluzione.

RISC-V, Hong Kong e la geopolitica dei chip: il nuovo capitalismo open source che spaventa Silicon Valley

Nel grande teatro semiconduttori, dove ogni transistor è diventato un atto politico e ogni architettura una dichiarazione di sovranità, la nascita della Hong Kong RISC-V Alliance non è una notizia tecnica ma una mossa strategica che merita di essere letta con la stessa attenzione con cui si analizzano le rotte energetiche o le alleanze militari. Il punto non è semplicemente RISC-V; il punto è chi controlla il linguaggio delle macchine nel momento in cui le macchine iniziano a scrivere il futuro.

RISC-V nasce come progetto accademico alla University of California, Berkeley nel 2010, un’epoca in cui parlare di open hardware sembrava un esercizio intellettuale più che una strategia industriale. Poi accade qualcosa di familiare nella storia della tecnologia: un’idea marginale, quasi idealista, diventa improvvisamente inevitabile. La standardizzazione sotto RISC-V International nel 2015 segna il passaggio da curiosità accademica a infrastruttura globale. Il dettaglio cruciale è la natura open: nessuna licenza proprietaria, nessun gatekeeper, nessun monopolio nascosto dietro royalties.

Crisi nel Golfo, chip a rischio: quando l’elio diventa più prezioso del silicio

Nel delicato equilibrio dell’economia globale, basta spostare un tassello apparentemente secondario per mettere in discussione intere filiere industriali. La crisi in corso tra Stati Uniti, Israele e Iran rischia, tra le altre cose, anche di produrre uno di questi effetti a catena, colpendo non solo l’energia ma anche uno dei settori più strategici del nostro tempo: i semiconduttori.

Huawei sfida Nvidia: la guerra silenziosa dell’inferenza nell’era degli agenti autonomi

Nel teatro sempre più affollato della competizione globale sull’intelligenza artificiale, l’ultima mossa di Huawei non è semplicemente un lancio di prodotto, ma una dichiarazione geopolitica mascherata da innovazione hardware. La presentazione della Atlas 350, alimentata dal chip Ascend 950PR, segna un passaggio chiave nella lenta ma inesorabile ridefinizione degli equilibri tra Oriente e Occidente nel dominio computazionale, un terreno che fino a pochi anni fa sembrava monopolio quasi indiscusso di Nvidia.

L’aspetto interessante, la Silicon Valley continua a vendere narrazioni sull’intelligenza artificiale come entità quasi metafisica, fatta di agenti autonomi, reasoning e promesse di automazione totale, la vera battaglia si combatte ancora, brutalmente, sul ferro. Chip, memoria, throughput. Numeri, non storytelling. La Atlas 350 dichiara 1.56 petaflops in FP4, una cifra che nella pratica significa una sola cosa: più inferenza, più velocità, meno latenza. E soprattutto, indipendenza.

La Cina autorizza l’acquisto dei chip AI H200 di Nvidia

Le autorità cinesi hanno dato il via libera a diverse aziende nazionali per acquistare i chip H200 di Nvidia, riaprendo uno dei canali più delicati del commercio tecnologico globale. La notizia, riportata da Reuters, segna un passaggio chiave in una partita che da mesi si gioca più nelle stanze della diplomazia che nei data center. A confermare il cambio di passo è stato direttamente il CEO Jensen Huang, che ha parlato di licenze ottenute per “molti clienti in Cina” e di ordini già ricevuti. Tradotto dal linguaggio corporate vuol dire che il rubinetto, almeno in parte, è stato riaperto.

L’illusione dell’inference: Nvidia, la geopolitica dei chip e il vero business dell’intelligenza artificiale

Chi continua a pensare che la guerra dell’intelligenza artificiale si giochi sui modelli linguistici sta osservando lo scenario con almeno un anno di ritardo. La partita vera si è spostata altrove, in una zona meno glamour ma infinitamente più redditizia: l’inference. E quando Nvidia decide di riorganizzare la propria architettura industriale attorno a questo concetto, introducendo una nuova classe di chip e parlando apertamente di “fabbriche di AI”, significa che il mercato non sta semplicemente evolvendo; sta cambiando natura.

Il ritorno alla produzione di chip compatibili con le restrizioni statunitensi verso la Cina, annunciato da Jensen Huang, non è un dettaglio operativo ma una dichiarazione strategica. La supply chain dei semiconduttori è ormai una leva geopolitica esplicita, una versione moderna della diplomazia energetica del Novecento. Il fatto che Nvidia riattivi la produzione di H200 dopo aver ottenuto licenze governative racconta una verità poco romantica: l’innovazione tecnologica oggi passa attraverso il filtro della politica industriale, e chi controlla quel filtro controlla il ritmo dell’innovazione.

Nvidia, Groq e la nuova economia dell’inferenza: perché il GTC 2026 potrebbe cambiare il mercato dei chip AI

Ogni anno la conferenza sviluppatori di Nvidia, il celebre GTC, assomiglia sempre meno a un evento tecnico e sempre più a un rito di potere della nuova economia computazionale. La scena è ormai familiare: migliaia di sviluppatori, investitori, venture capitalist, startup founder e qualche politico curioso si riuniscono per ascoltare la keynote di Jensen Huang come se fosse una sorta di keynote papale dell’intelligenza artificiale. Non è un caso. Nel giro di pochi anni Nvidia è passata dall’essere un produttore di GPU per videogiochi a diventare l’equivalente industriale della Standard Oil dell’AI.

Il GTC di quest’anno promette tuttavia qualcosa di diverso dal solito rituale celebrativo. Le indiscrezioni indicano che Nvidia presenterà un nuovo sistema di chip che integra direttamente la tecnologia di Groq, la società che negli ultimi anni ha attirato l’attenzione di Silicon Valley per un’architettura radicalmente diversa rispetto alle GPU tradizionali. Se confermata, la notizia segnerebbe una piccola rivoluzione nella filosofia ingegneristica di Nvidia, storicamente ossessionata dall’integrazione verticale delle proprie tecnologie.

Le aziende cinesi che vogliono sfidare Nvidia: Cambricon, Moore Threads e gli altri outsider dei chip AI

Il mercato globale dei chip per l’intelligenza artificiale sembra avere un padrone quasi incontrastato che si chiama Nvidia. Le sue GPU sono diventate l’infrastruttura invisibile su cui girano modelli linguistici, sistemi di generazione immagini e interi ecosistemi di cloud AI. Tuttavia, nel frattempo, a migliaia di chilometri di distanza, una serie di aziende cinesi con nomi che per molti suonano ancora esotici sta cercando di costruire un’alternativa. Cambricon, Moore Threads, Hygon Information Technology e la divisione semiconduttori Kunlunxin del gigante tecnologico Baidu stanno emergendo come protagonisti di un progetto molto più grande della semplice competizione industriale.

Nvidia frena sui chip per la Cina: tra geopolitica, AI e nuovi superprocessori la partita dei semiconduttori si complica

La relazione tra Nvidia e il mercato cinese assomiglia sempre più a una serie televisiva ricca di colpi di scena geopolitici. L’ultimo episodio arriva con la decisione dell’azienda guidata da Jensen Huang di interrompere la produzione dei chip H200 destinati alla Cina, riallocando la capacità produttiva presso TSMC verso la nuova e attesissima architettura Vera Rubin. La scelta appare, almeno sulla carta, perfettamente razionale. L’incertezza che circonda i rapporti tra Washington e Pechino ha raggiunto livelli tali da rendere difficile pianificare anche le strategie industriali più solide.

L’era dell’inferenza agentica e la sfida dei chip ottimizzati per la memoria

Il dibattito sull’infrastruttura per l’intelligenza artificiale ha finalmente trovato un nuovo protagonista, e non è l’ennesimo modello linguistico con un nome evocativo. È un chip. Più precisamente lo SN50 di SambaNova Systems, presentato come risposta strutturale a un problema che chiunque abbia messo in produzione sistemi multi agent o pipeline RAG conosce fin troppo bene: il vero collo di bottiglia non è più il calcolo grezzo, ma la latenza cumulativa delle chiamate di inferenza concatenate.

TSMC scommette sul Giappone e sfida la domanda globale di Nvidia tra AI e geopolitica

Taiwan Semiconductor Manufacturing Company non sta solo correndo contro tariffe e pressioni geopolitiche, ma anche contro la domanda impetuosa di Nvidia, leader statunitense dei chip per intelligenza artificiale. Jensen Huang, CEO di Nvidia, ha dichiarato senza mezzi termini che TSMC deve “lavorare molto duramente” per soddisfare la richiesta crescente del colosso californiano, che da solo potrebbe costringere la fabbrica taiwanese a più che raddoppiare la capacità produttiva nel prossimo decennio. La dichiarazione è arrivata durante un banchetto ad alto profilo con i principali partner della supply chain a Taiwan, inclusi C C Wei di TSMC e Young Liu di Foxconn, mentre Huang cercava di consolidare le forniture di componenti critici per l’infrastruttura AI come i chip di memoria.

Alibaba sfida Nvidia con T-Head: il chip cinese che promette autonomia tecnologica e nervosismo geopolitico

La presentazione del chip Zhenwu 810E da parte di T-Head, il braccio di progettazione semiconduttori di Alibaba Group, rientra esattamente in questa categoria. Non è solo un nuovo acceleratore per l’intelligenza artificiale, non è nemmeno soltanto l’ennesimo tentativo cinese di ridurre la dipendenza da Nvidia. È un messaggio. Ed è scritto in silicio.

ASML, la grande ritirata dalla Cina e l’illusione occidentale del controllo tecnologico

Il colosso olandese delle macchine per la litografia, uno dei veri colli di bottiglia dell’economia digitale globale, sta progressivamente riducendo la propria esposizione alla Cina. Non per scelta strategica, almeno non nel senso classico del termine, ma perché la politica ha deciso di entrare nel conto economico con gli scarponi. E come spesso accade, lo fa con un certo entusiasmo ideologico e una visione di breve periodo.

I dati sono chiari e non lasciano molto spazio all’interpretazione. Nel 2025 la quota di fatturato ASML proveniente dalla Cina è scesa dal 41 al 33 per cento. Roger Dassen, CFO con reputazione da contabile prudente e poco incline al teatro, ha già messo le mani avanti: nel 2026 quella quota potrebbe scendere intorno al 20 per cento. Tradotto in linguaggio non diplomatico, significa una riduzione di oltre un quinto dei ricavi cinesi anno su anno. Bank of America lo ha messo nero su bianco parlando di un meno 21 per cento, UBS prova a essere più ottimista ipotizzando una sostanziale stabilità. Ma il punto non è chi ha ragione sul decimale. Il punto è che ASML sta diventando il caso scuola di come le sanzioni tecnologiche ridisegnano le catene del valore.

MAIA 200 contro Trainium3 e TPUv7: la nuova era dei chip per l’AI

L’annuncio di Microsoft sul Maia 200 non è semplicemente un esercizio di marketing. È la dichiarazione chiara che l’era dell’AI che dipende esclusivamente da Nvidia potrebbe avere i giorni contati. Parliamo di un chip con oltre 100 miliardi di transistor, capace di 10 petaflops in 4-bit e 5 petaflops in 8-bit, numeri che fanno girare la testa a chiunque mastichi LLM da qualche anno. La differenza sostanziale non è solo la potenza bruta, ma l’ottimizzazione per inference, il vero tallone d’Achille delle operazioni AI a scala industriale. Allenare modelli è costoso e impegnativo, ma farli funzionare quotidianamente è ciò che svuota i portafogli delle aziende. Qui entra in gioco Maia: un nodo capace di far girare i modelli più grandi senza cluster di GPU, risparmiando spazio, energia e tempo di gestione.

Chip, dazi e geopolitica: perché l’accordo Usa-Taiwan è molto più di un’intesa commerciale e perché a Pechino non piace

A prima vista potrebbe sembrare solo l’ennesimo accordo sui dazi, una di quelle storie che fanno sbadigliare i mercati finché non si guardano le cifre in gioco. Ma l’intesa firmata qualche giorno fa tra Stati Uniti e Taiwan è tutto fuorché ordinaria. Qui non si parla solo di tariffe che scendono dal 20 al 15 per cento o di qualche esenzione per farmaci e componenti aeronautici. Si sta ridisegnando un pezzo della mappa globale dei semiconduttori e quando si toccano i chip, si tocca il nervo scoperto della geopolitica del XXI secolo.

TSMC e la corsa ai chip AI: boom strutturale o illusione speculative?

Nel panorama globale dei semiconduttori, poche notizie hanno la capacità di smuovere mercati e narrative quanto i risultati trimestrali di Taiwan Semiconductor Manufacturing Company. Q4 2025 ha regalato a TSMC un record storico: 505,7 miliardi di NT$ di utile netto, circa 16 miliardi di dollari, con una crescita del 35 percento rispetto all’anno precedente. Il fatturato trimestrale ha raggiunto i 33,7 miliardi di dollari, superando di gran lunga le aspettative degli analisti, e le previsioni per il 2026 parlano di quasi il 30 percento di incremento dei ricavi, accompagnato da un investimento in capitale fisso tra i 52 e i 56 miliardi di dollari, in netto aumento rispetto ai 40,9 miliardi del 2025. Numeri così dicono qualcosa di più di semplici performance: tracciano la linea di demarcazione tra hype passeggero e domanda strutturale.

Chip War: piccolo cortile, recinzione alta e ora la Cina costruisce il muro dall’interno

“Small yard, high fence” non è solo una metafora elegante uscita dalla bocca di Jake Sullivan. È diventata una dottrina. Un principio operativo. Un modo raffinato per dire che la globalizzazione tecnologica è finita ma nessuno ha ancora il coraggio di scriverlo nei comunicati ufficiali. Per anni è stata Washington a disegnare il perimetro del cortile e a decidere chi poteva entrarci. Oggi Pechino ha preso lo stesso manuale, lo ha tradotto in mandarino e ha iniziato a usarlo contro il suo autore. Con una differenza sostanziale. Gli americani hanno costruito la recinzione per rallentare la Cina. I cinesi la stanno alzando per costringersi a correre senza stampelle.

Chip War: tariffe sui chip AI tra Usa e Cina: il 25 per cento che ridisegna la guerra dei semiconduttori

Un numero che oggi vale più di mille discorsi strategici, 25 per cento. Non è una percentuale scelta a caso, non è nemmeno una misura tecnica. È una dichiarazione di potere. Washington ha deciso che l’accesso cinese ai chip di intelligenza artificiale avanzata deve passare da una cassa americana, anche quando quei chip non sono fisicamente prodotti negli Stati Uniti. Le nuove tariffe sui chip AI, applicate a modelli come Nvidia H200 e AMD MI325X, non sono un dettaglio commerciale ma un cambio di paradigma nella guerra dei semiconduttori tra USA e Cina. Il messaggio è brutale nella sua semplicità. Se vuoi fare AI di frontiera con tecnologia americana, paghi il pedaggio. E lo paghi a prescindere.

Nvidia, la Cina e lo scontro sugli AI chip come protagonista mondiale

Il primo fatto evidente è questo. Nonostante l’amministrazione Trump abbia di recente aperto una porta alle esportazioni dei potenti chip H200 di Nvidia in Cina (una mossa che ha sorpreso molti per la sua portata politica e commerciale), Pechino ha dato un colpo di freno brusco: ha chiesto ad alcune grandi aziende tecnologiche di sospendere gli ordini di H200 in attesa di una decisione formale da parte del governo sui termini e le condizioni di importazione.

Sembra un paradosso degno di un romanzo politico: gli Stati Uniti, nella loro guerra economico-tecnologica con la Cina, legano una mano delle esportazioni a una tassa di esportazione del 25 % pagabile allo Stato, praticamente un licensing con penale incorporata, e dall’altra parte la Cina risponde: calma, ragazzi, prima pensiamo a come e quanto volete comprare.

Nvidia Vera Rubin e la nuova religione del calcolo: perché cinque volte più potenza non sono mai solo una questione tecnica

Nvidia Vera Rubin non è un chip. È una dichiarazione di potere. Jensen Huang sale sul palco del CES di Las Vegas come un amministratore delegato che non deve più convincere nessuno, ma solo ricordare al mercato chi comanda davvero l’infrastruttura cognitiva del pianeta. Quando dice che la nuova generazione di chip è in piena produzione e promette cinque volte la capacità di calcolo per applicazioni di intelligenza artificiale, non sta facendo marketing. Sta tracciando una linea. Da una parte chi costruisce i modelli. Dall’altra chi decide quanto velocemente il mondo può pensare.

Quando il silicio decide la chiusura degli impianti: Honda, il Giappone e la nuova crisi dei chip

C’è stato un tempo in cui fermare una fabbrica automobilistica significava avere a che fare con scioperi, domanda in calo o qualche linea di montaggio obsoleta. Oggi basta che manchi un chip, grande quanto un’unghia ma potente come una leva geopolitica, e anche un colosso come Honda è costretto a spegnere le luci degli impianti. È quello che sta accadendo tra la fine di dicembre e l’inizio di gennaio in Giappone e tre in Cina, dove la casa automobilistica giapponese ha annunciato una sospensione temporanea della produzione di qualche giorno a causa della persistente carenza di semiconduttori. Un dettaglio tecnico solo in apparenza, che in realtà racconta molto dello stato dell’industria globale.

La corsa ai semiconduttori verso il 2026 tra entusiasmo industriale, colli di bottiglia energetici e illusioni sull’ASIC

Application Specific Integrated Circuits (ASICs)

Arriva il momento, in ogni ciclo tecnologico, in cui l’ottimismo smette di essere marketing e diventa una variabile macroeconomica. Il settore dei semiconduttori sembra essere entrato esattamente in quella fase. Secondo BNP Paribas Research, che ha appena concluso il suo Silicon Valley Bus Tour incontrando i vertici di AMD, Nvidia, Intel, Applied Materials, Astera Labs, Credo, Lumentum, Seagate, Marvell e Western Digital, il messaggio che emerge è sorprendentemente uniforme. Domanda strutturalmente superiore all’offerta almeno fino al 2026, visibilità multi trimestre lungo tutta la filiera e una fiducia quasi disarmante nella tenuta del ciclo dell’intelligenza artificiale.

Il promettente business dei chip AI di Broadcom

Parlare di Broadcom oggi significa infilarsi in un terreno in cui la realtà supera più volentieri le proiezioni degli analisti, con una certa nonchalance degna di chi ha già deciso di riscrivere la gerarchia del mercato dei semiconduttori. Chi osserva la crescita dei chip AI Broadcom sa che non si tratta più di una nota a margine nei report trimestrali ma del baricentro strategico di un’azienda che ha compreso meglio di molte altre il nuovo teorema della potenza computazionale. Si racconta che Hock Tan ami ricordare come la disciplina sia più importante dell’ispirazione e il recente salto del 74 percento nel fatturato dei chip AI sembra una nota a piè di pagina scritta apposta per smentire la modestia.

Il miraggio dei chip AI e il rischio di un crollo tecnologico

La frenesia per l’intelligenza artificiale ha trasformato il settore tecnologico in una corsa sfrenata, con circa 400 miliardi di dollari investiti quest’anno in chip specializzati e data centre. I numeri da capogiro dovrebbero far riflettere, ma l’entusiasmo sembra aver offuscato una realtà più prosaica: la vita utile di questi chip è molto più breve di quanto i contabili vogliano ammettere. La questione centrale non è l’innovazione in sé, ma la rapidità con cui l’hardware diventa obsoleto, trasformando investimenti da centinaia di miliardi in costi irrecuperabili in pochi anni.

Nvidia H200 e la nuova geopolitica del silicio

Il mercato ha reagito con un sospiro di sollievo e un sussulto di ottimismo dopo l’annuncio del Donald J. Trump: gli Stati Uniti permetteranno l’esportazione del chip AI Nvidia H200 verso clienti “approvati” in Cina, sotto stretta sorveglianza governativa. Le azioni di Nvidia (NVDA) sono salite di circa il 2 % in after-hours, mentre AMD (AMD) ha guadagnato circa l’1.8 % e Intel (INTC) ha messo a segno un modesto rialzo.

Il segnale è forte: per il governo statunitense l’industria dei semiconduttori non è più un arma da puntare solo contro la Cina, ma un asset da monetizzare con licenze mirate e “tributi” del 25 %. Questa scelta ribalta mesi di restrizioni e secondo Trump rafforza posti di lavoro e industria americana.

NVIDIA ha messo sul piatto con GB200 NVL72 e i benchmark 10× più rapidi per modelli MoE “open” (DeepSeek-R1, Kimi K2 Thinking, ecc.)

Non è solo un salto tecnologico: è un potenziale cambio di paradigma di lock-in, mascherato da libertà.

Da un lato, la narrativa di NVIDIA è avvincente: con 72 GPU Blackwell in un singolo rack, una rete NVLink da 130 TB/s, circa 30 TB di memoria condivisa e ~1,4 exaflop di potenza AI, il sistema è chiaramente progettato per far girare modelli MoE su scala senza i tradizionali colli di bottiglia della comunicazione tra GPU.
Secondo NVIDIA, questo permette un’efficienza superiore di un fattore ~10× sui modelli MoE (“performance-per-watt”) rispetto alle generazioni precedenti, grazie anche a ottimizzazioni software (Dynamo, NVFP4, TensorRT-LLM, SGLang, vLLM) che orchestrano in modo molto più efficiente la comunicazione tra “esperti” distribuiti su 72 GPU.
Inoltre, l’architettura rack-scale riduce la latenza di routing tra esperti e facilita il caricamento distribuito e dinamico dei pesi, il che è particolarmente importante quando si attivano solo un sottoinsieme di esperti per ogni token.

Amazon svela Graviton5: la sua CPU più potente ed efficiente

All’AWS re:Invent 2025, Amazon ha alzato l’asticella: il nuovo processore Graviton5 è stato presentato come il suo chip più avanzato, potente ed energeticamente efficiente mai realizzato. Ed è una mossa strategica. Non stiamo parlando di un semplice aggiornamento generazionale: Graviton5 punta a ridefinire la competitività di AWS nei carichi di lavoro più esigenti, mantenendo costi bassi e consumi ridotti.Il cuore della novità è impressionante: 192 core per chip, il doppio rispetto alla generazione precedente. Questo porta una densità di calcolo senza precedenti per istanze EC2. La cache L3 è aumentata di 5 volte, e ogni core riesce ad accedere a 2,6× più L3 rispetto a Graviton4, riducendo drasticamente i tempi di attesa per i dati più usati.

Huawei: Cina Stati Uniti e la nuova faglia tecnologica globale

La corsa all’intelligenza artificiale tra Stati Uniti e Cina è diventata una sorta di romanzo geopolitico dove i protagonisti non combattono con carri armati ma con modelli generativi, chip proprietari e visioni inconciliabili del futuro digitale. La scena sembra uscita da un editoriale brillante di un quotidiano finanziario, con Ren Zhengfei che si concede il lusso di punzecchiare l’ossessione americana per l’AGI mentre mostra con disarmante calma il pragmatismo industriale che guida la strategia cinese.

La narrazione occidentale tende a inseguire il mito dell’AGI come se fosse il Santo Graal nascosto in una foresta di GPU, dimenticando che a volte la tecnologia più rivoluzionaria è quella che risolve problemi tangibili. Gli Stati Uniti parlano di superintelligenza mentre la Cina si concentra sul rendere automatizzata l’estrazione mineraria o sul trasformare porti congestionati in organismi autonomi dove i container scorrono come globuli rossi in un enorme corpo industriale. Qualcuno potrebbe definirla una differenza di stile, ma è più corretto chiamarla divergenza strategica profonda. La prima lettera maiuscola dopo il punto si impone naturalmente mentre si osserva il cambio di ritmo tra visionarietà speculativa e ambizione utilitaristica.

Nvidia prende posizione strategica in Synopsys e riscrive le regole dell’ingegneria digitale

https://blogs.nvidia.com/wp-content/uploads/2024/08/hpc-accelerated-computing-speedups.jpg

La notizia è tanto prevedibile quanto destabilizzante: NVIDIA Corporation ha acquisito una partecipazione da 2 miliardi di dollari in Synopsys, Inc. (SNPS), comprando azioni a 414,79 $ ciascuna, segnando circa il 2,6 % del capitale in circolazione.

Ma non è solo un investimento finanziario: si tratta di un accordo pluriennale di collaborazione mirato a rivoluzionare la progettazione e l’ingegneria — un binomio hardware + software che aspira a spostare gli standard della simulazione, del design di chip, della creazione di “gemelli digitali” (digital twins) e dell’automazione basata su IA.

Dalla corsa ai chip alla politica industriale: il modello Giappone per l’AI

Nel mondo dell’Intelligenza Artificiale, tutti parlano di chip come se fossero lingotti d’oro. E in effetti lo sono. Ma mentre Stati Uniti e Cina si lanciano in finanziamenti miliardari come fuochi d’artificio, il Giappone ha deciso di fare qualcosa di molto più… giapponese: abbassare i toni e costruire con metodo. Tokyo ha appena approvato un nuovo pacchetto di finanziamenti per l’AI e i semiconduttori da 252,5 miliardi di yen, circa 1,6 miliardi di dollari.

Baidu, il Google cinese, ora fabbrica chip: così Pechino costruisce i muscoli dell’Intelligenza Artificiale

Mentre Nvidia resta fuori dai confini, Baidu entra in fabbrica. E trasforma la guerra dei semiconduttori in strategia industriale. Se fino a ieri Baidu per tutti era “il Google cinese”, oggi è qualcosa di molto più ambizioso: un produttore di chip per l’Intelligenza Artificiale con mire da protagonista globale. In silenzio, senza grandi proclami, Baidu sta costruendo quello che Pechino sognava da anni: un’alternativa domestica ai colossi occidentali dei semiconduttori. Perché quando la geopolitica chiude una porta, la tecnologia cinese apre… una fonderia.

La grande fuga dei chip: come la Cina addestra oltre confine l’AI per dribblare i divieti USA

Non è una spy story, è geopolitica digitale: Pechino delocalizza i cervelli… delle macchine. E l’AI diventa una questione di frontiere, GPU e strategia globale. E se pensavate che la nuova Guerra Fredda si giocasse solo su missili, gasdotti e alleanze militari, è il momento di aggiornare il manuale. Oggi il vero campo di battaglia è un data center e le armi non hanno canna ma dissipatori di calore. Gli Stati Uniti stringono il cerchio sull’export di chip avanzati per l’Intelligenza Artificiale e la Cina risponde come ogni grande potenza tecnologica sa fare: cambiando mappa e spostando le sue macchine dove nessuno (almeno per il momento) può bloccarle.

Google possiede l’intero Stack e questo è il punto

Google ha il vantaggio competitivo che molti sognerebbero: non vende solo chip, ma “chip + cloud + software + app”. Le sue TPU, invece di essere usate solo internamente, ora vengono offerte (e presto vendute) a clienti come Meta e Anthropic un salto strategico enorme. Secondo vari report, Meta starebbe negoziando con Google già per partire a noleggiare TPU via Google Cloud già l’anno prossimo, con piani per acquistare chip fisici nei propri data center a partire dal 2027.

Anthropic non è da meno: ha un accordo da decine di miliardi per accedere fino a un milione di TPU, portando il suo potenziale computazionale a oltre 1 gigawatt entro il 2026.

Chips challenges: la strategia mancata della Casa Bianca sull’export di chip AI in Cina

La corsa globale all’intelligenza artificiale non si combatte solo a colpi di algoritmi e modelli linguistici, ma anche con il silenzioso e potente traffico di chip. Gli Stati Uniti, formalmente campioni della supremazia tecnologica, hanno appena mostrato un sorprendente talento nell’autogol politico: la Casa Bianca ha rifiutato una proposta di controlli sulle vendite di chip IA alla Cina, lasciando vuoto il campo regolatorio dopo che l’amministrazione Trump ha eliminato, a maggio, una regola ereditata dai giorni di Biden.

Chip War: The Fight for the World’s Most Critical Technology

In un mondo in cui i semiconduttori sono diventati la valuta più importante della geopolitica moderna, chi controlla i wafer controlla l’economia globale. Non stiamo parlando di gadget o consumabili industriali, ma della leva strategica che definisce la supremazia militare e commerciale. La catena di approvvigionamento chip non è mai stata neutrale; è un’arena di conflitto silenziosa dove ogni transistor può determinare la vittoria o la sconfitta di nazioni intere.

Jensen Huang bolla AI? quale bolla davvero

La domanda circola da mesi come una zanzara nella stanza: insistente, fastidiosa, inevitabile. Bolla IA? Quale bolla davvero. Mercoledì, Jensen Huang ha fatto ciò che i leader carismatici fanno quando l’opinione pubblica trema di fronte a un grafico troppo verticale. Ha sorriso, ha agitato le mani, ha detto che va tutto bene. E mentre il mondo cercava di capire se credergli o meno, Nvidia incassava un trimestre che qualsiasi altro colosso definirebbe semplicemente irreale.

Huawei e la nuova infrastruttura ai che promette di raddoppiare l’efficienza delle GPU

Avviene qualcosa di interessante quando un colosso tecnologico decide di forzare i limiti percepiti del possibile e lo fa con la tipica calma glaciale di chi sa benissimo che il mercato lo sta osservando con una miscela di timore e ammirazione. Huawei si prepara a presentare una tecnologia di infrastruttura per lintelligenza artificiale capace di spingere lefficienza delle GPU vicino a soglie che, fino a ieri, sembravano riservate alle presentazioni ottimistiche dei laboratori di ricerca. Il fatto che si tratti di unannunciata capacità di raddoppiare il tasso di utilizzo effettivo delle GPU a quasi il settanta per cento crea un effetto immediato sui tavoli dei CIO globali, quelli che conoscono fin troppo bene cosa significhi pagare hardware costoso per vederlo lavorare la metà del tempo.

AMD sfida Nvdia nella corsa all’intelligenza artificiale da un trilione di dollari

Lisa Su non fa mai giri di parole. Quando la CEO di AMD parla di “insaziabile domanda” per la potenza di calcolo destinata all’intelligenza artificiale, il mercato ascolta. Durante il Financial Analyst Day, ha alzato la posta in gioco dichiarando che il mercato totale indirizzabile dell’AI data center raggiungerà i 1000 miliardi di dollari entro il 2030, raddoppiando le precedenti previsioni. Una cifra che non solo ridisegna le ambizioni di AMD, ma riscrive anche le regole della competizione contro Nvidia, ancora saldamente al comando con una quota vicina al 90% del mercato AI.

Pagina 1 di 5

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie