Quando parliamo di supercluster AI, la narrativa comune riguarda la pura potenza di calcolo, ma chi pensa che il mondo dell’intelligenza artificiale sia solo una questione di teraflop dimentica un dettaglio cruciale: la memoria ad alta larghezza di banda. Senza quella, anche il più impressionante arsenale di GPU rischia di diventare un giocattolo costoso. Huawei, Nvidia e AMD hanno appena alzato l’asticella con le loro nuove piattaforme di punta, progettate per addestrare modelli a trilioni di parametri e gestire workload che farebbero impallidire un data center tradizionale. Ogni strategia riflette la filosofia del produttore, mostrando visioni radicalmente diverse di come l’AI debba scalare.
Tag: AMD
Nel mondo delle tecnologie emergenti, dove la velocità è tutto e l’innovazione è la moneta corrente, AMD e OpenAI hanno appena lanciato una mossa che potrebbe riscrivere le regole del gioco. Non stiamo parlando di una semplice partnership commerciale, ma di un’operazione finanziaria audace che potrebbe segnare un punto di svolta nella competizione tra i giganti dell’AI. La notizia è fresca: OpenAI ha siglato un accordo con AMD per l’acquisto e la distribuzione di ben 6 gigawatt di capacità computazionale, utilizzando le GPU Instinct MI450 di AMD. Ma ecco la parte che fa alzare le sopracciglia: OpenAI non pagherà in contante, ma con warrant azionari AMD, fino a un massimo di 160 milioni di azioni, a un prezzo simbolico di 0,01 dollari ciascuna. Un’operazione che potrebbe valere fino a 100 miliardi di dollari, se tutto va secondo i piani.
Ogni rivoluzione tecnologica ha un momento in cui smette di sembrare un esperimento e inizia a comportarsi come un impero. Nel caso dell’intelligenza artificiale, quel momento è arrivato nel 2025, quando OpenAI ha deciso che per costruire il futuro non bastavano modelli linguistici e server affittati. Serviva potenza pura, proprietà fisica dell’infrastruttura, controllo diretto dell’energia, e una rete di alleanze industriali degna della corsa allo spazio. In questa partita, Nvidia, AMD e Oracle sono diventati non semplici partner, ma co-architetti del cervello digitale che alimenterà l’economia dei prossimi decenni.
C’è qualcosa di esegetico nel modo in cui l’intelligenza artificiale sta riscrivendo non solo il codice dei computer, ma anche quello della finanza. La nuova partnership tra AMD e OpenAI ne è la prova vivente. Da un lato c’è AMD, la storica rivale di Nvidia, pronta a scalare il monte impossibile delle GPU per l’intelligenza artificiale. Dall’altro c’è OpenAI, l’azienda che ha trasformato l’intelligenza artificiale da fantascienza a infrastruttura strategica. Il risultato è un accordo che più che una transazione commerciale somiglia a un esperimento di ingegneria finanziaria in tempo reale, dove la valuta non è più il denaro ma la fiducia nel futuro del titolo azionario.
Buona notizia per chi ama i “colpi di scena” tecnologici: AMD e OpenAI hanno firmato un accordo pluriennale per fornire sei gigawatt di potenza di calcolo ai data center di Intelligenza Artificiale, con l’obiettivo iniziale di dispiegare un gigawatt di GPU Instinct MI450 nella seconda metà del 2026.
Questo passo ha fatto esplodere il titolo AMD in pre-market, con guadagni attorno al 24-25 %.
La portata di questa mossa non è solo finanziaria: è strategica. OpenAI non si affida più a un solo fornitore dominante (leggasi: Nvidia), ma distribuisce il rischio e impone una competizione per l’architettura che va ben oltre la semplice fornitura di chip.
Cohere non ama farsi dimenticare. In un mercoledì di quelli che ribaltano l’agenda dei venture capitalist, l’azienda canadese ha annunciato un nuovo round di 100 milioni di dollari che porta la sua valutazione a 7 miliardi. Non è un record, ma in un contesto in cui OpenAI spara numeri da bolla dot-com rivisitata, il fatto che un player che ha sempre puntato sull’intelligenza artificiale enterprise riesca a strappare fiducia e capitale fresco resta significativo. Il round si innesta come estensione del mezzo miliardo raccolto ad agosto, quando Cohere si era fermata a 6,8 miliardi di valutazione. Un passo in avanti misurato, ma coerente con la sua strategia di posizionamento diverso rispetto ai giganti iperfinanziati.
IBM e AMD hanno appena fatto outing: vogliono inventarsi la supercazzola definitiva del computing e l’hanno chiamata “quantum-centric supercomputing”. Dietro l’etichetta scintillante, l’idea è semplice e devastante: unire i computer quantistici con l’infrastruttura di calcolo classica ad alte prestazioni, CPU e GPU inclusi, in un ibrido che promette di stracciare i limiti del silicio tradizionale. Il CEO di IBM, Arvind Krishna, l’ha messa giù con un understatement degno di un diplomatico, parlando di un “powerful hybrid model”. Tradotto: non basta più avere il computer più veloce del mondo, bisogna riscrivere l’architettura stessa del calcolo.
Wall Street ha applaudito con il riflesso pavloviano dei trader: +1,4% IBM, +1,6% AMD nella stessa giornata. Nulla rispetto al +37% che AMD ha già messo a segno quest’anno, ma il segnale è chiaro. I chipmaker e i dinosauri del mainframe stanno smettendo di guardarsi in cagnesco e iniziano a formare alleanze che odorano di geopolitica digitale. Non è un matrimonio di amore, è un matrimonio di necessità. La corsa al quantum non si vince da soli, e ogni mese che passa rende più evidente che la supremazia in questo campo non è solo scientifica, è militare, economica e culturale.
Un accordo “altamente insolito” sta scuotendo il mondo dell’intelligenza artificiale e dei semiconduttori. Nvidia e AMD, due colossi della produzione di chip AI, hanno accettato di cedere una fetta dei ricavi delle loro vendite in Cina al governo statunitense. Non è uno scherzo, né una mera questione di cortesia commerciale: il Financial Times ha svelato come Nvidia condividerà il 15% dei profitti derivanti dalle vendite dei suoi chip H20 in Cina, mentre AMD applicherà la stessa percentuale sulle entrate dei chip MI308. Un modo piuttosto diretto per mettere il governo americano dentro al business della tecnologia made in USA esportata ai rivali geopolitici.
Jensen Huang non è un tipo che spreca parole. Quando afferma che l’impatto dell’intelligenza artificiale applicata alla scienza sarà immensamente più grande di quello sui compiti umani, non sta lanciando uno slogan motivazionale, sta mettendo in chiaro chi guiderà la prossima corsa all’oro tecnologica. Gli esseri umani hanno creato linguaggi per descrivere se stessi, e l’AI li ha già decifrati con una facilità imbarazzante. Ma la biologia non parla la nostra lingua, parla quella di miliardi di anni di evoluzione cieca e caotica. Ed è proprio qui che Huang, con il suo classico sorriso da visionario pragmatico, ci fa notare che stiamo entrando in un territorio dove l’AI dovrà imparare non a tradurre, ma a interpretare il significato della vita stessa.
AMD ha acceso i riflettori su sé stessa, ma lo spettacolo vero non era sul palco. Il lancio della nuova serie MI350, celebrata con il solito repertorio di slide scintillanti e testimonial di peso, ha in realtà lasciato il pubblico – e soprattutto gli investitori – con lo sguardo rivolto al futuro. E quel futuro ha un nome: MI400. Un numero, una promessa, forse una scommessa colossale per entrare finalmente nel ring di Nvidia.
Lisa Su, CEO di AMD, ha dichiarato che la domanda di inferenza AI crescerà dell’80% all’anno. Ma dietro questa previsione ottimistica si cela una realtà più complessa.
Nel 2024, AMD ha generato oltre 5 miliardi di dollari di entrate dalle sue GPU Instinct, con previsioni di crescita significativa nel segmento AI. Su ha dichiarato che la società prevede che le entrate annuali derivanti dai chip AI raggiungano “decine di miliardi di dollari nei prossimi anni”.
AMD, nel ruolo sempre più teatrale del protagonista che finge di non volere il potere mentre lo accarezza in silenzio, ha chiuso un’operazione che è tutto tranne che banale: ha venduto la divisione manifatturiera di ZT Systems a Sanmina (NASDAQ:SANM) per 3 miliardi di dollari. Di questi, 2,55 miliardi arrivano subito, tra contanti e azioni, mentre il restov450 milioni di earn-out dipende dai soliti “se tutto va bene” dei prossimi tre anni. Tradotto: AMD ha appena fatto il taglio chirurgico di un ramo secco, ma ha tenuto per sé il midollo.
Quando pensavi che la geopolitica avesse già fatto abbastanza danni all’economia globale, ecco che arriva un’altra bomba: AMD annuncia un impatto da fino a 800 milioni di dollari a causa delle nuove restrizioni USA sulle esportazioni di semiconduttori verso la Cina. E come se non bastasse, il giorno prima Nvidia aveva già comunicato alla SEC un colpo ben più devastante: 5,5 miliardi di dollari bruciati per colpa delle stesse licenze. Tutto questo mentre le azioni di entrambi crollano di circa il 7% come se fosse il lunedì nero del 1987.
Benvenuti nell’ennesimo capitolo della saga “Silicon Valley contro Pechino”, dove i chip non sono più solo tecnologia, ma strumenti di pressione internazionale. Per AMD, la ferita è doppia: non solo si prevede una mazzata in bilancio, ma anche il futuro delle sue GPU MI308 –pensate per AI e gaming di alto livello è ora sospeso nel limbo delle autorizzazioni del Dipartimento del Commercio USA. Tradotto: progettare chip da miliardi e poi sperare che Washington ti lasci venderli. Un business model da roulette russa.
Lisa Su, CEO di AMD, è tornata in Cina con un chiaro messaggio: i chip della sua azienda sono perfettamente compatibili con i modelli di intelligenza artificiale sviluppati da giganti locali come DeepSeek e Alibaba. Un’affermazione che non è solo una mossa commerciale, ma un preciso segnale geopolitico in un contesto sempre più teso tra Stati Uniti e Cina sul fronte dei semiconduttori.
Durante una conferenza a Pechino dedicata ai PC per l’intelligenza artificiale, Su ha sottolineato come le soluzioni AMD abbiano già accelerato lo sviluppo delle tecnologie AI cinesi, grazie alla loro integrazione con i modelli Qwen di Alibaba e le architetture DeepSeek. Il messaggio è chiaro: mentre Washington cerca di frenare l’accesso di Pechino ai chip avanzati, AMD si posiziona come partner strategico per il mercato cinese, sfidando il dominio di Nvidia.
Advanced Micro Devices (AMD) ha recentemente annunciato risultati finanziari record per il quarto trimestre del 2024, con ricavi che hanno raggiunto i 7,66 miliardi di dollari, segnando un incremento del 24% rispetto allo stesso periodo dell’anno precedente. Nonostante questo risultato positivo, il segmento Data Center ha mostrato segnali di rallentamento, con ricavi che, sebbene siano aumentati del 69% a 3,86 miliardi di dollari, non hanno soddisfatto le aspettative degli analisti, che avevano previsto 4,12 miliardi di dollari.
Il CEO di AMD, Lisa Su, ha previsto una diminuzione sequenziale del 7% nelle vendite del Data Center per il trimestre in corso, indicando una possibile flessione nella domanda di chip per intelligenza artificiale (AI). Questa previsione ha contribuito a una diminuzione del valore delle azioni di AMD di oltre l’8% nelle contrattazioni post-mercato.
Advanced Micro Devices (AMD) ha recentemente guidato, insieme a LuminArx Capital Management, un round di finanziamento di 333 milioni di dollari per Vultr, una startup di infrastrutture cloud focalizzata sull’intelligenza artificiale (AI). Questo investimento ha portato Vultr a una valutazione di 3,5 miliardi di dollari, segnando la sua prima raccolta di capitale esterno. (The Wall Street Journal)
La più recente edizione della classifica Top500 ha segnato una svolta significativa: per la prima volta, i supercomputer alimentati da processori e GPU di AMD hanno superato quelli di Nvidia, consolidando il loro ruolo dominante nella fascia alta della tecnologia di calcolo. Questo risultato sottolinea come AMD stia trasformando il panorama dell’High-Performance Computing (HPC) grazie a innovazioni strategiche sia nei processori che nelle accelerazioni GPU.
IBM e AMD hanno recentemente annunciato un’importante partnership per spingere l’innovazione nell’intelligenza artificiale (AI) e nel computing ad alte prestazioni (HPC), con un focus specifico sulla sicurezza dei dati tramite il “computing confidenziale“. Questo accordo strategico si basa su una collaborazione pluriennale, volta a sviluppare congiuntamente tecnologie avanzate che sfruttano architetture open-source e standard aperti per migliorare le capacità dei sistemi cloud ibridi e gli acceleratori AI.
Martedì, Intel e AMD hanno annunciato la formazione di un gruppo consultivo dedicato all’ecosistema x86, un’iniziativa che mira a unire i leader del settore per plasmare il futuro di questa architettura di calcolo ampiamente utilizzata. Questo gruppo si propone di aiutare gli sviluppatori a esplorare nuove modalità per espandere l’ecosistema x86 e semplificare la creazione di software.
AMD ha svelato il suo ultimo chip per intelligenza artificiale, l’Instinct MI325X, durante un evento volto a sfidare il dominio di Nvidia nel mercato delle GPU per data center. Questo nuovo chip inizierà la produzione entro la fine del 2024 ed è progettato per competere direttamente con i prossimi chip Blackwell di Nvidia, che si prevede inizieranno a essere spediti all’inizio del prossimo anno.
Giovedì, durante l’evento “Advancing AI 2024” a San Francisco, Lisa Su, CEO di Advanced Micro Devices (AMD), ha svelato una nuova gamma di processori per l’intelligenza artificiale, tra cui i Turin EPYC e l’acceleratore Instinct MI325x.
Nuove Tecnologie Svelate
AMD sta acquisendo il fornitore di infrastrutture di intelligenza artificiale ZT Systems per circa 4,9 miliardi di dollari in contanti e azioni. L’accordo include un pagamento condizionato fino a 400 milioni di dollari, basato su certi obiettivi post-chiusura. AMD cercherà un partner strategico per acquisire l’attività di produzione di infrastrutture per data center di ZT Systems negli Stati Uniti. Questa acquisizione aiuterà AMD ad ampliare le sue capacità nei data center e nei sistemi di intelligenza artificiale.
Microsoft ha annunciato giovedì che intende offrire ai clienti del suo servizio di cloud computing una piattaforma di chip AI sviluppata da Advanced Micro Devices (AMD), in competizione con i prodotti Nvidia, secondo quanto riportato da Reuters.
I dettagli saranno rivelati durante la conferenza degli sviluppatori Build la prossima settimana. In occasione dell’evento, l’azienda presenterà anche un’anteprima dei nuovi processori personalizzati Cobalt 100, secondo quanto riportato.
I cluster di chip AI MI300X di AMD saranno disponibili attraverso il servizio cloud Azure di Microsoft, offrendo un’alternativa alla linea di GPU H100 di Nvidia, molto richiesta e dominante nel mercato dei chip per data center per l’intelligenza artificiale.
AMD prevede entrate per circa 4 miliardi di dollari dai chip AI nel 2024 e ha sottolineato che i chip sono altamente efficaci per addestrare ed eseguire modelli IA di grandi dimensioni.
Microsoft, inoltre, vende l’accesso ai suoi chip AI autoprodotti chiamati Maia. Separatamente, Microsoft ha dichiarato che i processori Cobalt 100, che saranno presentati in anteprima la prossima settimana, offrono prestazioni superiori del 40% rispetto ad altri processori basati sulla tecnologia Arm.
Secondo il rapporto, aziende come Snowflake hanno già iniziato a utilizzarli. Microsoft aveva annunciato i chip Cobalt a novembre e attualmente sono in fase di valutazione per potenziare il servizio di messaggistica Teams. Questi chip competono anche con le CPU Graviton di Amazon.com.