Real time Artificial Intelligence news

Tag: HBM

Nvidia prosegue nel percorso di certificazione dei chip AI HBM di Samsung

Il CEO di Nvidia, Jensen Huang, ha detto ai giornalisti che i chip di memoria veloci di Samsung devono ancora essere certificati per l’uso nell’addestramento dell’intelligenza artificiale, secondo Bloomberg.

Huang ha anche detto che Nvidia sta valutando i chip HBM di Micron Technology e Samsung per vedere se possono competere con quelli di SK Hynix, che già fornisce chip HBM3 e HBM3e a Nvidia, riporta il rapporto. Huang ha confermato che i chip HBM di Samsung non hanno superato i test di qualificazione e richiedono più lavoro di ingegneria.

Samsung non riesce a scalfire la supremazia di Nvdia sugli HBM

I nuovi chip di memoria ad alta larghezza di banda (HBM) di Samsung Electronics non hanno ancora superato la valutazione di Nvidia per l’uso nei suoi processori IA a causa di problemi legati al calore e al consumo energetico, secondo quanto riferito da Reuters, citando fonti informate sulla questione.

La cina sempre piu’ vicina alla autosufficienza dei Chip per l’AI

Xi Jinping ha dato la massima priorità a una politica di consumi e innovazione interni  per garantire una “crescita economica sicura”. Pechino mira a sviluppare una “grande circolazione interna” per limitare le ricadute del possibile “decoupling” dagli Usa. Torna in auge il valore maoista di “autosufficienza autarchica”. 

I due produttori cinesi di chip, CXMT e Wuhan Xinxin, stanno avanzando nella produzione di semiconduttori di memoria ad alta larghezza di banda (HBM), fondamentali per i chipset AI, come riportato da Reuters. Questo sviluppo rappresenta un passo significativo per la Cina nel ridurre la dipendenza dalle forniture straniere, soprattutto in un contesto in cui gli Stati Uniti e i loro alleati stanno limitando l’accesso cinese alla tecnologia avanzata dei semiconduttori.

SK Hynix: esaurita la capacità produttiva di chip 2024 e 2025 per l’AI

l produttore di chip sudcoreano SK Hynix ha affermato che i suoi chip di memoria a larghezza di banda elevata utilizzati per i chipset AI sono stati esauriti quest’anno e quasi al completo per il prossimo anno, in mezzo alla domanda di semiconduttori necessari per sviluppare servizi AI, ha riferito Reuters.

Il fornitore di Nvidia inizierà a inviare campioni della sua ultima memoria a larghezza di banda elevata, o HBM, chip noto come HBM3E a 12 strati a maggio e avvierà la produzione di massa nel terzo trimestre, aggiunge il rapporto .

Si prevede che il mercato HBM continuerà a crescere con l’aumento delle dimensioni dei dati e dei modelli di intelligenza artificiale, ha affermato Kwak Noh-Jung, CEO di SK Hynix, in una conferenza stampa. Si prevede inoltre che la crescita annuale della domanda sarà di circa il 60% nel medio e lungo termine.

SK Hynix, che ha rivali come Samsung Electronics e Micron Technology nell’arena HBM, era l’unico fornitore di chip HBM a Nvidia fino a marzo, osserva il rapporto.

Micron ha anche notato che i suoi chip HBM erano esauriti per quest’anno e che la maggior parte della fornitura per il prossimo anno era già prenotata. L’azienda prevede di fornire ai clienti campioni dei suoi chip HBM3E a 12 strati a marzo.

All’inizio di questa settimana, Samsung ha dichiarato che prevede di produrre in serie i prodotti HBM3E 12H entro il secondo trimestre.

Il mese scorso, SK Hynix ha dichiarato che avrebbe investito circa 5,3 trilioni di won (3,86 miliardi di dollari) per costruire una fabbrica M15X a Cheongju, nella provincia di North Chungcheong, in Corea del Sud.

L’azienda prevede di espandere la capacità produttiva dei chip di memoria ad accesso casuale dinamico, o DRAM, di prossima generazione, includendo la HBM. A marzo, è stato riferito che la società intende investire circa 4 miliardi di dollari per creare un impianto avanzato di confezionamento di chip a West Lafayette, Indiana in America.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

Huawei sovvenzionata dal governo cinese per costruire HBM

Secondo un rapporto di The Information, un gruppo di produttori cinesi di chip, guidati da Huawei, stanno ricevendo finanziamenti dal governo per costruire semiconduttori di memoria ad alta larghezza di banda che fungano da sostituto per la tecnologia AI di Nvidia.

I chip di memoria a larghezza di banda elevata, o HBM, sono necessari per costruire GPU avanzate che alimentano l’intelligenza artificiale e, secondo il rapporto , il consorzio cinese prevede di svilupparne di proprie entro il 2026 .

HBM prova a porre rimedio ai limiti che la GDDR5 (tecnologia utilizzata attualmente per schede video di fascia alta) comincia a mostrare. In particolare, pur offrendo prestazioni di alto livello, una scheda grafica che monta memorie GDDR5 presenta problemi di banda di comunicazione per quanto questa possa essere larga, sembra non essere mai sufficiente.

Le attuali sanzioni statunitensi impediscono alla Cina di importare GPU IA all’avanguardia da società statunitensi come Nvidia.

Le tre società che attualmente producono HBM includono SK Hynix, Samsung Semiconductor e Micron Technology. Tutti utilizzano tecnologia prodotta negli Stati Uniti, che ne impedisce la vendita ad aziende cinesi, come Huawei, dal 2020.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie