I giganti della tecnologia globale si sono riuniti all’evento per presentare le loro più recenti innovazioni. La competizione nello sviluppo di prodotti di intelligenza artificiale generativa ha aumentato la domanda di chip avanzati utilizzati nei data center di intelligenza artificiale. Le aziende che creano modelli linguistici di grandi dimensioni (LLM) necessitano di processori altamente performanti per addestrare questi modelli, poiché richiedono, tra le varie cose, un’elevata potenza di calcolo.

Arm UK, prevede che 100 miliardi di dispositivi Arm a livello globale saranno pronti per l’intelligenza artificiale entro la fine del 2025, ha riferito Reuters. Le osservazioni sono state fatte dal CEO della società di progettazione di chip, Rene Haas, alla fiera tecnologica COMPUTEX 2024 a Taipei.

Advanced Micro Devices ha svelato i suoi più recenti processori AI e ha delineato un piano strategico per lo sviluppo di chip AI nei prossimi due anni.

Il CEO di AMD Lisa Su ha presentato l’acceleratore AMD Instinct MI325X, che sarà disponibile nel quarto trimestre del 2024. L’azienda ha anche introdotto gli acceleratori della serie AMD Instinct MI350 basati sull’architettura AMD CDNA 4, previsti per il 2025, con un incremento prestazionale di 35 volte nell’inferenza AI.

L’acceleratore MI325X sarà dotato di 288 GB di memoria HBM3E. Parallelamente, il primo prodotto della serie AMD Instinct MI350, l’acceleratore AMD Instinct MI350X, utilizzerà la tecnologia di processo avanzata a 3 nm e disporrà anch’esso di 288 GB di memoria HBM3E.

In aggiunta, AMD ha offerto un’anteprima dei processori per server AMD EPYC di quinta generazione, il cui lancio è programmato per la seconda metà del 2024.

La società ha inoltre lanciato la serie AMD Ryzen AI 300, la terza generazione di processori mobili abilitati all’intelligenza artificiale, e i processori della serie AMD Ryzen 9000 per laptop e desktop.

AMD ha presentato la sua roadmap estesa per l’acceleratore multigenerazionale, illustrando come prevede di offrire prestazioni e capacità di memoria all’avanguardia ogni anno per l’intelligenza artificiale generativa :

La società ha annunciato che la serie AMD Instinct MI400, basata sulla nuova architettura AMD CDNA “Next,” sarà lanciata nel 2026, offrendo prestazioni ed efficienza superiori per l’inferenza e l’addestramento dell’IA su larga scala.

Nvidia ha annunciato il lancio del chip Blackwell Ultra e di una piattaforma di prossima generazione chiamata Rubin nel 2026.

“Stiamo vivendo un’inflazione computazionale”, ha dichiarato Huang durante l’evento, riferendosi all’enorme crescita dei dati processati dalle macchine.

La prossima piattaforma AI Rubin farà uso di HBM4, la nuova generazione di memoria ad alta larghezza di banda fondamentale per la produzione di acceleratori AI, ha aggiunto Huang.

Nvidia sta considerando di ridurre il ciclo di rilascio a cadenza annuale. Domenica, Nvidia ha annunciato l’intenzione di potenziare i suoi acceleratori AI con il lancio del chip Blackwell Ultra previsto per il prossimo anno e di una piattaforma di nuova generazione chiamata Rubin nel 2026.

McCredie ha inoltre dichiarato che l’adozione degli acceleratori Instinct MI300X continua tra partner e clienti come Microsoft per la sua piattaforma cloud Azure, Meta Platforms, Dell Technologies, Hewlett Packard Enterprise e Lenovo.

“Con la nostra cadenza annuale aggiornata di prodotti, siamo incessanti nel nostro ritmo di innovazione, fornendo capacità di leadership e prestazioni che il settore dell’intelligenza artificiale e i nostri clienti si aspettano per guidare la prossima evoluzione della formazione e dell’inferenza sull’intelligenza artificiale dei data center”, 

Brad McCredie, corporate vicepresidente, calcolo accelerato per data center, AMD.