Notizie di Intelligenza Artificiale Inclusiva in Tempo Reale: Innovazione e Accessibilità per Tutti

Tag: Chip

Come funzionano i chip neuromorfici

Il calcolo neuromorfico è un approccio innovativo all’ingegneria informatica che imita l’architettura e i processi del cervello umano per ottenere efficienza e adattabilità elevate.

Integrando funzioni di elaborazione e memoria, usando reti neurali spiking e circuiti analogici e digitali, i chip neuromorfici offrono vantaggi significativi in elaborazione parallela, efficienza energetica e tolleranza agli errori.

Queste caratteristiche li rendono ideali per applicazioni avanzate di intelligenza artificiale, apprendimento automatico ed edge computing.

ByteDance TikTok collabora con Broadcom su chip AI

ByteDance, proprietaria di TikTok, collabora con Broadcom per sviluppare un avanzato chip AI, garantendo una fornitura stabile e riducendo i costi in mezzo alle tensioni commerciali tra Cina e Stati Uniti, secondo fonti di Reuters.

Ridefinire le esperienze mobili con Arm CSS ottimizzato per l’intelligenza artificiale per il client e il nuovo software Arm Kleidi  

Arm ha rivelato la sua ultima soluzione di elaborazione per smartphone e personal computer dotati di intelligenza artificiale, chiamata Arm Compute Subsystems (CSS) for Client.

La società ha dichiarato che CSS for Client, ottimizzato per l’AI, include le recenti CPU Armv9.2 e GPU Immortalis. Inoltre, presenta implementazioni fisiche pronte per la produzione per CPU e GPU su 3 nm, oltre alle più recenti unità di interconnessione di sistema CoreLink e di gestione della memoria di sistema.

La cina sempre piu’ vicina alla autosufficienza dei Chip per l’AI

Xi Jinping ha dato la massima priorità a una politica di consumi e innovazione interni  per garantire una “crescita economica sicura”. Pechino mira a sviluppare una “grande circolazione interna” per limitare le ricadute del possibile “decoupling” dagli Usa. Torna in auge il valore maoista di “autosufficienza autarchica”. 

I due produttori cinesi di chip, CXMT e Wuhan Xinxin, stanno avanzando nella produzione di semiconduttori di memoria ad alta larghezza di banda (HBM), fondamentali per i chipset AI, come riportato da Reuters. Questo sviluppo rappresenta un passo significativo per la Cina nel ridurre la dipendenza dalle forniture straniere, soprattutto in un contesto in cui gli Stati Uniti e i loro alleati stanno limitando l’accesso cinese alla tecnologia avanzata dei semiconduttori.

SoftBank Sells Off del Vision Fund – Son vuole investire in AI Chips

Il colosso tecnologico giapponese SoftBank ha ceduto le quote di imprese quotate in borsa appartenenti al suo Vision Fund, orientandosi maggiormente verso il settore dei semiconduttori e dell’intelligenza artificiale, secondo quanto riportato da Bloomberg.

Il Vision Fund, che ha rappresentato il fondo di venture capital più grande al mondo, ha dismesso le proprie partecipazioni in aziende quali DoorDash, Coupang e Grab Holdings, come evidenziato dai documenti normativi citati dal notiziario.

SK Hynix: esaurita la capacità produttiva di chip 2024 e 2025 per l’AI

Il produttore di chip sudcoreano SK Hynix ha affermato che i suoi chip di memoria a larghezza di banda elevata utilizzati per i chipset AI sono stati esauriti quest’anno e quasi al completo per il prossimo anno, in mezzo alla domanda di semiconduttori necessari per sviluppare servizi AI, ha riferito Reuters.

Il fornitore di Nvidia inizierà a inviare campioni della sua ultima memoria a larghezza di banda elevata, o HBM, chip noto come HBM3E a 12 strati a maggio e avvierà la produzione di massa nel terzo trimestre, aggiunge il rapporto .

Si prevede che il mercato HBM continuerà a crescere con l’aumento delle dimensioni dei dati e dei modelli di intelligenza artificiale, ha affermato Kwak Noh-Jung, CEO di SK Hynix, in una conferenza stampa. Si prevede inoltre che la crescita annuale della domanda sarà di circa il 60% nel medio e lungo termine.

SK Hynix, che ha rivali come Samsung Electronics e Micron Technology nell’arena HBM, era l’unico fornitore di chip HBM a Nvidia fino a marzo, osserva il rapporto.

Micron ha anche notato che i suoi chip HBM erano esauriti per quest’anno e che la maggior parte della fornitura per il prossimo anno era già prenotata. L’azienda prevede di fornire ai clienti campioni dei suoi chip HBM3E a 12 strati a marzo.

All’inizio di questa settimana, Samsung ha dichiarato che prevede di produrre in serie i prodotti HBM3E 12H entro il secondo trimestre.

Il mese scorso, SK Hynix ha dichiarato che avrebbe investito circa 5,3 trilioni di won (3,86 miliardi di dollari) per costruire una fabbrica M15X a Cheongju, nella provincia di North Chungcheong, in Corea del Sud.

L’azienda prevede di espandere la capacità produttiva dei chip di memoria ad accesso casuale dinamico, o DRAM, di prossima generazione, includendo la HBM. A marzo, è stato riferito che la società intende investire circa 4 miliardi di dollari per creare un impianto avanzato di confezionamento di chip a West Lafayette, Indiana in America.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie