Il calcolo analogico con RRAM è tornato dalle pagine dei vecchi libri di ingegneria come una bestia ben addestrata pronta a mangiarsi le GPU per colazione. Questo non è un esercizio di nostalgia; Si tratta di sfruttare matrici resistive per eseguire moltiplicazioni matrice-vettore e risolvere sistemi lineari grandi come quelli che compaiono nell’addestramento delle reti neurali, con efficienza energetica e throughput che, secondo i benchmark recenti, potrebbero superare le architetture digitali di tre ordini di grandezza.

La premessa tecnica è tanto semplice quanto rivoluzionaria: una crossbar di memorie resistive è già una matrice fisica. Sintonizzi la conduttanza di ogni cella e ottieni i coefficienti della matrice. Successivamente, applicando tensioni alle righe, ottieni correnti alle colonne che implementano una moltiplicazione matrice-vettore in un singolo passo fisico. Questa idea di in-memory computing riduce drasticamente la movimentazione di dati, che è il vero collo di bottiglia delle GPU moderne durante l’addestramento dei modelli di intelligenza artificiale. Lavori recenti mostrano inoltre che è possibile combinare tecniche di slicing e circuiti di precisione per raggiungere una accuratezza paragonabile a FP32, sfatando l’idea che l’analogico sia per forza impreciso.

La verità pragmatica è però meno romantica: fare produzione di chip affidabili, replicabili e con bassa variabilità di stato nelle celle RRAM è ancora la parte difficile. I materiali, il controllo degli aggiornamenti di peso durante l’addestramento in memoria e la resilienza ai disturbi di scrittura sono nodi che la community sta affrontando intensamente. La letteratura chimica e device mostra progressi rapidi nello stack dall’atomo al sistema, ma tradurre un laboratorio che dimostra una matrice funzionante in milioni di wafer prodotti in fabbrica rimane una sfida industriale seria.

Non sorprende che il quadro geopolitico e industriale giochi un ruolo chiave. Aziende cinesi stanno collezionando risultati impressionanti sia nel software sia nell’hardware, e modelli di ricerca come DeepSeek hanno accelerato la percezione che non sia più solo una gara tra architetture ma anche tra accesso all’hardware e capacità di integrazione verticale. Le decisioni su chi produce cosa, dove e a quale standard di sicurezza, influenzeranno quanto rapidamente queste soluzioni analogiche potranno scalare fino a sostituire intere classi di acceleratori digitali.

Sul piano applicativo la promessa è seducente: risolvere Ax = B per matrici di dimensioni che oggi richiedono rack interi di GPU in frazioni di secondo con consumi energetici drasticamente inferiori. I metodi iterativi analogici, combinati con bit-slicing e correzione digitale, permettono di cercare autovalori e autovettori in spazi di dimensioni proibitive per le pipeline digitali tradizionali. Il risultato pratico non è solo accelerare il training, ma ripensare l’architettura dell’infrastruttura: nodi di calcolo con matrici resistive locali dove passi di ottimizzazione che oggi consumano energia e latenza diventano istantanei.

Permettetemi un gioco di scommesse da CTO: se una o due aziende risolvono il problema del manufacturing e della stabilità, vedremo un effetto domino. I primi clienti saranno centri di ricerca ad alta intensità computazionale e hyperscaler con interessi nella sovranità hardware. Dopo di loro arriveranno i mercati verticali: finanziario, scientifico, med-tech, dove la risoluzione rapida di sistemi lineari vale soldi reali e risultati clinici. Quando questo hardware si integra con stack software che mappano efficacemente la precisione non intera dei calcoli, la piattaforma analogica non sarà semplicemente una nicchia, ma una base di calcolo alternativa. Tech Xplore+1

Non mancano però i punti deboli: tolleranza agli errori, drift, variabilità tra device e la necessità di algoritmi che accettino aritmetica non intera senza degradare la qualità del modello. Non è un mistero che alcune soluzioni propongano correzioni digitali a posteriori o architetture ibride dove l’analogico esegue il grosso del lavoro e il digitale fa il rifinitore. Questa cooperazione tra domini è il compromesso più realistico nel prossimo decennio, finché non emergeranno materiali o processi di fabbricazione completamente nuovi in grado di garantire la stabilità richiesta per tipologie di carico davvero critiche.

Una curiosità che pochi commentano: il ritorno all’analogico porta con sé una sacra ironia storica. Gli stessi argomenti che cancellarono i computer analogici negli anni Settanta ora ritornano come soluzione ai limiti del digitale. Questa circolarità è utile per ricordare che non esistono paradigmi eterni, solo problemi che cambiano scala e tecnologia che si adatta. In un certo senso, la RRAM è il revival tecnologico che nessuno ha chiesto ma tutti volevano. Qualcuno ha già battezzato questa fase come l’era del “compute fisico”.

Se volessi essere prudente come un regolatore, direi che le valutazioni di impatto energetico devono essere verificate su larga scala. Alcuni paper promettono 100 volte di efficienza energetica e 1000 volte di throughput, numeri che su carta sembrano quasi magia, ma che patiscono delle condizioni di laboratorio ottimizzate. Il vero test arriverà quando i vendor dovranno distribuire acceleratori analogici in datacenter condivisi, dove variazioni termiche, noise elettromagnetico e carichi di lavoro misti metteranno a dura prova la robustezza dell’approccio.

Per i colleghi CTO e gli investitori il takeaway non è semplice: non si tratta di un “if” ma di un “when e come”. Vale la pena investire in prototipi e collaborazioni con gruppi di ricerca che padroneggiano sia la fisica dei dispositivi sia gli algoritmi numerici, perché l’integrazione verticale di queste competenze accelererà il time-to-market. Chi ignorerà l’analogico rischia di ritrovarsi a comprare tempo caro sotto forma di cicli GPU quando alternative più efficienti saranno già operative.

In poche parole: stiamo osservando una convergenza di materiali, architetture e necessità che rende il calcolo analogico con RRAM molto più che un’idea affascinante. Il percorso verso la produzione su larga scala è ancora irto di ostacoli, ma i segnali sono chiari e la posta in gioco è alta. Prepararsi oggi significa avere l’architettura giusta domani, quando qualcuno finalmente consegnerà chip e schede che, finalmente, non saranno solo prototipi da laboratorio ma mattoni per l’infrastruttura dell’intelligenza artificiale del futuro.

Precise and scalable analogue matrix equation solving using resistive random-access memory chips