La narrativa dominante sull’intelligenza artificiale negli ultimi anni ha avuto un difetto strutturale, quasi imbarazzante per chi frequenta davvero l’ingegneria dei sistemi: abbiamo parlato ossessivamente di modelli, algoritmi, benchmark, dimenticando che tutta questa brillante astrazione matematica poggia su un’infrastruttura fisica brutale, energivora, terribilmente inefficiente. Il risultato è sotto gli occhi di chiunque legga una bolletta energetica di un data center. Non è un problema software. Non lo è mai stato. È un problema termodinamico travestito da innovazione digitale.

Nel cuore di sistemi come ChatGPT o Claude si nasconde un’architettura che, se descritta con brutalità manageriale, appare quasi anacronistica: memoria da una parte, calcolo dall’altra, dati che viaggiano avanti e indietro come documenti cartacei tra due uffici burocratici negli anni Settanta. Questo movimento continuo, noto come “von Neumann bottleneck”, non è un dettaglio tecnico, ma il vero collo di bottiglia energetico dell’AI moderna. Ogni inferenza, ogni token generato, ogni previsione è il risultato di milioni, talvolta miliardi, di micro-trasferimenti di dati.

Chi gestisce infrastrutture su scala industriale lo sa bene: il costo marginale dell’intelligenza artificiale non è nel modello, ma nell’energia necessaria per farlo respirare. La Silicon Valley ama raccontarsi come un laboratorio di pura astrazione; in realtà è una gigantesca centrale elettrica mascherata da cloud.

In questo contesto, la ricerca sviluppata presso Loughborough University introduce una frattura concettuale che merita attenzione strategica, non solo accademica. Il dispositivo progettato dal team guidato da Pavel Borisov non migliora semplicemente l’efficienza di un algoritmo esistente. Fa qualcosa di più radicale: elimina, o quantomeno riduce drasticamente, la separazione tra memoria e calcolo, spostando l’intelligenza direttamente dentro la materia.

Il cuore della tecnologia è un componente che sembra uscito da un manuale di elettronica avanzata ma che, in realtà, è una dichiarazione filosofica: il memristore. Un resistore con memoria. Un oggetto fisico che non si limita a eseguire istruzioni, ma incorpora la storia dei segnali che ha attraversato. In altre parole, non calcola soltanto. Ricorda. E nel ricordare, modifica il proprio comportamento futuro.

La metafora del cervello, spesso abusata nel marketing dell’AI, qui smette di essere una metafora e diventa ingegneria. Nel cervello umano non esiste una separazione netta tra memoria e processamento; ogni neurone è, contemporaneamente, unità di calcolo e archivio dinamico. La ricerca di Loughborough replica questo principio attraverso connessioni fisiche complesse, realizzate mediante pori nanometrici in film sottili di ossido di niobio. Il risultato è una rete neurale fisica, non simulata, in cui la dinamica del materiale stesso esegue il calcolo.

La promessa di un’efficienza energetica fino a duemila volte superiore rispetto ai metodi software tradizionali suona, inevitabilmente, come una provocazione. E probabilmente lo è. Tuttavia, anche ridimensionando l’ordine di grandezza, il punto resta: stiamo osservando un cambio di paradigma. Non più AI che gira sull’hardware. Ma hardware che è, di per sé, AI.

Chi ha vissuto almeno un paio di cicli tecnologici riconosce questo pattern. Negli anni Ottanta e Novanta, il software ha divorato l’hardware, trasformando macchine generiche in piattaforme universali. Oggi assistiamo al movimento inverso: l’hardware torna protagonista, specializzandosi fino a incarnare funzioni cognitive specifiche. GPU, TPU, ASIC erano solo l’inizio. I memristori potrebbero essere il passo successivo, più radicale, perché non accelerano il calcolo. Lo riscrivono.

Il punto interessante, e in parte inquietante per chi investe miliardi in data center, è che questa architettura non è ottimizzata per chatbot o generazione di testo. Non serve a rendere ChatGPT più veloce o più creativo. Serve a qualcosa di meno glamour ma infinitamente più strategico: l’analisi di sistemi dinamici, caotici, temporali.

Mercati finanziari, modelli climatici, segnali biologici, vibrazioni meccaniche, onde sismiche. Tutto ciò che cambia nel tempo, spesso in modo non lineare, rappresenta una sfida computazionale enorme per i sistemi tradizionali. Qui il costo energetico esplode, perché ogni variazione richiede aggiornamenti continui e trasferimenti incessanti di dati.

Il dispositivo sviluppato a Loughborough affronta il problema alla radice. Non simula la dinamica. La incarna. Il materiale stesso evolve insieme al segnale che processa, creando una sorta di “memoria del tempo” fisicamente integrata nel sistema. Una frase che suona quasi poetica, ma che ha implicazioni industriali molto concrete.

Immaginiamo un’auto che monitora in tempo reale lo stato del motore senza bisogno di inviare dati a un server remoto. Oppure un dispositivo medico indossabile che rileva anomalie neurologiche analizzando pattern complessi direttamente sul bordo, senza cloud, senza latenza, senza consumo energetico eccessivo. Oppure, per chi ha gusti più apocalittici, sistemi di controllo in impianti nucleari che reagiscono a variazioni infinitesimali con una precisione impossibile per le architetture attuali.

La vera rivoluzione, tuttavia, non è tecnologica. È economica. Ridurre di ordini di grandezza il consumo energetico significa ridefinire completamente la struttura dei costi dell’intelligenza artificiale. Significa spostare il baricentro dall’infrastruttura centralizzata verso l’edge computing. Significa, in prospettiva, rendere sostenibili applicazioni che oggi sono semplicemente troppo costose per esistere.

Qui la narrativa della Silicon Valley inizia a scricchiolare. Per anni abbiamo accettato, quasi con rassegnazione, che l’AI fosse intrinsecamente energivora. Che l’unico modo per progredire fosse costruire data center sempre più grandi, alimentati da reti elettriche sempre più stressate. È una visione comoda, perché giustifica investimenti colossali e consolida posizioni dominanti.

La ricerca sui memristori suggerisce un’alternativa scomoda: forse il problema non è quanta energia abbiamo, ma come la usiamo. E, soprattutto, dove.

Un dettaglio interessante, che pochi commentatori hanno colto, riguarda la natura “casuale” delle connessioni nel dispositivo. I ricercatori parlano di reti fisiche complesse, apparentemente disordinate, ispirate alla struttura del cervello. In un’epoca ossessionata dall’ottimizzazione e dalla precisione, l’idea che il caos possa essere una risorsa computazionale è, francamente, controintuitiva.

Eppure, chi lavora con sistemi complessi sa che il disordine controllato è spesso più potente dell’ordine rigido. I mercati finanziari, per esempio, non sono efficienti perché sono ordinati, ma perché sono dinamicamente instabili. Il cervello umano non è preciso nel senso ingegneristico del termine, ma è straordinariamente adattivo.

Portare questo principio nell’hardware significa accettare una certa perdita di controllo in cambio di una maggiore efficienza e flessibilità. Non è una scelta banale. Richiede un cambio di mentalità che molte organizzazioni, soprattutto quelle abituate a pipeline deterministiche e auditabili, potrebbero trovare difficile da digerire.

Il parallelo con la recente ricerca di Google sulla compressione della memoria, con tecniche come TurboQuant, è inevitabile. Anche lì l’obiettivo è ridurre il costo energetico senza sacrificare l’accuratezza. Tuttavia, mentre Google lavora ancora all’interno del paradigma software, ottimizzando rappresentazioni e modelli, Loughborough propone di cambiare il substrato stesso del calcolo.

È la differenza tra migliorare un motore a combustione e inventare l’elettrico. Entrambi utili. Ma uno dei due cambia la traiettoria della storia.

Naturalmente, tra laboratorio e industria esiste un abisso. I prototipi funzionano in condizioni controllate, su problemi specifici, con scale ridotte. Trasformarli in prodotti commerciali richiede anni, capitali, e una dose significativa di compromessi. Chi promette rivoluzioni immediate probabilmente non ha mai portato una tecnologia dal paper al mercato.

Tuttavia, ignorare questi segnali sarebbe un errore strategico. L’intelligenza artificiale sta entrando in una fase di maturità in cui l’efficienza conta quanto, se non più, delle performance pure. Il mercato non premia più solo chi ha il modello più grande, ma chi riesce a farlo funzionare in modo sostenibile.

La vera domanda, quindi, non è se i memristori sostituiranno le architetture attuali. È quando e in quali segmenti inizieranno a eroderne il dominio. Come spesso accade, la disruption non arriverà dal centro, ma dai margini. Applicazioni di nicchia, vincoli energetici estremi, contesti in cui il cloud non è disponibile o non è economicamente giustificabile.

Da lì, lentamente, il paradigma si espanderà. Sempre che non venga soffocato prima da interessi consolidati, standard industriali e quella naturale inerzia che caratterizza ogni grande ecosistema tecnologico.

In fondo, la storia dell’innovazione è piena di idee brillanti che hanno impiegato decenni per trovare il loro spazio. Alcune non lo hanno mai trovato. Altre hanno cambiato il mondo in silenzio, senza annunci trionfali su Twitter.

Nel frattempo, mentre continuiamo a discutere di quale chatbot sia più “intelligente”, la vera partita si gioca altrove. Nella fisica dei materiali. Nella gestione dell’energia. Nella capacità di trasformare l’intelligenza artificiale da esercizio computazionale a fenomeno incarnato.

Research: https://advanced.onlinelibrary.wiley.com/doi/full/10.1002/aisy.202500833