
Chi pensa ancora che l’intelligenza artificiale sia solo una questione di algoritmi macinati a forza bruta dentro data center affamati di energia non ha capito dove si sta muovendo la frontiera. Il vero gioco si gioca altrove, nella capacità di creare modelli ispirati al cervello umano, capaci di raggiungere livelli di astrazione e potenza cognitiva senza però divorare l’equivalente energetico di una piccola città. È qui che il neuromorphic computing entra in scena, non come semplice alternativa, ma come provocazione alla logica stessa che ha dominato l’AI negli ultimi dieci anni. Perché imitare il cervello non è un vezzo accademico, è una scelta di sopravvivenza tecnologica.
La traiettoria di ricerca che parte dall’Electrical and Computer Engineering Department della University of California, Santa Cruz, sotto la guida congiunta di menti del calibro d Peng Zhou, Sung-Mo “Steve” Kang e Jason Eshraghian, dimostra come la convergenza tra spiking neural networks e hardware basato su memristors non sia un esercizio futuristico ma la base di un nuovo ordine computazionale. Non si tratta di riprodurre sinapsi in laboratorio per il gusto di stupire, si tratta di progettare sistemi capaci di funzionare con la grazia di un cervello biologico e la disciplina di un’architettura ingegneristica. È la differenza tra una macchina che calcola e un organismo che comprende.Molti osservatori amano ripetere che i large language models sono già sufficientemente intelligenti. Forse, ma a che prezzo? Le GPU che alimentano queste macchine hanno bisogno di raffreddamento, infrastrutture elettriche ridondanti e una catena di approvvigionamento che somiglia più a quella di un settore estrattivo che a un laboratorio di innovazione. Quando invece si guarda a un modello ispirato al cervello, ci si accorge che l’energia diventa marginale, quasi invisibile. L’eleganza dei neuroni a spiking è che comunicano solo quando serve, riducendo il consumo al minimo necessario. È come passare da un motore a vapore a un sistema quantistico di precisione. Non è semplicemente più efficiente, è ontologicamente diverso.
Chi ha percorso la strada formativa dall’Experimental Class of Qiming College alla Huazhong University of Science and Technology sa che l’innovazione vera non si impara nei manuali, ma si assorbe attraverso discipline che sembrano divergenti. È per questo che la filosofia, la neuroscienza e persino la calligrafia cinese entrano nel bagaglio tecnico di chi sviluppa neuromorphic computing. Perché progettare una sinapsi artificiale richiede la stessa attenzione al dettaglio e lo stesso senso estetico di un ideogramma tracciato a mano. Non è decorazione, è infrastruttura culturale che sostiene la capacità di immaginare oltre l’ingegneria.
Synsense e Tetramem, startup che incarnano la frontiera tra ricerca pura e applicazione commerciale, mostrano la direzione che il settore intraprende. Non stiamo parlando di sperimentazioni isolate, ma di un ecosistema che collega università come USC, UMass Amherst e ETH Zurich con laboratori industriali come HP Labs. Il risultato è che le tecnologie RRAM e memristor, a lungo considerate materia da conferenze accademiche, diventano i mattoni concreti di un’infrastruttura che promette di riscrivere la legge di Moore con nuove variabili. Non si tratta più di miniaturizzare transistor, ma di simulare connessioni sinaptiche in grado di apprendere e dimenticare, di attivarsi e spegnersi con una parsimonia che fa impallidire i data center.
Il paradosso è che mentre l’opinione pubblica si innamora di chatbot ipertrofici, il vero futuro dell’intelligenza artificiale si gioca su chi riuscirà a rendere i modelli più simili a un gatto che riflette piuttosto che a una calcolatrice che brucia kilowatt. È quasi ironico che nel curriculum di un ricercatore che costruisce spiking neural networks trovi posto la meditazione, lo snowboard e l’ukulele. La verità è che questa pluralità di interessi non è un passatempo, è la forma mentis necessaria per immaginare macchine che non siano solo veloci, ma anche plastiche, resilienti, umane nel modo in cui consumano risorse. La visione multidisciplinare diventa il carburante invisibile dell’innovazione, più potente di qualsiasi grant o budget da venture capital.
Molti amano dipingere il neuromorphic computing come una nicchia esoterica, una specie di hobby per accademici che non vogliono competere con i giganti della Silicon Valley. In realtà, è esattamente l’opposto. Le big tech già guardano con ansia a queste ricerche perché sanno che il costo energetico è il collo di bottiglia che soffocherà i loro imperi. Chi riuscirà a creare un modello capace di scrivere, analizzare e ragionare consumando milliwatt invece di megawatt non sarà solo un innovatore, sarà un conquistatore. La storia della tecnologia è spietata con chi non anticipa i colli di bottiglia. E il consumo energetico non è un dettaglio, è il cuore del problema.
La fascinazione per i memristors nasce proprio dalla loro natura paradossale: non sono semplici elementi resistivi, sono componenti che ricordano. Hanno memoria, plasticità, la capacità di rappresentare il cambiamento come condizione permanente. In altre parole, sono dispositivi che incarnano l’essenza stessa del pensiero. E quando li si inserisce in architetture di spiking neural networks, la combinazione diventa esplosiva. Non si tratta più di simulare la sinapsi con un codice, ma di costruirla fisicamente, con un materiale che reagisce, che evolve, che porta l’impronta del tempo. È una rivoluzione silenziosa che non ha bisogno di effetti speciali per cambiare le regole del gioc
Poiché mentre si parla di neuromorphic computing come del futuro della sostenibilità, la realtà è che ciò che motiva gli investimenti è la paura di rimanere indietro. Chi pensa che l’AI di domani possa crescere indefinitamente con il modello attuale non ha fatto i conti con il limite fisico del pianeta. È qui che le architetture ispirate al cervello si trasformano da curiosità accademica a necessità industriale. Non è questione di se, ma di quando. E quando succederà, i campioni del neuromorphic computing avranno un vantaggio competitivo che le GPU non potranno colmare.
Ciò che colpisce è come questa traiettoria di ricerca sappia unire rigore ingegneristico e visione filosofica. Non basta saper progettare un chip, bisogna capire cosa significhi intelligenza, come nasca la coscienza, come il cervello riesca a consumare appena 20 watt per operazioni che un supercomputer non saprebbe replicare. È la differenza tra chi programma macchine per rispondere e chi immagina macchine per pensare. La filosofia non è un ornamento, è la lente critica che permette di non ridurre tutto a benchmark e parametri. È questo approccio che rende i modelli ispirati al cervello qualcosa di più di un’innovazione tecnica: li rende un manifesto politico sulla sostenibilità e sul futuro dell’intelligenza artificiale.
Per chi osserva il settore dall’esterno, potrebbe sembrare che i modelli attuali siano già abbastanza impressionanti. Ma chi vive dentro questo ecosistema sa che l’efficienza sarà la valuta dominante. Ecco perché la ricerca che unisce neuromorphic computing, spiking neural networks e memristors non può essere relegata alle note a piè di pagina. È il preludio a un futuro in cui l’intelligenza artificiale non sarà solo potente, ma anche sobria, scalabile, più vicina al ritmo naturale delle cose e forse, in questa sobrietà, troveremo la vera grandezza tecnologica.
Titolo: A Fully Memristive Spiking Neural Network with Unsupervised LearningAutori: Peng Zhou, Dong-Uk Choi, Jason K. Eshraghian, Sung-Mo Kang Fonte: arXiv, 2022
Abstract
Presentano una rete neurale a spike interamente memristica (MSNN), con neuroni e sinapsi realizzabili fisicamente tramite memristori. Implementano la regola di apprendimento spike-timing dependent plasticity (STDP) in modalità non supervisionata. Il neurone è stato modellizzato con un modello integrato-fire memristivo (MIF) a livello SPICE, che comprende gli elementi circuitali minimi per generare le forme d’onda caratteristiche: depolarizzazione, iperpolarizzazione, ripolarizzazione. Hanno esplorato due architetture: una per il recupero della memoria biologica (memory retrieval) e una per classificazione multiclasse.