Hierarchical Reasoning Models (HRMs), negli ultimi tempi, hanno sollevato un discreto entusiasmo nel campo dell’intelligenza artificiale, ma guardando più da vicino si tratta più di un fuoco di paglia che di una reale innovazione. È curioso come questi modelli, nel tentativo di conferire un’aura quasi “umana” alle loro architetture, abusino pesantemente di antropomorfismi, dipingendo scenari che sembrano usciti da un manuale di neuropsicologia pop, mentre ignorano bellamente ciò che rende davvero complesso e unico il processo di ragionamento umano. Il nome stesso, “Hierarchical Reasoning Models”, crolla miseramente sotto il peso di un’analisi critica, e questo senza nemmeno entrare nel dettaglio tecnico.

Uno dei segnali più evidenti di questa incongruenza sta nel modo in cui viene trattata la funzione di perdita, quella famigerata Loss Function che nessun cervello umano conosce o usa. Per chi non mastica troppo AI, la Loss Function è un ottimizzatore stretto, una formula matematica che guida il sistema verso un obiettivo prestabilito, minimizzando l’errore su un dataset o una funzione ricorsiva. Nel cervello umano, però, il sistema motivazionale non è un algoritmo matematico, ma un complesso intreccio di emozioni, come da decenni evidenziato da Antonio Damasio e una miriade di ricerche successive. Le emozioni non sono semplicemente ottimizzatori freddi; sono esperienze soggettive che si manifestano in un “Global Workspace” neuronale (la teoria del Global Workspace di Baars), un’arena in cui percezioni, ricordi e sentimenti si integrano e si trasformano in consapevolezza.

Il disallineamento tra HRM e ragionamento umano è così profondo che diventa quasi imbarazzante. Quando si ha a che fare con sistemi cognitivi “con un sistema emozionale compromesso”, come avviene in rare condizioni neurologiche, il comportamento risultante è notoriamente irrazionale, impulsivo e spesso autodistruttivo. Ciò conferma che la “razionalità pura” non è il fulcro del pensiero umano, ma un’illusione postuma del nostro cervello. Le HRM, invece, persistono a guardare il cervello come se fosse una macchina da ottimizzare secondo funzioni di perdita, ignorando queste evidenze neuroscientifiche.

C’è da dire che HRM portano alcune migliorie marginali rispetto agli LLM (Large Language Models) di base e ai loro derivati. Ad esempio, l’introduzione di una fase secondaria di ottimizzazione dopo la convergenza iniziale è un’idea interessante, e l’espansione verso gerarchie dinamiche e profonde, con strutture che si avvicinano a grafi più complessi, potrebbe aprire qualche strada nuova. Tuttavia, questi aggiustamenti restano puramente incrementali e non sono minimamente in grado di riprodurre le caratteristiche essenziali del ragionamento umano.

Il punto è che l’architettura stessa di questi modelli non è concepita per soddisfare i requisiti fondamentali della cognizione umana. Potrebbero rappresentare un passo utile per aziende già investite negli LLM e nelle loro varianti, ma la loro somiglianza estrema con i modelli precedenti implica che non portano innovazioni di natura qualitativa, soltanto una serie di ottimizzazioni marginali. È come aggiungere una fetta di formaggio su un pane vecchio e chiamarlo sandwich gourmet. Nient’altro che marketing.

Si vocifera che la prossima evoluzione potrebbe essere una Hierarchical Mixture of Experts (MoE) con livelli gerarchici dinamici e variabili. Questa strada, se confermata, potrebbe suscitare interesse tra le big tech e le startup, soprattutto per il potenziale di riduzione dei costi computazionali — un tema caldo considerando l’assurdo dispendio di risorse degli attuali modelli di catene di pensiero (Chain of Thought, CoT). In fondo, una gerarchia di due livelli può sì chiamarsi gerarchia, ma è più simile a un’escamotage che a una vera rivoluzione concettuale.

Un ultimo pensiero da un collega suona come una pietra tombale sul marketing HRM: chiamarla gerarchia è come mettere una fetta di formaggio sul solito pane e chiamarlo sandwich. Un consiglio: togliamo la retorica antropomorfica, scartiamo i buzzword e scriviamo finalmente paper con contenuti più onesti e rigorosi. Solo così potremo sperare di avvicinarci davvero a una comprensione profonda della mente umana e, perché no, costruire sistemi di intelligenza artificiale che la riflettano almeno in parte, senza l’illusione che già sia così.

L’illusione che si stia facendo “ragionamento” è affascinante ma fuorviante. Il cervello umano non è un ottimizzatore di funzioni di perdita, ma un sistema di esperienze emotive e cognitive integrate in un workspace globale. La scienza cognitiva ha già demolito l’idea che la razionalità sia un algoritmo matematico: insistere su questa narrativa nel mondo AI rischia di produrre sistemi sempre più sofisticati, ma fondamentalmente vuoti.

In questo senso, HRM è un esercizio di stile, non un cambio di paradigma. E per chi ambisce davvero a innovare nel ragionamento artificiale, il prossimo passo è abbandonare il “gioco delle apparenze” e immergersi nelle complesse dinamiche di emozione, esperienza e consapevolezza, magari ispirandosi a Damasio, Baars e chi da decenni scrive la vera storia del cervello umano, non quella di un ottimizzatore matematico mascherato da rivoluzione tecnologica.