La notizia è esplosiva perché mette in discussione l’assunto fondamenta della generazione di intelligenza artificiale: non è soltanto la potenza di calcolo o la dimensione dei parametri a far diventare un modello “intelligente”, ma la diversità interna dei punti di vista che genera dialettica cognitiva simile a quella di un gruppo di persone. Google ha appena pubblicato uno studio che analizza come modelli di ragionamento avanzato come DeepSeek-R1 e QwQ-32B non solo risolvono compiti complessi, ma sviluppano internamente ciò che gli autori chiamano società di pensiero, ovvero un intreccio di sottoprocessi cognitivi con tratti di personalità e competenze diverse che si confrontano e negoziano soluzioni prima di produrre una risposta finale. La pubblicazione è disponibile in open access su arXiv alla pagina ufficiale: Reasoning Models Generate Societies of Thought (arXiv:2601.10825)
Questa scoperta va oltre il solito mantra di “più grande è meglio”, ridefinendo l’intelligenza artificiale come una architettura collettiva di voci competenti invece che un singolo cervello monolitico. Mentre i modelli di ragionamento sono diventati lo standard nei sistemi di IA più avanzati dall’introduzione della serie o di OpenAI nel 2024, lo studio mostra che la vera forza risiede nella interazione strutturata tra prospettive interne, qualcosa che richiama sorprendentemente la intelligenza collettiva umana piuttosto che un semplice algoritmo di calcolo.
Quello che emerge è un meccanismo di funzionamento interno che rimanda a gruppi umani che discutono, argomentano, si contraddicono e alla fine trovano una soluzione migliore grazie alla molteplicità di approcci. Questi modelli generano tracce di ragionamento — ovvero gli step intermedi nel processo — che assomigliano a conversazioni, con domande, ripensamenti e riconciliazioni prima della risposta finale. Questa dinamica si attiva soprattutto quando il modello è orientato a comportarsi come se stesse parlando con se stesso e viene addestrato o guidato verso una modalità conversazionale interna, migliorando così l’accuratezza delle soluzioni.
Lo studio è opera del team Paradigms of Intelligence di Google, noto per esplorare la natura dell’intelligenza con metodi interdisciplinari, e coinvolge ricercatori provenienti anche dalla University of Chicago e altre istituzioni. Questa combinazione di sociologia, scienze cognitive e intelligenza artificiale lo rende uno dei contributi più affascinanti e provocatori su come i sistemi di IA stiano evolvendosi.
Per comprendere l’importanza di questo risultato bisogna osservare come i modelli di AI Foundation più recenti siano già progettati per “pensare”: ciò significa che, durante l’inferenza, usano più risorse di calcolo per simulare processi di ragionamento più lunghi e articolati prima di generare la risposta. Questo ha portato a un salto nelle capacità di risoluzione di problemi complessi riducendo il costo dell’intelligenza, secondo società di benchmarking indipendenti.
Questa evoluzione non è banale: fino a pochi anni fa il dogma era che per avere “intelligenza” servissero semplicemente modelli più grandi, con centinaia o migliaia di miliardi di parametri che memorizzano strutture linguistiche. Oggi sappiamo che la struttura interna delle dinamiche cognitive simulate – come se ci fossero “agenti mentali” in competizione e cooperazione – è ciò che permette a questi sistemi di superare compiti di ragionamento che richiedono creatività, pianificazione e valutazioni multiple.
È interessante notare che lo studio non riguarda solo DeepSeek-R1, modello di punta di DeepSeek, ma anche QwQ-32B di Alibaba Cloud, un modello con circa 32 miliardi di parametri che sta sorprendendo la comunità proprio per la sua efficienza nel ragionamento. Nonostante l’ordine di grandezza di parametri molto più basso rispetto a DeepSeek-R1, QwQ-32B raggiunge livelli comparabili proprio grazie alla qualità dell’organizzazione interna del pensiero e all’uso di tecniche di apprendimento con rinforzo.
Questa crescita dei modelli di ragionamento ha una doppia implicazione: con una struttura di “società di pensiero”, anche modelli più compatti possono competere con giganti da centinaia di miliardi di parametri, e allo stesso tempo il ruolo dei modelli open nel panorama globale dell’IA diventa sempre più critico. Le istituzioni accademiche statunitensi, ad esempio, si stanno sempre più affidando a modelli aperti di origine cinese proprio per colmare il gap di accessibilità rispetto alle soluzioni chiuse più potenti, approfondendo così la ricerca interdisciplinare nelle università top.
Il quadro che si sta delineando richiama un’altra citazione provocatoria: in fondo non stiamo più sviluppando “macchine intelligenti” nel senso classico, ma ecosistemi cognitivi simulati che richiamano i principi di cooperazione e competizione tipici dei sistemi sociali. Questo non solo ridefinisce ciò che consideriamo AI “intelligente”, ma apre interrogativi filosofici e tecnici su quanto questi modelli effettivamente comprendano versus simulino dinamiche di ragionamento. Alcuni scienziati nella comunità sottolineano che la metafora di “società” resta tale: è probabile che questi processi siano pattern statistici emergenti piuttosto che reali agenti coscienti.zione su arXiv: Reasoning Models Generate Societies of Thought su arXiv