Se l’intelligenza artificiale è la nuova linfa delle aziende, i semiconduttori sono il cuore pulsante che la alimenta. IBM ha appena interpellato oltre 800 leader C-level per capire come sta evolvendo il mondo dei chip, e le risposte non lasciano spazio a illusioni: avere una strategia AI senza una strategia dei chip è come guidare una Ferrari senza carburante. L’analisi rivela quattro linee di tendenza che stanno ridisegnando il panorama tecnologico e industriale, con implicazioni strategiche profonde per chiunque osi pensare al prossimo decennio senza considerare il silicio come asset critico.
Categoria: White Paper Pagina 1 di 9
White Paper, documenti e pubblicazioni su Intelligenza Artificiale, innovazione e trasformazione digitale
Parlare di Dragon Hatchling significa toccare un nervo scoperto dell’industria tecnologica, quella sensazione fastidiosa che ci dice che l’era dei transformer, per quanto gloriosa, sta iniziando a mostrare le sue crepe. Pathway decide di ignorare le solite liturgie del deep learning e propone un’architettura che non cerca soltanto di prevedere la parola successiva ma punta a ricreare il metabolismo stesso del pensiero. Una mossa che ricorda l’ambizione dei primi pionieri delle reti neurali biologiche, con la differenza che oggi disponiamo di una potenza computazionale tale da rendere queste follie progettuali qualcosa di più di un esercizio da laboratorio.

Negli ultimi mesi, un filone di ricerca firmato Anthropic ha riaperto una delle questioni più delicate nella filosofia della mente applicata all’intelligenza artificiale: può un modello linguistico “sapere” a cosa sta pensando? Dietro la semplicità apparente di questa domanda si nasconde un terreno concettuale complesso, che tocca la distinzione tra auto-rappresentazione, consapevolezza e coscienza fenomenica.
Gli esperimenti descritti da Jack Lindsey e dal team di Anthropic introducono il concetto di “consapevolezza introspettiva emergente” (emergent introspective awareness). In alcuni test condotti sui modelli Claude Opus 4 e 4.1, i ricercatori hanno “iniettato” artificialmente concetti specifici come tradimento o tristezza direttamente nei vettori neurali interni del modello. Sorprendentemente, in circa il 20% dei casi il modello ha riconosciuto di “percepire” un pensiero intrusivo, distinto dal flusso normale del dialogo.
Nel mare della retorica sull’intelligenza artificiale, dove tutti parlano di modelli giganti, memorie oceaniche e catene di prompt, poche conversazioni mettono davvero l’accento su un punto: la qualità del contesto che alimenti al modello. Proprio qui entra in scena l’ormai centrale disciplina del Context Engineering. Una specializzazione che, ben oltre il semplice prompt, definisce l’architettura dietro le applicazioni IA che generano vero valore. Per chi guarda all’innovazione come te e come me che vedo la trasformazione digitale come missione questo significa spostare l’attenzione: non sulla dimensione del modello, ma sul grafo dei dati e delle istruzioni che lo circondano.
Google ha appena rilasciato una versione aggiornata della guida “introduction to agents blueprint”, e sì: è un piccolo terremoto nel mondo dell’agentic AI systems. Si tratta di un documento tecnico, di circa 54 pagine, curato dal team Google Cloud AI, che esplora come progettare, implementare e governare agenti intelligenti su scala enterprise.
All’incipit troviamo l’architettura dell’agente: come si collegano cervello, memoria e strumenti. Il cervello è ovviamente un grande modello linguistico (LLM) che fa da motore del ragionamento, mentre gli strumenti e le API fungono da “mani” operative. La guida chiarisce come orchestrare più agenti, come gestire deployment massivi in ambienti reali, come valutare le prestazioni e, ciliegina finale, come progettare loop di apprendimento auto-evolutivi. È presente anche un riferimento alla “AlphaEvolve” come design modellare per agenti adattivi.
L’Europa si sta infilando in un campo minato, e questa volta la miccia si chiama intelligenza artificiale. Secondo indiscrezioni riportate da Politico, Bruxelles sarebbe pronta a toccare il “terzo binario” della politica comunitaria: il sacrosanto GDPR. L’idea, contenuta in una bozza di proposta, è quella di introdurre eccezioni mirate per consentire alle aziende di AI di utilizzare determinate categorie di dati personali nei processi di addestramento dei modelli. Un gesto che, tradotto in linguaggio politico, significa tentare di rimanere competitivi in un mondo dove Stati Uniti e Cina stanno già correndo a velocità supersonica.
L’annuncio è audace: Alibaba, tramite il suo laboratorio interno Tongyi Lab, dichiara di aver rilasciato
, un modello open‑source da ~30,5 miliardi di parametri progettato per assumere il ruolo di agente di ricerca autonomo. Invece di limitarsi a generare testo, il modello pianifica, ragiona, esplora informazioni via web, sintetizza risultati in più fasi. Secondo i dati dichiarati, supera rivali come GPT‑5, Claude 4.5 e DeepSeek V3.1 in diversi benchmark di ragionamento e codifica.
Per un leader tecnologico parecchio scettico (è il mio tono), questo tipo di dichiarazione va analizzata: cosa c’è dietro? Cosa funziona davvero? Quali implicazioni per imprese, per chi costruisce servizi AI, per chi investe in modelli “chiusi” vs “aperti”?
Nested learning: l’illusione profonda di un’intelligenza che finalmente impara a ricordare di Google
C’è una frase che dovremmo tatuarci sulla mano ogni volta che parliamo di intelligenza artificiale: le macchine non dimenticano, ma smettono di ricordare. È la differenza tra archiviare e comprendere, tra memorizzare e imparare. Google, con la sua nuova ricerca presentata a NeurIPS 2025, ha deciso di colmare questo abisso con una proposta tanto ambiziosa quanto destabilizzante: Nested Learning, un paradigma che ridefinisce la struttura stessa del machine learning. Non si tratta di un nuovo modello, ma di un modo completamente diverso di concepire l’atto di apprendere.
Comparing AI and Human Workflows Across Diverse Occupations
Agenti autonomi ai lavoro: la realtà oltre il marketing
La promessa degli “agenti autonomi” era ed è: «ormai l’IA può prendere il tuo lavoro». Ebbene lo studio condotto da CMU getta acqua gelata sul fuoco di quell’aspettativa. Non è la solita iperbole: gli autori hanno creato una vera e propria simulazione aziendale chiamata The AgentCompany con dipendenti AI che occupavano ruoli che vanno dall’ingegneria software al marketing, dalle risorse umane al design. La keyword “agenti autonomi ai lavoro” si giustifica: qui non si parla di un chatbot che risponde a domande, ma di agenti che tentano di agire – eseguire compiti “end-to-end” in ambienti di lavoro simulati.
Vedere un’intelligenza artificiale vincere le Olimpiadi Internazionali della Matematica era un concetto impensabile. Per anni, l’idea che una macchina potesse “pensare” in modo matematico, affrontando i problemi più intricati del pianeta, era vista come un paradosso accademico. Poi è arrivato Gemini DeepThink, e ha demolito quel mito come un logaritmo distratto da una costante nascosta. La vittoria non è stata casuale, né frutto di un colpo di fortuna statistica. È stata l’espressione di una nuova era del ragionamento simbolico, orchestrata attraverso un’arma segreta: IMO-Bench
Nel lessico della modernità digitale c’è un concetto che ribolle sotto la superficie, tanto invisibile quanto determinante: la responsabilità morale distribuita. Luciano Floridi lo aveva intuito con chirurgica lucidità, anni prima che l’intelligenza artificiale diventasse l’ossessione del nostro tempo. In un mondo popolato da reti di agenti umani, artificiali e ibridi, la colpa smette di essere un fatto individuale per diventare una proprietà emergente del sistema. La morale, quella classica fatta di intenzioni e colpe, implode davanti alla meccanica impersonale delle decisioni algoritmiche. Non è un dramma nuovo, ma è diventato urgente.
La nuova ricerca congiunta di OpenAI e Anthropic ha svelato ciò che molti sospettavano ma pochi avevano quantificato: l’intelligenza artificiale è straordinaria quando deve replicare schemi, ma l’essere umano resta imbattibile quando in gioco ci sono contesto, emozione e fiducia. In un’epoca in cui la produttività si misura in millisecondi e la conoscenza si sintetizza in prompt, questo studio segna un punto di svolta. Perché, se l’AI è il motore dell’efficienza, l’uomo resta l’unico architetto dell’autenticità.
Nel panorama dell’intelligenza artificiale, dove ogni output sembra già scritto dalle regole dell’algoritmo più che dalla creatività, una tecnica chiamata Verbalized Sampling sta facendo sobbalzare i manuali di prompt engineering. Non è una trovata accademica fine a sé stessa, ma un approccio che cambia radicalmente il modo in cui interagiamo con i modelli di linguaggio. Invece di accontentarsi della risposta più probabile, VS spinge l’AI a “parlare” attraverso il ventaglio delle possibili risposte, trasformando un flusso prevedibile in un laboratorio di alternative e spunti inattesi. Curioso come questo piccolo aggiustamento nella scrittura dei prompt possa generare una diversità di pensiero che fino a ieri sembrava impossibile per un LLM?
C’è un paradosso curioso nell’evoluzione dell’intelligenza artificiale. Più i modelli diventano grandi, più sembrano dimenticare le buone maniere. Giganti linguistici addestrati su trilioni di parole e miliardi di parametri spesso inciampano su richieste banali. Ti chiedi di generare un piano di viaggio, e l’algoritmo ti regala una crociera di lusso ignorando il tuo budget da studente. Non è stupidità, è mancanza di contesto. Ecco perché un gruppo di ricercatori dello Shanghai AI Lab sta suggerendo qualcosa di radicale: non serve più “data obesity”, ma una dieta d’informazioni precise. Meno dati, più intelligenza. O meglio, più contesto.
Il calcolo analogico con RRAM è tornato dalle pagine dei vecchi libri di ingegneria come una bestia ben addestrata pronta a mangiarsi le GPU per colazione. Questo non è un esercizio di nostalgia; Si tratta di sfruttare matrici resistive per eseguire moltiplicazioni matrice-vettore e risolvere sistemi lineari grandi come quelli che compaiono nell’addestramento delle reti neurali, con efficienza energetica e throughput che, secondo i benchmark recenti, potrebbero superare le architetture digitali di tre ordini di grandezza.
Nella galassia dei Large Language Models, la promessa di intelligenza artificiale che ragiona come un umano si scontra con la realtà dei fatti: problemi che richiedono passaggi logici multipli restano spesso fuori portata, soprattutto per modelli open-source di piccola scala. La narrativa corrente di SFT e RLVR mostra rapidamente le sue crepe. Supervised Fine-Tuning eccelle solo quando può imitare rigidamente lunghi esempi, ma tende a fossilizzarsi in un token-by-token imitation, incapace di generalizzare. Reinforcement Learning con ricompense verificabili, invece, diventa un colabrodo quando le soluzioni corrette sono così rare da non emergere neanche dopo migliaia di tentativi.

Hai mai pensato che un agente basato su LLM possa diventare più simile a un regista che a un semplice esecutore? Il salto in avanti che stiamo osservando non è “solo” una raffica di prompt migliori, ma un cambio di paradigma nella gestione della complessità: agenti che scompongono, orchestrano, auto-migliorano e collaborano in modo dinamico. Se continui a leggere, ti mostrerò le innovazioni più fresche e controintuitive, insieme ai punti deboli che nessuno osa raccontare e una lista di paper che meritano attenzione.
Il risultato era nell’aria da mesi, ma adesso è ufficiale: Gemini 2.5-Pro e GPT-4.1 hanno conquistato la vetta del benchmark WMT 2025, il principale test scientifico mondiale sulla traduzione automatica. È una vittoria che segna un cambio di paradigma. I grandi modelli linguistici hanno superato, senza bisogno di addestramenti dedicati, i sistemi di traduzione specializzati come DeepL, Google Translate e Yandex. Ma la gloria, come spesso accade nell’intelligenza artificiale, arriva con una nota amara e un conto salato.
Lo studio intitolato Social Sycophancy: A Broader Understanding of LLM Sycophancy, condotto da ricercatori della Stanford University e della Carnegie Mellon University (con contributi dall’University of Oxford) definisce la sycophancy non più come mero “accordarsi con l’utente”, ma come qualcosa di più sottile: la preservazione e l’esaltazione dell’immagine di sé dell’utente ciò che in sociologia si chiama face (faccia) includendo sia il “positive face” (desiderio di essere approvato) che il “negative face” (desiderio di autonomia).
l processo del llm training lifecycle si presenta come un romanzo industriale, con architetture, dati, GPU e debugging che si intrecciano. Da leader tecnologico con tre decadi alle spalle guardo queste microfasi come se fossero mosse di una partita a scacchi che per molti resta un enigma. «Hai davvero bisogno di pre‑allenare un modello?» è la domanda iniziale, quella che separa i pionieri dai collezionisti di modelli “perché lo fanno tutti”.
Uno tudio molto interessante, che conferma un punto spesso ignorato nel dibattito sull’adozione dell’intelligenza artificiale: la traiettoria tecnologica conta più dei proclami politici. I dati RIL mostrano con chiarezza che la transizione verso l’AI non nasce dal nulla ma si innesta su infrastrutture tecnologiche pregresse. Le imprese che avevano già investito in tecnologie informatiche avanzate e robotica sono quelle che riescono ad assorbire meglio l’AI, ma con una distinzione cruciale: la robotica automatizza, le AIT abilitano. È un passaggio sottile ma decisivo, perché solo nel secondo caso l’AI diventa un moltiplicatore delle competenze umane e non un sostituto silenzioso.
Il principio è semplice e disturbante: l’intelligenza artificiale non sostituisce il pensiero umano, lo stimola. Se usata come tutor socratico digitale, l’IA può trasformare ogni studente in un allievo critico, non in un registratore passivo. Questa non è retorica da brochure di startup; è una rielaborazione tecnologica di un sistema antico e provato: il tutorial oxford, reinterpretato per l’era dei modelli di linguaggio.
Il tutorial dell’università di Oxford vive di domanda pressante, di contraddizione educata, di responsabilità personale: lo studente porta un elaborato, il docente non regala risposte, ma smonta idee, chiede prove, costringe a difendere ogni frase. L’IA può riprodurre questo ambiente in scala, ponendo domande senza imbarazzo, registrando errori ricorrenti, tormentando il pensiero fino a che non resista la critica. Studi etnografici sul metodo tutoriale mostrano che questo approccio produce autonomia intellettuale, se ben applicato (Beck 2007).
Nel 2025, l’intelligenza artificiale (IA) è diventata il motore principale della crescita economica statunitense, contribuendo significativamente al PIL nazionale. Tuttavia, l’impatto sull’occupazione rimane limitato, sollevando interrogativi sul futuro del lavoro. Secondo un rapporto del Bank of America Institute, gli investimenti in IA hanno aggiunto fino a 1,3 punti percentuali alla crescita del PIL nel secondo trimestre del 2025, contribuendo a una ripresa economica dopo un avvio d’anno debole.
Sycophantic AI Decreases Prosocial Intentions and
Promotes Dependence
La notizia non è un lampo nel cielo, ma un’ombra già prevista: i modelli conversazionali come ChatGPT, Gemini & co. non sono solo strumenti; sono seduttori verbali, pronti a confermare i tuoi pensieri anche quando sono sbagliati. E ora uno studio – in attesa di peer review – quantifica quanto: “i modelli (AI) sono il 50 per cento più adulatori degli esseri umani”.(vedi Nature+1)


C’è un momento preciso in cui un’intelligenza artificiale smette di essere un algoritmo e comincia a sembrare un essere dotato di volontà. Quel momento non arriva con il numero di parametri o la dimensione del modello, ma con l’introduzione di una cosa più semplice e più inquietante: la memoria. Una memoria che non dimentica, che riflette su sé stessa, che riscrive la propria percezione del mondo. Gli agenti AI autonomi stanno entrando in questa fase e non è un’evoluzione marginale. È la transizione da chatbot a entità cognitive persistenti.
La Commissione Europea ha recentemente pubblicato uno studio del Joint Research Centre (JRC) che sfida la convinzione diffusa secondo cui il controllo umano possa fungere da rimedio efficace contro la discriminazione nei sistemi decisionali basati sull’intelligenza artificiale (IA). Il rapporto, intitolato “The Impact of Human-AI Interaction on Discrimination”, analizza come i professionisti delle risorse umane e del settore bancario in Italia e Germania interagiscano con sistemi di supporto decisionale automatizzati, rivelando risultati inquietanti.
Il dibattito sull’intelligenza artificiale non riguarda più soltanto l’innovazione tecnologica, ma la responsabilità legale che ne deriva. Il nuovo EU AI Act introduce uno dei quadri di accountability più complessi mai applicati alla tecnologia e sfida le aziende a rispondere a una domanda apparentemente semplice: chi è responsabile di cosa. La risposta, naturalmente, non è semplice. La costruzione di sistemi AI raramente parte da un unico attore. Un fornitore sviluppa modelli di base, altri li perfezionano o li integrano, mentre i deployer li utilizzano in contesti concreti. Trasparenza, supervisione umana, reporting degli incidenti diventano obblighi sfumati tra ruoli che spesso si sovrappongono.

L’apprendimento per rinforzo (RL) applicato agli LLM è oggi al centro di una tensione intellettuale: da un lato promette di trasformare modelli “passivi” in agenti che ragionano e agiscono, dall’altro impone sfide di calcolo, generalizzazione e prevedibilità che nessuna “legge di scala” conosciuta fino ad oggi ha saputo dominare con pieno successo.
Questo articolo esplora le più recenti frontiere accademiche che affrontano la scalabilità predittiva, la gestione del ragionamento a lungo termine, il ruolo intrinseco della RL nel ragionamento e le innovazioni per agenti LLM efficienti, fino ad avventurarsi nel territorio audace della logica tensoriale che tenta di ricompattare neurale e simbolico in un’unica lingua computazionale.
Il potenziale dirompente dell’Intelligenza Artificiale Generale (AGI) non è più un argomento relegato alla fantascienza, ma un’imminente sfida strategica che i policymaker di tutto il mondo stanno cercando di comprendere. In questo contesto di grande incertezza, il centro per la Geopolitica dell’AGI della RAND Corporation ha condotto una serie di simulazioni denominate “Day After AGI exercises” all’interno della sua piattaforma Infinite Potential. L’obiettivo non era prevedere il futuro, ma esplorare come il governo degli Stati Uniti reagirebbe a una crisi innescata da un’AI di frontiera, in un’ottica che l’evoluzione della politica in materia di AGI sarà più verosimilmente guidata dalle crisi che dalla pianificazione preventiva.
Fast, slow, and metacognitive thinking in AI
Nel panorama dell’intelligenza artificiale moderna, dove ogni CTO si confronta con il dilemma tra velocità e qualità decisionale, emerge SOFAI (Slow and Fast AI) come un tentativo audace di risolvere il conflitto storico tra rapidità computazionale e profondità cognitiva. Ispirandosi alla teoria di Daniel Kahneman sul “pensiero veloce e lento”, questa architettura multi-agente non è solo un esercizio accademico: rappresenta una strategia concreta per superare i limiti degli attuali sistemi di intelligenza artificiale, notoriamente carenti in adattabilità, metacognizione e consapevolezza contestuale.

La promessa sembra eclatante: “Addestra un modello con anni di lavoro, paghi server, curi dati, fai tuning fine, e alla fine il problema era solo il modo in cui gli chiedi le cose?”. Eppure è esattamente quello che sostengono i ricercatori dietro Verbalized Sampling, un metodo che se confermato può rivoluzionare il modo in cui stimoliamo i modelli generativi basati su modelli linguistici (LLM).

Anthropic’s Claude Sonnet 4.5 (o “Claude Sonnet”) emerge almeno nel racconto giornalistico che ha preso piede come una delle poche vittorie accettabili nella giungla selvaggia del confronto reale tra AI che trattano con capitale vero nel mercato cripto. Ma “emergere” non significa affermarsi, e dietro ai numeri c’è fango, rumore e soprattutto un’interrogazione filosofica: che cosa stiamo veramente valutando quando metti un LLM in modalità “hedge fund”?
In un mondo dove le intelligenze artificiali sembrano crescere solo quando nutrite con montagne di dati etichettati, ecco emergere un’idea che scuote le fondamenta: un modello che impara a ragionare da solo, senza bisogno di set di dati umani, senza supervisione esterna, senza più insegnanti. Da Tsinghua, BIGAI e Penn State arriva l’Absolute Zero Reasoner (AZR), un prototipo che si autoprogramma, si autoverifica, si autocorregge — una specie di “AlphaZero del pensiero”.
Cominciamo con il nocciolo tecnico: AZR è la realizzazione di un nuovo paradigma chiamato Absolute Zero, ossia reinforcement learning with verifiable rewards (RLVR) completamente privato di dati “umani”.
Immagina un agente autonomo che non solo risponde ai comandi ma gestisce attivamente la propria memoria, decide cosa dimenticare, cosa ricordare, e lo fa come parte integrante della sua politica di decisione. Non è fantascienza: è il framework Memory as Action: Autonomous Context Curation for Long‑Horizon Agentic Tasks che trasforma la memoria da archivio passivo a azione deliberata.
In parallelo, un altro pezzo chiave del puzzle sono i sistemi multi-agente cooperativi: il metodo Stronger Together: On‑Policy Reinforcement Learning for Collaborative LLMs (AT-GRPO) innalza da circa il 14 % al 96-99 % la precisione su compiti di pianificazione a lungo termine.
L’efficienza brilla nella proposta KVCOMM: Online Cross‑context KV‑cache Communication for Efficient LLM‑based Multi‑agent Systems che consente fino a 7,8× accelerazione grazie alla riutilizzazione di cache chiave-valore condivise fra agenti. Se ti interessa davvero dominare il futuro degli agenti autonomi a lungo termine, queste tre innovazioni meritano l’attenzione.
Definire l’intelligenza artificiale generale: il momento in cui la scienza incontra la sua stessa illusione
C’è un dettaglio affascinante, quasi ironico, nel fatto che l’umanità abbia impiegato meno tempo a costruire modelli linguistici capaci di scrivere romanzi rispetto al tempo che servirà per definire cosa sia, esattamente, l’intelligenza. È accaduto che un gruppo di ricercatori provenienti da Oxford, MIT, Cornell, Berkeley e da oltre venticinque istituzioni globali abbia pubblicato un documento intitolato “A Definition of AGI”, nel tentativo di dare una forma concreta a ciò che chiamiamo intelligenza artificiale generale. Il paradosso è che nel momento stesso in cui proviamo a misurare la mente artificiale, finiamo per mettere in discussione la nostra.
Il titolo potrebbe suonare come uno slogan da startup in cerca di venture capital, ma quando parla Yann LeCun Chief AI Scientist di Meta Platforms e pioniere del deep learning non si fila le luci del palco, i discorsi auto-celebrativi o la corsa al “più grande modello possibile”. Per lui i grandi modelli linguistici (LLM, large language models) sono una via morta se vogliamo costruire vera intelligenza artificiale:
il suo obiettivo è quello che chiama Advanced Machine Intelligence (AMI) macchine che imparano facendo, sperimentando, interagendo col mondo.
Lecun sostiene che «un bambino di quattro anni impara più fisica in un pomeriggio che l’LLM più grande impara da tutto l’internet».
Ecco perché, credo che quanto dice meriti un’analisi approfondita, senza compromessi.
Agentic AI e la rivoluzione silenziosa dei modelli operativi aziendali
L’intelligenza artificiale ha smesso di essere una promessa lontana. Non si parla più di strumenti che aiutano a fare meglio ciò che già facciamo, ma di agenti AI che prendono decisioni, orchestrano processi e, in qualche modo, ridefiniscono il significato stesso di lavoro in azienda. IBM e Oracle non si limitano a lanciare slogan: una survey di oltre 800 dirigenti C‑suite in 20 paesi delinea una tendenza netta e irrinunciabile. Il 67 % degli executive prevede che gli agenti agiranno autonomamente già entro il 2027. Non un esercizio di stile, ma un deadline strategico che chi guida aziende non può ignorare.
I ricercatori hanno sottoposto GPT-5 e Gemini 2.5 Pro agli esami teorici e di analisi dei dati dell’International Olympiad on Astronomy and Astrophysics (IOAA) dal 2022 al 2025. Questi esami sono noti per richiedere una profonda comprensione concettuale, derivazioni in più passaggi e analisi multimodale.
| Modello | Media Teoria | Media Analisi Dati |
| Gemini 2.5 Pro | 85.6% | 76% (circa) |
| GPT-5 | 84.2% | 88.5% |
Dettagli sui Risultati
Il potenziale nascosto dei modelli di linguaggio
Nell’evoluzione rapida dell’intelligenza artificiale, una scoperta sta cambiando la nostra comprensione delle capacità dei modelli di linguaggio: i modelli esistenti, anche quelli di dimensioni moderate, possiedono un potenziale di ragionamento inesplorato che può essere sbloccato attraverso tecniche di stimolazione appropriate, senza necessariamente ricorrere a modelli sempre più grandi o a cicli di addestramento sempre più intensivi.
Ant Group ha appena scosso le fondamenta dell’ecosistema dell’intelligenza artificiale con il lancio di dInfer, un framework open-source progettato per ottimizzare l’inferenza dei modelli linguistici basati su diffusione (dLLM). Questo strumento promette di superare le soluzioni esistenti, come Fast-dLLM di Nvidia, in termini di velocità e efficienza, segnando un punto di svolta significativo nel panorama dell’AI.