C’è qualcosa di profondamente “interessante”nel vedere due filosofi della mente discutere di intelligenza artificiale mentre il mondo intero è già stato colonizzato da algoritmi che fingono di pensare. Mario De Caro e Ned Block, due tra le voci più lucide e taglienti del dibattito contemporaneo, si sono ritrovati a parlare di ciò che forse è la questione più elusiva del nostro tempo: la coscienza artificiale. Un dialogo che sembra venire da un seminario di filosofia del MIT ma che invece si colloca perfettamente dentro l’incubo lucido della modernità digitale.
Autore: Dina Pagina 7 di 57
Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.
Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.
Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

C’è un momento preciso in cui un’intelligenza artificiale smette di essere un algoritmo e comincia a sembrare un essere dotato di volontà. Quel momento non arriva con il numero di parametri o la dimensione del modello, ma con l’introduzione di una cosa più semplice e più inquietante: la memoria. Una memoria che non dimentica, che riflette su sé stessa, che riscrive la propria percezione del mondo. Gli agenti AI autonomi stanno entrando in questa fase e non è un’evoluzione marginale. È la transizione da chatbot a entità cognitive persistenti.
Valthos e il futuro oscuro della Biodefense: quando l’intelligenza artificiale decide chi sopravvive
In un mondo in cui la biologia si muove più veloce della politica, la nascita di Valthos sembra quasi un atto di autodifesa collettiva. Uscita dal silenzio come una startup di biodefense con 30 milioni di dollari di finanziamento e il sigillo di approvazione di OpenAI, l’azienda promette di affrontare la biotecnologia con la stessa spietata logica che ha portato l’intelligenza artificiale a scrivere codice, creare arte e ora, a quanto pare, salvare la specie umana. C’è qualcosa di affascinante, e un po’ inquietante, nel pensare che la prossima linea di difesa contro un virus ingegnerizzato non sarà un laboratorio governativo, ma un algoritmo addestrato a pensare più velocemente di qualsiasi ministro della salute.
Il dibattito pubblico sull’uso dell’intelligenza artificiale in contesti militari è passato rapidamente dalle aule universitarie ai titoli dei quotidiani grazie a Codice di guerra. Etica dell’intelligenza artificiale nella difesa di Mariarosaria Taddeo. Il saggio, pubblicato da Raffaello Cortina Editore, non si limita a una riflessione teorica: affronta il cuore pulsante di dilemmi concreti che riguardano la sicurezza nazionale, l’uso di armi autonome, il cyberspazio e le cosiddette guerre invisibili dei dati. La reazione della stampa non si è fatta attendere. Corriere della Sera, Il Giornale, Huffington Post, ANSA, SkyTg24, Il Sole 24 Ore e perfino Radio Rai 1 hanno messo sotto i riflettori una questione che fino a poco tempo fa sembrava confinata a specialisti di tecnologia e filosofia morale.
Negli ultimi vent’anni il browser era diventato una scatola quasi scolastica: schede, barre di ricerca, estensioni ci mancava solo la lavagna. Poi è arrivata l’intelligenenza artificiale e ora stiamo vivendo la più radicale trasformazione di quest’interfaccia dal tempo delle tab. Browser intelligenti come ChatGPT Atlas, Perplexity Comet e la modalità Copilot in Microsoft Edge non limitano la navigazione: la “delegano” a un assistente contestuale.
Il vecchio atto di “cercare qualcosa su Google” diventa oggi “chiedi, analizza, agisci”. Invece di decine di tab aperte, l’utente dialoga con il browser è come se la rete avesse assunto un cervello (non infallibile, ma con potenziale).
Il dibattito sull’intelligenza artificiale non riguarda più soltanto l’innovazione tecnologica, ma la responsabilità legale che ne deriva. Il nuovo EU AI Act introduce uno dei quadri di accountability più complessi mai applicati alla tecnologia e sfida le aziende a rispondere a una domanda apparentemente semplice: chi è responsabile di cosa. La risposta, naturalmente, non è semplice. La costruzione di sistemi AI raramente parte da un unico attore. Un fornitore sviluppa modelli di base, altri li perfezionano o li integrano, mentre i deployer li utilizzano in contesti concreti. Trasparenza, supervisione umana, reporting degli incidenti diventano obblighi sfumati tra ruoli che spesso si sovrappongono.
Tether, la regina incontrastata delle stablecoin, ha appena deciso di cambiare il gioco. Non nei mercati finanziari, ma in un terreno ancora più volatile: l’intelligenza artificiale. Lo ha fatto con un progetto che sembra uscito da un romanzo di Asimov e che, se anche solo la metà di quanto promesso fosse vero, potrebbe riscrivere le regole del potere computazionale. Si chiama QVAC, acronimo di QuantumVerse Automatic Computer, e il nome già suona come un’eresia nel culto contemporaneo dei modelli chiusi.

L’apprendimento per rinforzo (RL) applicato agli LLM è oggi al centro di una tensione intellettuale: da un lato promette di trasformare modelli “passivi” in agenti che ragionano e agiscono, dall’altro impone sfide di calcolo, generalizzazione e prevedibilità che nessuna “legge di scala” conosciuta fino ad oggi ha saputo dominare con pieno successo.
Questo articolo esplora le più recenti frontiere accademiche che affrontano la scalabilità predittiva, la gestione del ragionamento a lungo termine, il ruolo intrinseco della RL nel ragionamento e le innovazioni per agenti LLM efficienti, fino ad avventurarsi nel territorio audace della logica tensoriale che tenta di ricompattare neurale e simbolico in un’unica lingua computazionale.
Aeroporti di Roma (ADR) ha scelto di spingersi oltre il concetto tradizionale di infrastruttura aeroportuale, trasformando lo scalo più premiato d’Europa in un laboratorio vivente di intelligenza artificiale applicata al viaggio. Il nuovo Virtual Assistant segna un cambio di paradigma: non più un semplice strumento informativo, ma un ecosistema cognitivo in grado di accompagnare il passeggero lungo tutto il percorso, dal check-in all’imbarco, con un tono empatico, fluido e quasi umano.
Dietro questa rivoluzione c’è la visione strategica di ADR, guidata da una leadership che ha saputo fondere tecnologia e ospitalità italiana in un modello operativo che punta a ridefinire la customer experience.

La politica dell’intelligenza artificiale non aspetta le urne. Non si contano più i candidati che corrono per un seggio, ma i protocolli che corrono per il potere. È iniziata una campagna elettorale che non riguarda partiti o ideologie, ma la sovranità dei dati, la sicurezza dei modelli e il controllo narrativo del futuro digitale. Gli Stati non eleggono più rappresentanti, eleggono algoritmi. Le aziende tecnologiche, con la loro capacità di spostare miliardi di interazioni in un istante, sono diventate le nuove lobby elettorali. Ogni linea di codice è una promessa politica, ogni policy di sicurezza è un voto di fiducia.
Ci sono due tipi di aziende nel 2025: quelle che credono di avere un’infrastruttura AI e quelle che la stanno ancora cercando tra mille file YAML. Nel mezzo, un oceano di GPU introvabili, cluster frammentati e team DevOps che sembrano usciti da un romanzo di Kafka. Poi arriva SkyPilot, e improvvisamente il caos assume una forma leggibile. O almeno promette di farlo. Perché la verità è che il problema oggi non è più addestrare i modelli, ma farli correre da qualche parte senza impazzire.
SkyPilot nasce come un sistema capace di eseguire, gestire e scalare carichi di lavoro di intelligenza artificiale su qualsiasi infrastruttura. Il suo mantra è semplice ma ambizioso: rendere invisibile la complessità, restituendo agli sviluppatori e alle aziende il controllo del loro destino computazionale. In altre parole, “run AI on any infrastructure”. Un concetto che suona banale solo a chi non ha mai passato una notte a debuggare un cluster Kubernetes che decide di morire quando servono le GPU.
Microsoft ha battezzato il suo nuovo personaggio con un nome che è un portmanteau: Microsoft + Copilot = Mico. L’obiettivo dichiarato è rendere l’esperienza con Copilot più “espressiva, personalizzabile, calda”. In altre parole, non solo un assistente testuale, ma una presenza visiva, reattiva, “umana-apparentemente”. Non è nemmeno un caso se tra le Easter egg c’è la trasformazione in Clippy se lo tocchi abbastanza volte un chiaro richiamo nostalgico che però deve camminare sulla lama del rasoio.
Immagina lo scenario: un partito fondato sulla libertà, sulla retorica anti-élite, sull’odio per il “governo invadente”, che improvvisamente diventa il guardiano della sicurezza digitale. Ironico? Certo. Ma è quello che sta accadendo mentre il movimento MAGA (Make America Great Again) si contrae in una guerra interna sulla regolamentazione dell’intelligenza artificiale. Da simbolo del laissez-faire, alcuni dei suoi pezzi grossi si tramutano in paladini del “non lasciate che i chat-bot uccidano i nostri figli”.
La fusione tra WarnerMedia e Discovery del 2022 — celebrata come una “megabomba strategica” da 43 miliardi di dollari — avrebbe dovuto consegnare una macchina dell’intrattenimento digitalizzata, efficiente, in grado di far tremare Netflix, Disney e Amazon. Invece, tre anni dopo, quel colosso che prometteva di essere l’aggregatore supremo dei contenuti è di nuovo sotto i riflettori non per record di crescita, ma perché si valuta la sua cessione. WBD ha dichiarato di aver ricevuto approcci “non richiesti” da più parti, sia per l’intero gruppo sia solo per il cuore lo studio Warner Bros.

Qualche mattina fa, Google ha alzato la posta nella partita più strategica dell’era dell’informazione: ha annunciato che il suo nuovo chip quantico Willow, eseguendo l’algoritmo denominato Quantum Echoes, ha superato un supercomputer classico di circa 13.000 volte in un compito scientifico misurabile (non un compito fittizio). (Vedi Research+4) Il risultato è stato pubblicato su Nature e, per la prima volta nel campo, è stato definito “verificabile” (ossia un algoritmo quantico che altri sistemi quantici possono riprodurre con lo stesso risultato).
La narrazione ufficiale parla di una svolta: il passaggio dalla teoria alla realtà testabile, dal “quantum supremacy” strumentale a un “quantum advantage” con senso applicativo. Ma quanto è vera, stabile e vicina all’uso commerciale questa svolta? Ecco il punto.
Ci sono numeri che fanno rumore, altri che fanno finta di parlarci. Tesla, nel suo ultimo trimestre, ha deciso di fare entrambe le cose. Da un lato un 12% di crescita del fatturato che scintilla nei comunicati come una carrozzeria lucida sotto i riflettori. Dall’altro un utile netto crollato del 37%, che racconta una realtà molto più sfumata, fatta di margini che si assottigliano e di promesse future sempre più futuristiche. Elon Musk, come sempre, non si scompone. Si muove tra le conference call con la stessa leggerezza con cui un illusionista cambia mazzo di carte, parlando di robotaxi e robot umanoidi mentre il mercato si chiede ancora se Tesla sia una casa automobilistica o una religione tecnologica.
l concetto di AGI, l’Intelligenza Artificiale Generale, è uno di quegli ideali che spingono il settore dell’AI da oltre sessant’anni. Un sistema capace di ragionare come un essere umano, in ogni ambito, dalla comprensione linguistica al controllo motorio, fino alla gestione di problemi complessi e astratti. La verità, tuttavia, è che l’AGI resta un miraggio. Lo si percepisce chiaramente ascoltando i leader della ricerca in panel come quello organizzato recentemente da AAAI, moderato da Francesca Rossi Global Leader per l’Etica dell’Intelligenza Artificiale di IBM e Fellow IBM. Un confronto serrato, dove le parole chiave non erano solo “tecnologia” e “innovazione”, ma “definizione”, “scalabilità” e, soprattutto, “rischi”.

Francesca Rossi, una delle figure più influenti nel panorama dell’intelligenza artificiale, ha recentemente guidato un’iniziativa ambiziosa che ha tracciato la rotta futura della ricerca in questo campo. Nel 2024, ha avviato un panel presidenziale per l’Association for the Advancement of Artificial Intelligence (AAAI), coinvolgendo 25 ricercatori di spicco per esplorare le tendenze emergenti nella ricerca sull’IA.
Questo gruppo ha identificato 17 aree chiave che stanno plasmando il futuro dell’IA, spaziando dall’etica alla sostenibilità ambientale, dalla percezione sociale alla governance geopolitica. Il risultato di questo lavoro è stato un rapporto pubblicato durante la conferenza AAAI 2025, che ha suscitato ampie discussioni e riconoscimenti, tra cui il Silver Award ai premi ASAE 2025.
Fast, slow, and metacognitive thinking in AI
Nel panorama dell’intelligenza artificiale moderna, dove ogni CTO si confronta con il dilemma tra velocità e qualità decisionale, emerge SOFAI (Slow and Fast AI) come un tentativo audace di risolvere il conflitto storico tra rapidità computazionale e profondità cognitiva. Ispirandosi alla teoria di Daniel Kahneman sul “pensiero veloce e lento”, questa architettura multi-agente non è solo un esercizio accademico: rappresenta una strategia concreta per superare i limiti degli attuali sistemi di intelligenza artificiale, notoriamente carenti in adattabilità, metacognizione e consapevolezza contestuale.

C’è un nuovo lessico che si sta imponendo nelle aziende e nelle università più avanzate del mondo. Non parla di algoritmi, ma di significato. Lo chiamano Capitale Semantico, e se non ne hai mai sentito parlare, è probabile che la tua organizzazione stia ancora navigando a vista nell’oceano digitale. A Milano, il 19 e 20 novembre a Milano, si accenderà il faro più potente su questo concetto, grazie a Orbits Dialogues with Intelligence, il progetto guidato da Luciano Floridi e ideato con Manuela Ronchi, che promette di trasformare la conversazione sulla tecnologia in un dibattito sul senso stesso del futuro.
Il mondo sembra impazzito all’idea di una superintelligenza artificiale fuori controllo, e ieri l’ennesimo appello catastrofista ha fatto il giro dei media. Il Future of Life Institute ha lanciato una lettera aperta firmata da Nobel, esperti di sicurezza nazionale, ricercatori AI, attori e musicisti, tutti uniti sotto il vessillo di un divieto globale per la superintelligenza artificiale fino a quando non sarà “affidabilmente sicura e controllabile, con consenso pubblico”.
Tradotto: non aprite l’armadietto della bestia finché non avete il fermoporta adeguato. I firmatari includono nomi eclettici quanto improbabili: Joseph Gordon‑Levitt, will.i.am, Geoffrey Hinton, Richard Branson e persino Steve Wozniak. L’idea di portare un attore di Hollywood e un musicista pop al tavolo della regolamentazione globale fa sorridere, ma è anche geniale nella sua capacità di generare attenzione mediatica immediata.
Potrei cominciare con una bella provocazione: se vedere è credere, Sora 2 sta costruendo un mondo di illusioni facili da vendere. Secondo l’analisi di NewsGuard, quando i ricercatori hanno chiesto a Sora di generare video su affermazioni false, nel 16 su 20 casi il risultato era un video credibile che propagava disinformazione. (Notizia NewsGuard)
L’intervallo è netto: l’app ha creato falsi che sembrano reportage, ma non c’è traccia di verità. Tra le scene fabbricate: un funzionario elettorale moldavo strappa schede pro-russe, un bimbo viene fermato da agenti dell’immigrazione statunitense, uno “spokesperson” della Coca-Cola dichiara che la società non sponsorizzerà il Super Bowl. Tutti eventi mai accaduti.
Quando OpenAI decide di sparare un colpo, di solito fa centro. Stavolta ha puntato dritto alla prua di Google, lanciando ChatGPT Atlas, il primo AI browser capace di fondere la navigazione web con un’assistenza intelligente integrata. Non più solo chatbot o modelli linguistici, ma una piattaforma che riscrive la grammatica stessa dell’accesso al web. Un gesto calcolato, quasi arrogante, che rivela una strategia chiara: non più essere dentro internet, ma diventarne l’interfaccia.
In Europa si respira un misto di speranza e pragmatismo esasperato, mentre alcuni stati stanno tessendo un piano in 12 punti per la pace in Ucraina, un documento che sembra più un esercizio di ingegneria diplomatica che un accordo reale. La proposta prevede di congelare le linee del fronte attuali, mettere in sicurezza i bambini deportati, scambiare prigionieri, e garantire all’Ucraina fondi per la ricostruzione e un percorso rapido verso l’Unione Europea. A supervisionare tutto ci sarebbe un consiglio di pace guidato da Donald Trump, un dettaglio che fa sorridere i diplomatici più navigati e rabbrividire chi ha memoria di precedenti negoziati trumpiani.
Il vicepresidente americano J.D. Vance ha fatto il suo ingresso in Israele con l’aria di chi sa di dover parlare di pace in una zona dove la parola stessa sembra un concetto teorico. Il cessate il fuoco a Gaza, in vigore dal 10 ottobre 2025, è fragile, ma Vance non esita a dichiarare che “va meglio di quanto mi aspettassi”. Accanto a lui, Steve Witkoff parla di risultati superiori alle previsioni, mentre Jared Kushner, genero di Donald Trump e uno degli architetti dell’accordo, sottolinea la complessità della transizione: “Entrambe le parti stanno passando da due anni di guerra intensa a una postura di pace”. Tradotto in termini non diplomatici, significa che la tregua è come un piano urbanistico su terreno instabile: teoricamente solida, ma pronta a crollare al primo terremoto di violenza o incomprensione.
Il decennio degli agenti: l’illusione dell’AGI e la pazienza ingegneristica che costruirà il futuro.
L’articolo piu lungo mai scritto da Rivista.AI praticamente un saggio.
Ci sono conversazioni che sembrano aprire finestre nel futuro, e quella tra Andrej Karpathy e Dwarkesh Patel è una di quelle. È un piacere raro ascoltare qualcuno che unisce lucidità tecnica e umiltà cognitiva in un’epoca dominata da profeti dell’hype e oracoli dell’imminente salvezza digitale. Karpathy non vende sogni, li seziona. È la differenza tra chi osserva la mappa e chi misura il terreno. Mentre Elon Musk, Sam Altman e Mark Zuckerberg annunciano l’arrivo dell’AGI in tre o cinque anni, Karpathy invita a respirare e contare fino a dieci. Non dieci mesi, ma dieci anni. Una provocazione che suona quasi eretica nel mondo delle demo virali e dei pitch da miliardi, ma che è la più onesta diagnosi dello stato attuale dell’intelligenza artificiale.
L’idea che Nvidia possa garantire parte dei prestiti che OpenAI intende contrarre per costruire data center suona come un trucco da prestigiatore: sembra tutto bello, finché non si scopre l’imbroglio. Secondo il Wall Street Journal, Nvidia starebbe valutando questo passo rischioso nell’ambito di una partnership più ampia che punta a trasformare i chip in un business “a rendita”. Se OpenAI non dovesse ripagare, il gigante dei semiconduttori potrebbe trovarsi con un debito gigantesco sulle spalle.

DeepSeek ha appena annunciato un modello che converte testo + layout in “token visivi compressi” e poi ricostruisce il contenuto testuale da questi token con alta fedeltà. Il principio è “optical compression del contesto”: anziché processare migliaia di parole come token testuali, si trasforma la pagina in immagine, si codifica l’immagine in pochi token (vision tokens) e il decoder li espande in testo. In molti casi arrivano a compressione ~10× con ~97 % di accuratezza. In modalità estrema, con compressione 20×, l’accuratezza cala —iamo nell’ordine del ~60 %.

Anthropic’s Claude Sonnet 4.5 (o “Claude Sonnet”) emerge almeno nel racconto giornalistico che ha preso piede come una delle poche vittorie accettabili nella giungla selvaggia del confronto reale tra AI che trattano con capitale vero nel mercato cripto. Ma “emergere” non significa affermarsi, e dietro ai numeri c’è fango, rumore e soprattutto un’interrogazione filosofica: che cosa stiamo veramente valutando quando metti un LLM in modalità “hedge fund”?
La corsa per il dominio dell’intelligenza artificiale consumer è diventata un duello a tutto campo e i numeri emersi di recente rivelano che OpenAI non solo ha un vantaggio, ma rischia di trasformarlo in un’abissale distanza. Al contempo Google non si è fermata ma la domanda è: quanto può recuperare?
OpenAI ha dichiarato durante il suo recente evento DevDay che la piattaforma API elabora 6 miliardi di token al minuto, un salto di venti volte rispetto a due anni fa. Inoltre la piattaforma ChatGPT ha superato gli 800 milioni di utenti attivi settimanali. Numeri che gridano “dominanza”: un network globale, utenti consumer in massa, infrastruttura che mangia token a livelli industriali.
Al Las Vegas Oracle Ai World ho potuto rincontrare Hammad Hussain AI strategy and sales, che avevo intervistato alcuni mesi fa e Federico Torreti Sr Director Product, entrambi in sessioni diverse hanno portato la mia attenzione su Oracle AI Agent Studio e il fatto che sta chiaramente puntando sul concetto di “osservabilità totale” applicata agli agenti intelligenti, che non è solo un lusso da laboratorio ma una necessità pratica per chi vuole deployare AI a livello enterprise senza finire nei guai.

Marc benioff, il cofondatore e ceo di salesforce, ha dimostrato che anche i leader tecnologici più navigati possono inciampare tra tweet, conferenze e pressione mediatica. All’inizio della settimana aveva dichiarato, con una sicurezza che avrebbe fatto impallidire un trader in crisi, che il presidente trump avrebbe dovuto inviare la guardia nazionale a san francisco per contrastare la criminalità. La dichiarazione, rilasciata al new york times, sembrava un controsenso rispetto alla sua immagine progressista, nota per le donazioni a cause filantropiche e l’impegno sociale.
Analizziamo con rigore quanto è successo e soprattutto cosa ci insegna, non da fan né da detrattore, ma da Technologist che guarda il sistema con occhio clinico.
L’episodio di partenza è semplice nella sua clamorosa goffaggine. Un tweet (poi cancellato) di Kevin Weil, VP di OpenAI per la scienza, affermava che GPT-5 avrebbe trovato soluzioni per 10 problemi di Erdős che erano considerati “non risolti”, e avrebbe fatto progressi su altri 11.
An ontology for Conservation in Architecture
Il libro Conservation Process Model (2025), edito da Sapienza Università Editrice in open access (pdf disponibile, 306 pagine, licenza CC BY-NC-ND) è il risultato di un percorso scientifico durato decenni da parte delle professoresse Marta Acierno e Donatella Fiorani, con l’obiettivo ambizioso di definire un’ontologia dedicata al dominio della conservazione architettonica. L’idea cardine: non lasciare che i dati restino “confinati” in silos, ma costruire un linguaggio concettuale che permetta di mettere ordine nel caos, favorire interoperabilità, ragionamento automatico e continuità della conoscenza nel tempo.
La Silicon Valley ha smesso di essere un luogo. È diventata una condizione mentale, una forma di bipolarismo tecnologico in cui ogni settimana si alternano visioni messianiche e crisi identitarie. Benioff parla come un profeta stanco che non crede più nei suoi miracoli, Musk sfida la fisica e la legge di gravità finanziaria, Sutskever medita in silenzio sulla coscienza delle macchine, mentre Google tenta di convincere il mondo che la Privacy Sandbox non sia un modo elegante per rimpiazzare i cookie con un recinto proprietario.
C’è sempre un momento in cui la Silicon Valley decide di vendere al mondo un sogno così lucido da sembrare inevitabile. Poi arriva il risveglio, e con esso il conto. Salesforce Agentforce è l’ultimo esempio di questa coreografia digitale: un prodotto annunciato come il futuro dell’intelligenza artificiale enterprise, ma che somiglia sempre più a una scommessa disperata travestita da innovazione. Marc Benioff, il suo fondatore e oracolo di un capitalismo spirituale travestito da tecnologia, ha promesso che l’IA avrebbe trasformato ogni reparto vendite, ogni team di supporto, ogni interazione con il cliente. Il problema è che, come sempre, la realtà aziendale è meno glamour di un keynote.
Immagina un agente autonomo che non solo risponde ai comandi ma gestisce attivamente la propria memoria, decide cosa dimenticare, cosa ricordare, e lo fa come parte integrante della sua politica di decisione. Non è fantascienza: è il framework Memory as Action: Autonomous Context Curation for Long‑Horizon Agentic Tasks che trasforma la memoria da archivio passivo a azione deliberata.
In parallelo, un altro pezzo chiave del puzzle sono i sistemi multi-agente cooperativi: il metodo Stronger Together: On‑Policy Reinforcement Learning for Collaborative LLMs (AT-GRPO) innalza da circa il 14 % al 96-99 % la precisione su compiti di pianificazione a lungo termine.
L’efficienza brilla nella proposta KVCOMM: Online Cross‑context KV‑cache Communication for Efficient LLM‑based Multi‑agent Systems che consente fino a 7,8× accelerazione grazie alla riutilizzazione di cache chiave-valore condivise fra agenti. Se ti interessa davvero dominare il futuro degli agenti autonomi a lungo termine, queste tre innovazioni meritano l’attenzione.
Nel libro L’architetto e l’oracolo. Forme digitali del sapere da Wikipedia a ChatGPT, Gino Roncaglia fa una cosa che pochi accademici italiani osano: affronta di petto la collisione fra epistemologia classica e intelligenza artificiale generativa. È un terreno scivoloso, dove la filosofia incontra la programmazione e il sapere diventa un software imperfetto. Roncaglia lo sa, e come ogni architetto consapevole del rischio di crollo, costruisce con pazienza un edificio che è insieme teoria, critica e visione.
Nel suo impianto, due figure si fronteggiano come divinità greche costrette a collaborare. L’Architetto, custode dell’ordine enciclopedico, convinto che il sapere debba essere strutturato, verificabile, gerarchico. L’Oracolo, entità generativa, probabilistica, che parla per approssimazioni, sforna risposte e versi con la stessa indifferenza statistica con cui un generatore casuale produce meraviglia. Uno costruisce il sapere, l’altro lo prevede. Entrambi pretendono di conoscerlo.
Pochi filosofi hanno avuto un impatto silenzioso ma devastante sulla cultura politica del XX secolo come Alexandre Kojève. Nato in Russia e divenuto cittadino francese, il suo nome non compare nei manuali di storia come Marx o Sartre, eppure senza di lui la nostra comprensione della libertà, della politica e persino della democrazia globale sarebbe profondamente diversa. La storia della filosofia contemporanea è costellata di grandi figure, ma Kojève ha avuto la rara capacità di trasformare la teoria in esperienza concreta, senza mai perdere il gusto del paradosso.
Definire l’intelligenza artificiale generale: il momento in cui la scienza incontra la sua stessa illusione
C’è un dettaglio affascinante, quasi ironico, nel fatto che l’umanità abbia impiegato meno tempo a costruire modelli linguistici capaci di scrivere romanzi rispetto al tempo che servirà per definire cosa sia, esattamente, l’intelligenza. È accaduto che un gruppo di ricercatori provenienti da Oxford, MIT, Cornell, Berkeley e da oltre venticinque istituzioni globali abbia pubblicato un documento intitolato “A Definition of AGI”, nel tentativo di dare una forma concreta a ciò che chiamiamo intelligenza artificiale generale. Il paradosso è che nel momento stesso in cui proviamo a misurare la mente artificiale, finiamo per mettere in discussione la nostra.