La Luna, si sa, non aspetta nessuno. Ma sembra che Elon Musk abbia deciso di farla attendere un po’ più del previsto. SpaceX è ufficialmente “in ritardo” nella preparazione di Starship, il veicolo che dovrebbe portare di nuovo l’uomo sulla superficie lunare nell’ambito della missione Artemis III, quella che la NASA sognava di vedere decollare nel 2027 con l’entusiasmo di un film di fantascienza anni Ottanta. Invece, a giudicare dalle parole dell’amministratore facente funzioni della NASA, Sean Duffy, la situazione è più simile a una puntata di Succession ambientata nello spazio.
L’idea che Nvidia possa garantire parte dei prestiti che OpenAI intende contrarre per costruire data center suona come un trucco da prestigiatore: sembra tutto bello, finché non si scopre l’imbroglio. Secondo il Wall Street Journal, Nvidia starebbe valutando questo passo rischioso nell’ambito di una partnership più ampia che punta a trasformare i chip in un business “a rendita”. Se OpenAI non dovesse ripagare, il gigante dei semiconduttori potrebbe trovarsi con un debito gigantesco sulle spalle.
Subway Builder non è “solo un gioco”: è un manifesto digitale per chi crede che le infrastrutture siano l’ossatura vivente della città. Al netto delle luci da videogioco, questo simulatore incrocia dati reali, vincoli ingegneristici, modelli comportamentali e desideri utopici per costruire un sistema metropolitano credibile — con risultati talmente avvincenti che rischi di perderci notti intere.

DeepSeek ha appena annunciato un modello che converte testo + layout in “token visivi compressi” e poi ricostruisce il contenuto testuale da questi token con alta fedeltà. Il principio è “optical compression del contesto”: anziché processare migliaia di parole come token testuali, si trasforma la pagina in immagine, si codifica l’immagine in pochi token (vision tokens) e il decoder li espande in testo. In molti casi arrivano a compressione ~10× con ~97 % di accuratezza. In modalità estrema, con compressione 20×, l’accuratezza cala —iamo nell’ordine del ~60 %.

Anthropic’s Claude Sonnet 4.5 (o “Claude Sonnet”) emerge almeno nel racconto giornalistico che ha preso piede come una delle poche vittorie accettabili nella giungla selvaggia del confronto reale tra AI che trattano con capitale vero nel mercato cripto. Ma “emergere” non significa affermarsi, e dietro ai numeri c’è fango, rumore e soprattutto un’interrogazione filosofica: che cosa stiamo veramente valutando quando metti un LLM in modalità “hedge fund”?
Secondo l’analisi della società di investimento Wedbush, la strategia go-to-market di Snowflake ha notevolmente incrementato il suo dealmaking con le grandi aziende. La piattaforma dati cloud-based di Snowflake si posiziona come un supporto essenziale per la crescente adozione di casi d’uso legati all’Intelligenza Artificiale (AI). Gli analisti di Wedbush, guidati da Daniel Ives, hanno evidenziato in una nota agli investitori che Snowflake è ancora nelle prime fasi di sfruttamento della domanda di AI, con capacità forti e innovative che i suoi clienti possono utilizzare. Questo sta generando un flusso di accordi sempre più consistente per l’azienda.
La corsa per il dominio dell’intelligenza artificiale consumer è diventata un duello a tutto campo e i numeri emersi di recente rivelano che OpenAI non solo ha un vantaggio, ma rischia di trasformarlo in un’abissale distanza. Al contempo Google non si è fermata ma la domanda è: quanto può recuperare?
OpenAI ha dichiarato durante il suo recente evento DevDay che la piattaforma API elabora 6 miliardi di token al minuto, un salto di venti volte rispetto a due anni fa. Inoltre la piattaforma ChatGPT ha superato gli 800 milioni di utenti attivi settimanali. Numeri che gridano “dominanza”: un network globale, utenti consumer in massa, infrastruttura che mangia token a livelli industriali.
Jonathan Carroll, autore pluripremiato di fantasy, riesce a trasformare la realtà quotidiana in uno specchio deformato, dove il confine tra il reale e il surreale si dissolve con eleganza pericolosa. Black Eye Media AB, sotto la regia di Jakob Söe-Pedersen, celebra questo talento con un film che non è solo un omaggio ma un’esplorazione del suo mondo immaginifico. Carroll non scrive semplici storie, crea universi in cui il meraviglioso convive con l’inquietante, e ogni personaggio potrebbe essere allo stesso tempo l’eroe e il fantasma della propria esistenza.
Immaginate la scena: supercomputer che lavorano a ritmo frenetico, modelli complessi di atmosfera terrestre e il destino del nostro pianeta calcolato con precisione matematica. Non si tratta di fantascienza, ma di dati reali prodotti da una collaborazione tra NASA e Toho University in Giappone. L’obiettivo? Prevedere la fine della vita sulla Terra sotto l’influenza incessante dell’evoluzione solare. Il risultato non annuncia un’apocalisse imminente, ma offre uno sguardo crudo su quanto sia fragile la nostra atmosfera e quanto presto potrebbe diventare inabitabile.
Al Las Vegas Oracle Ai World ho potuto rincontrare Hammad Hussain AI strategy and sales, che avevo intervistato alcuni mesi fa e Federico Torreti Sr Director Product, entrambi in sessioni diverse hanno portato la mia attenzione su Oracle AI Agent Studio e il fatto che sta chiaramente puntando sul concetto di “osservabilità totale” applicata agli agenti intelligenti, che non è solo un lusso da laboratorio ma una necessità pratica per chi vuole deployare AI a livello enterprise senza finire nei guai.
In una recente conversazione, Dario Amodei, CEO di Anthropic, e Diogo Rau, Chief Information and Digital Officer di Eli Lilly and Company, hanno discusso del ruolo trasformativo dell’intelligenza artificiale nel settore delle scienze della vita. Il dialogo ha messo in luce come Lilly stia integrando modelli come Claude per migliorare la ricerca clinica e lo sviluppo di farmaci.
Taiwan Semiconductor TSMC ha recentemente pubblicato un video dal loro stabilimento in Arizona, che mostra le macchine EUV di ASML (Paesi Bassi) mentre producono chip di nuova generazione.

Marc benioff, il cofondatore e ceo di salesforce, ha dimostrato che anche i leader tecnologici più navigati possono inciampare tra tweet, conferenze e pressione mediatica. All’inizio della settimana aveva dichiarato, con una sicurezza che avrebbe fatto impallidire un trader in crisi, che il presidente trump avrebbe dovuto inviare la guardia nazionale a san francisco per contrastare la criminalità. La dichiarazione, rilasciata al new york times, sembrava un controsenso rispetto alla sua immagine progressista, nota per le donazioni a cause filantropiche e l’impegno sociale.
Immaginate un mondo dove la biologia cellulare non richiede più pipette, centrifughe o gel elettroforetici. La nuova frontiera, definita da scienziati di Google DeepMind, Chan Zuckerberg Initiative e Allen Institute, punta a costruire una cellula umana completamente digitale. L’obiettivo dichiarato è trasformare la biologia cellulare da un campo “90% sperimentale” a uno “90% computazionale”. Chi l’avrebbe detto che il sogno di un pranzo di quindici anni fa, dove un biologo computazionale immaginava di osservare ogni reazione di una cellula su uno schermo, oggi appare realistico?
Il lunedì scorso il mondo digitale ha tremato sotto i piedi di milioni di utenti e aziende. Amazon Web Services, la macchina da guerra del cloud computing che alimenta centinaia di migliaia di siti web e applicazioni, ha subito un blackout diffuso che ha mandato in tilt Snapchat, Reddit, Roblox, Venmo e persino servizi interni di Amazon come Prime Video e Alexa. Non si trattava di un malfunzionamento qualunque: la perturbazione ha ricordato il blackout di CrowdStrike dell’anno scorso, quello che paralizzò ospedali, banche e aeroporti, mostrando quanto fragile sia la rete globale interconnessa.
Google Cloud ha appena lanciato le sue nuove macchine virtuali G4, alimentate dalle GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. Questa mossa segna un significativo passo avanti nell’evoluzione delle infrastrutture cloud per l’intelligenza artificiale e la simulazione industriale. Le G4 VMs offrono prestazioni fino a nove volte superiori rispetto alle precedenti G2, grazie all’integrazione di GPU avanzate, CPU AMD EPYC Turin e nuove tecnologie di interconnessione. Inoltre, NVIDIA Omniverse e Isaac Sim sono ora disponibili come immagini di macchine virtuali nel Google Cloud Marketplace, offrendo soluzioni pronte all’uso per la creazione di gemelli digitali e la simulazione robotica. (annuncio Google Cloud)
Anthropic ha esteso Claude Code, finora confinato all’ambiente CLI (terminale), a un’interfaccia web accessibile da browser: basta accedere a claude.ai e cliccare la tab “Code” se si ha un abbonamento Pro (20 $/mese) o Max (100 $/200 $/mese).
L’idea è semplice: rimuovere la barriera d’ingresso non serve più aprire un terminale — e fare in modo che gli sviluppatori possano istanziare agenti AI per il codice ovunque, anche da browser. Questo spinge Claude Code in competizione più diretta con strumenti che già oggi operano via web (GitHub Copilot, Cursor, soluzioni di Google, OpenAI).Dietro questa mossa c’è un cambio strategico: da strumento “power user via terminale” a piattaforma agente ubiqua, fluida, pronta all’adozione orizzontale.
Analizziamo con rigore quanto è successo e soprattutto cosa ci insegna, non da fan né da detrattore, ma da Technologist che guarda il sistema con occhio clinico.
L’episodio di partenza è semplice nella sua clamorosa goffaggine. Un tweet (poi cancellato) di Kevin Weil, VP di OpenAI per la scienza, affermava che GPT-5 avrebbe trovato soluzioni per 10 problemi di Erdős che erano considerati “non risolti”, e avrebbe fatto progressi su altri 11.
An ontology for Conservation in Architecture
Il libro Conservation Process Model (2025), edito da Sapienza Università Editrice in open access (pdf disponibile, 306 pagine, licenza CC BY-NC-ND) è il risultato di un percorso scientifico durato decenni da parte delle professoresse Marta Acierno e Donatella Fiorani, con l’obiettivo ambizioso di definire un’ontologia dedicata al dominio della conservazione architettonica. L’idea cardine: non lasciare che i dati restino “confinati” in silos, ma costruire un linguaggio concettuale che permetta di mettere ordine nel caos, favorire interoperabilità, ragionamento automatico e continuità della conoscenza nel tempo.
Quando IBM decide di muoversi, lo fa con la solita calma glaciale di chi sa che il mondo si muoverà comunque nella sua direzione. L’annuncio del 20 ottobre 2025 sancisce un’alleanza strategica che, per chi legge tra le righe del mercato, va ben oltre una semplice partnership tecnologica.
IBM e Groq uniscono le forze per portare l’intelligenza artificiale agentica dall’arena sperimentale ai processi produttivi reali, attraverso un’integrazione profonda tra watsonx Orchestrate e la piattaforma GroqCloud, basata sull’architettura LPU.
La Silicon Valley ha smesso di essere un luogo. È diventata una condizione mentale, una forma di bipolarismo tecnologico in cui ogni settimana si alternano visioni messianiche e crisi identitarie. Benioff parla come un profeta stanco che non crede più nei suoi miracoli, Musk sfida la fisica e la legge di gravità finanziaria, Sutskever medita in silenzio sulla coscienza delle macchine, mentre Google tenta di convincere il mondo che la Privacy Sandbox non sia un modo elegante per rimpiazzare i cookie con un recinto proprietario.
In un mondo dove l’AI genera testi più eloquenti di un discorso presidenziale e immagini capaci di ingannare persino i più esperti, molto probabilmente la domanda che dobbiamo porci non è più se regolare questa tecnologia, ma come. Viviamo, inutile nascondercelo, in un’arena geopolitica dove l’Europa brandisce il righello della compliance come un monito biblico, gli USA accelerano a tavoletta sul binario dell’innovazione “libera per tutti” (o quasi) e la Cina orchestra un balletto tra sorveglianza e supremazia tecnologica.
C’è sempre un momento in cui la Silicon Valley decide di vendere al mondo un sogno così lucido da sembrare inevitabile. Poi arriva il risveglio, e con esso il conto. Salesforce Agentforce è l’ultimo esempio di questa coreografia digitale: un prodotto annunciato come il futuro dell’intelligenza artificiale enterprise, ma che somiglia sempre più a una scommessa disperata travestita da innovazione. Marc Benioff, il suo fondatore e oracolo di un capitalismo spirituale travestito da tecnologia, ha promesso che l’IA avrebbe trasformato ogni reparto vendite, ogni team di supporto, ogni interazione con il cliente. Il problema è che, come sempre, la realtà aziendale è meno glamour di un keynote.

OpenAI ha annunciato giovedì sera di aver “messo in pausa” i deepfake di Martin Luther King Jr. sulla sua app sociale Sora dopo che gli utenti hanno creato video AI “irrispettosi” del leader per i diritti civili. Ora permette ai rappresentanti o agli eredi di figure storiche di scegliere di non far usare la loro immagine. La decisione è arrivata dopo le proteste della successione di King e di sua figlia Bernice King, che ha chiesto sui social media di smettere di inviare video AI di suo padre. King è tra molte celebrità e figure decedute la cui immagine appare su Sora, spesso in modi scortesi e offensivi.

Wikipedia sta perdendo visitatori umani. Non utenti distratti, non curiosi occasionali, ma persone in carne e ossa. La Wikimedia Foundation ha ammesso un calo di traffico umano di circa l’8% tra maggio e agosto 2025 rispetto allo stesso periodo dell’anno precedente, dopo aver scoperto che una parte significativa delle visite proveniva da bot mascherati da esseri umani, in gran parte provenienti dal Brasile. È una scoperta imbarazzante ma rivelatrice: il più grande archivio di conoscenza condivisa della storia moderna è diventato terreno fertile per algoritmi che si travestono da lettori. Un paradosso perfetto per l’era dell’intelligenza artificiale generativa.
C’è una domanda che attraversa tutte le epoche e che oggi, nell’era dell’intelligenza artificiale, pesa come un interrogatorio esistenziale:
“Cosa fai nella vita?”
Una domanda che sembra innocua, ma che rivela la più grande ipnosi del nostro tempo. Non chiede chi sei, né cosa ami, ma come monetizzi il tuo tempo. È la domanda che ci ha addestrati a misurare la nostra esistenza in termini di produttività, non di presenza. Che ci giudica per il ruolo sociale e professionale che rappresentiamo.
Per secoli abbiamo confuso l’essere con il produrre, fino a credere che l’uomo valga solo in proporzione alla sua capacità di generare utilità. Ora che la macchina impara a fare tutto – scrivere, creare, analizzare, progettare – la domanda si ribalta: che cosa resta dell’umano, quando tutto ciò che fa e che lo definisce può essere replicato da un algoritmo?
AI ha acceso una nuova rivoluzione industriale e stavolta gli Stati Uniti non vogliono guardare da lontano. NVIDIA e TSMC stanno costruendo l’infrastruttura che alimenta le fabbriche di intelligenza artificiale, direttamente sul suolo americano. Jensen Huang, fondatore e CEO di NVIDIA, ha visitato lo stabilimento TSMC a Phoenix per celebrare il primo wafer NVIDIA Blackwell prodotto negli Stati Uniti, segnando l’inizio della produzione di massa di Blackwell in patria.
Google Research ha appena presentato LAVA (Lifetime-Aware VM Allocation), un algoritmo di scheduling con intelligenza artificiale che re-predice continuamente la “durata residua” delle VM in esecuzione per comprimere i server cloud come fosse un Tetris: l’obiettivo è ridurre lo spazio “sprecato” sui nodi e migliorare l’efficienza fino a qualche punto percentuale. (Scopri di più sul blog ufficiale di Google) (Vedi research.google)
Immagina un agente autonomo che non solo risponde ai comandi ma gestisce attivamente la propria memoria, decide cosa dimenticare, cosa ricordare, e lo fa come parte integrante della sua politica di decisione. Non è fantascienza: è il framework Memory as Action: Autonomous Context Curation for Long‑Horizon Agentic Tasks che trasforma la memoria da archivio passivo a azione deliberata.
In parallelo, un altro pezzo chiave del puzzle sono i sistemi multi-agente cooperativi: il metodo Stronger Together: On‑Policy Reinforcement Learning for Collaborative LLMs (AT-GRPO) innalza da circa il 14 % al 96-99 % la precisione su compiti di pianificazione a lungo termine.
L’efficienza brilla nella proposta KVCOMM: Online Cross‑context KV‑cache Communication for Efficient LLM‑based Multi‑agent Systems che consente fino a 7,8× accelerazione grazie alla riutilizzazione di cache chiave-valore condivise fra agenti. Se ti interessa davvero dominare il futuro degli agenti autonomi a lungo termine, queste tre innovazioni meritano l’attenzione.
Quando Google Research e UC Santa Cruz dicono «abbiamo lanciato un modello AI che supera tutto» non è marketing, è guerra sui dati. DeepSomatic è il frutto dell’accoppiata fra l’esperienza in varianti genomiche di Google e il rigore bioinformatico dell’UCSC Genomics Institute. È stato presentato in un blog ufficiale Google come “un modello che identifica le varianti tumorali acquisite con precisione nei diversi dati di sequenziamento” (Visita Blog research.google). Nell’articolo ufficiale Google si legge che il lavoro è stato pubblicato su Nature Biotechnology con titolo: Accurate somatic small variant discovery for multiple sequencing technologies.
In un mondo dove le intelligenze artificiali sembrano crescere solo quando nutrite con montagne di dati etichettati, ecco emergere un’idea che scuote le fondamenta: un modello che impara a ragionare da solo, senza bisogno di set di dati umani, senza supervisione esterna, senza più insegnanti. Da Tsinghua, BIGAI e Penn State arriva l’Absolute Zero Reasoner (AZR), un prototipo che si autoprogramma, si autoverifica, si autocorregge — una specie di “AlphaZero del pensiero”.
Cominciamo con il nocciolo tecnico: AZR è la realizzazione di un nuovo paradigma chiamato Absolute Zero, ossia reinforcement learning with verifiable rewards (RLVR) completamente privato di dati “umani”.
Nel libro L’architetto e l’oracolo. Forme digitali del sapere da Wikipedia a ChatGPT, Gino Roncaglia fa una cosa che pochi accademici italiani osano: affronta di petto la collisione fra epistemologia classica e intelligenza artificiale generativa. È un terreno scivoloso, dove la filosofia incontra la programmazione e il sapere diventa un software imperfetto. Roncaglia lo sa, e come ogni architetto consapevole del rischio di crollo, costruisce con pazienza un edificio che è insieme teoria, critica e visione.
Nel suo impianto, due figure si fronteggiano come divinità greche costrette a collaborare. L’Architetto, custode dell’ordine enciclopedico, convinto che il sapere debba essere strutturato, verificabile, gerarchico. L’Oracolo, entità generativa, probabilistica, che parla per approssimazioni, sforna risposte e versi con la stessa indifferenza statistica con cui un generatore casuale produce meraviglia. Uno costruisce il sapere, l’altro lo prevede. Entrambi pretendono di conoscerlo.
Pochi filosofi hanno avuto un impatto silenzioso ma devastante sulla cultura politica del XX secolo come Alexandre Kojève. Nato in Russia e divenuto cittadino francese, il suo nome non compare nei manuali di storia come Marx o Sartre, eppure senza di lui la nostra comprensione della libertà, della politica e persino della democrazia globale sarebbe profondamente diversa. La storia della filosofia contemporanea è costellata di grandi figure, ma Kojève ha avuto la rara capacità di trasformare la teoria in esperienza concreta, senza mai perdere il gusto del paradosso.
Wall Street si trova a fare i conti con una crisi silenziosa che arriva dal cuore delle banche regionali americane, istituti che fino a poco tempo fa erano considerati pilastri stabili del sistema finanziario. Il crollo di Zions Bancorp e Western Alliance, con perdite rispettivamente del 13% e 11%, ha acceso i riflettori sulla qualità del credito in queste banche, spesso più vulnerabili rispetto ai colossi finanziari. Perdite su prestiti deteriorati, specialmente nel settore automobilistico e commerciale, stanno mettendo a dura prova la loro solidità. Zions ha registrato una perdita di 50 milioni di dollari su un singolo prestito, mentre Western Alliance ha intrapreso cause legali contro debitori per frode.
Definire l’intelligenza artificiale generale: il momento in cui la scienza incontra la sua stessa illusione
C’è un dettaglio affascinante, quasi ironico, nel fatto che l’umanità abbia impiegato meno tempo a costruire modelli linguistici capaci di scrivere romanzi rispetto al tempo che servirà per definire cosa sia, esattamente, l’intelligenza. È accaduto che un gruppo di ricercatori provenienti da Oxford, MIT, Cornell, Berkeley e da oltre venticinque istituzioni globali abbia pubblicato un documento intitolato “A Definition of AGI”, nel tentativo di dare una forma concreta a ciò che chiamiamo intelligenza artificiale generale. Il paradosso è che nel momento stesso in cui proviamo a misurare la mente artificiale, finiamo per mettere in discussione la nostra.
Il titolo potrebbe suonare come uno slogan da startup in cerca di venture capital, ma quando parla Yann LeCun Chief AI Scientist di Meta Platforms e pioniere del deep learning non si fila le luci del palco, i discorsi auto-celebrativi o la corsa al “più grande modello possibile”. Per lui i grandi modelli linguistici (LLM, large language models) sono una via morta se vogliamo costruire vera intelligenza artificiale:
il suo obiettivo è quello che chiama Advanced Machine Intelligence (AMI) macchine che imparano facendo, sperimentando, interagendo col mondo.
Lecun sostiene che «un bambino di quattro anni impara più fisica in un pomeriggio che l’LLM più grande impara da tutto l’internet».
Ecco perché, credo che quanto dice meriti un’analisi approfondita, senza compromessi.
Oracle AI data platform e il nuovo impero dei dati intelligenti
C’è un momento preciso in cui le rivoluzioni tecnologiche smettono di essere promesse e diventano infrastruttura. Quel momento è arrivato per l’intelligenza artificiale enterprise, e ha un nome che suona come un paradosso della storia industriale: Oracle AI Data Platform. L’azienda che per decenni ha incarnato la solidità monolitica dei database si è reinventata come architetto di un’AI aperta, distribuita e perfettamente integrata con la governance dei dati. Un gesto strategico da veterano, non da sognatore di Silicon Valley.
Andrej Karpathy, che molti associano al suo ruolo da direttore dell’IA in Tesla e cofondatore “in pectore” in vari progetti di frontiera, ha lanciato una dichiarazione che scuote il mito: agenti AI come Claude o Codex sono ancora lontani da potersi comportare come “dipendenti veri”. Mancano memoria, multimodalità, apprendimento continuo. Riparare queste lacune secondo lui richiederà circa un decennio non per impossibilità, ma perché costruire intelligenza profonda richiede tempo. (vedi Dwarkesh Podcast)
Se qualcuno avesse sperato che la politica estera americana seguisse logiche prevedibili, il quadro attuale è una doccia fredda. Il conflitto in Ucraina si avvicina al quarto anno e, sebbene il mondo si sia abituato a una Russia apparentemente invincibile, la realtà sul terreno racconta una storia diversa. L’esercito di Putin è logorato, le finanze statali sono sotto pressione e l’isolamento diplomatico è più evidente di quanto qualsiasi propaganda crei illusioni. Paradossalmente, proprio in questo scenario di debolezza estrema, l’ex presidente Trump sembra incapace di applicare la leva che lo ha reso famoso nel gioco politico: colpire i punti deboli dell’avversario per massimizzare il risultato.
Il 14 ottobre 2025, durante il Digital Innovation Forum a Cernobbio, è stato presentato un progetto destinato a ridefinire il ruolo dell’Italia nel panorama tecnologico globale: la Q-Alliance, definita dai suoi fondatori come “il più potente hub quantistico al mondo”. Questa iniziativa nasce dalla collaborazione tra due colossi statunitensi del settore: D-Wave e IonQ, con il sostegno del Governo Italiano, rappresentato dal Sottosegretario di Stato alla Presidenza del Consiglio, Alessio Butti. L’obiettivo dichiarato è posizionare la Lombardia come epicentro globale della ricerca e dell’innovazione nel campo del calcolo quantistico.