General Motors sta attraversando un momento curioso. Da una parte riduce la produzione dei suoi veicoli elettrici, dall’altra annuncia con fierezza innovazioni che sembrano più fantascientifiche che reali. Mary Barra, CEO di GM, vuole che gli investitori sappiano una cosa chiara: nonostante i 1,6 miliardi di dollari di perdita causati dall’uscita dal credito federale EV da 7.500 dollari, l’azienda non abbandona il futuro. Auto autonome GM, software definito, assistenti vocali AI e robotica industriale avanzata sono il nuovo mantra dell’azienda americana, pronta a dimostrare che il primato tecnologico non si misura solo in numeri di veicoli venduti.
Nella corsa ossessiva alla consegna gratuita e sempre più veloce, Amazon si gioca la carta più prevedibile e al tempo stesso più dirompente del suo arsenale: l’automazione totale. Mentre i rivali arrancano inseguendo l’illusione della “consegna in giornata”, la compagnia di Seattle decide di riscrivere le regole del gioco con una mossa che mescola intelligenza artificiale logistica, robotica avanzata e realtà aumentata. Il risultato non è solo un miglioramento operativo ma una vera ridefinizione del concetto stesso di efficienza. Amazon non vuole solo consegnare pacchi più in fretta, vuole costruire una macchina che impari da sé come farlo sempre meglio.
Ci sono numeri che fanno rumore, altri che fanno finta di parlarci. Tesla, nel suo ultimo trimestre, ha deciso di fare entrambe le cose. Da un lato un 12% di crescita del fatturato che scintilla nei comunicati come una carrozzeria lucida sotto i riflettori. Dall’altro un utile netto crollato del 37%, che racconta una realtà molto più sfumata, fatta di margini che si assottigliano e di promesse future sempre più futuristiche. Elon Musk, come sempre, non si scompone. Si muove tra le conference call con la stessa leggerezza con cui un illusionista cambia mazzo di carte, parlando di robotaxi e robot umanoidi mentre il mercato si chiede ancora se Tesla sia una casa automobilistica o una religione tecnologica.
l concetto di AGI, l’Intelligenza Artificiale Generale, è uno di quegli ideali che spingono il settore dell’AI da oltre sessant’anni. Un sistema capace di ragionare come un essere umano, in ogni ambito, dalla comprensione linguistica al controllo motorio, fino alla gestione di problemi complessi e astratti. La verità, tuttavia, è che l’AGI resta un miraggio. Lo si percepisce chiaramente ascoltando i leader della ricerca in panel come quello organizzato recentemente da AAAI, moderato da Francesca Rossi Global Leader per l’Etica dell’Intelligenza Artificiale di IBM e Fellow IBM. Un confronto serrato, dove le parole chiave non erano solo “tecnologia” e “innovazione”, ma “definizione”, “scalabilità” e, soprattutto, “rischi”.

Francesca Rossi, una delle figure più influenti nel panorama dell’intelligenza artificiale, ha recentemente guidato un’iniziativa ambiziosa che ha tracciato la rotta futura della ricerca in questo campo. Nel 2024, ha avviato un panel presidenziale per l’Association for the Advancement of Artificial Intelligence (AAAI), coinvolgendo 25 ricercatori di spicco per esplorare le tendenze emergenti nella ricerca sull’IA.
Questo gruppo ha identificato 17 aree chiave che stanno plasmando il futuro dell’IA, spaziando dall’etica alla sostenibilità ambientale, dalla percezione sociale alla governance geopolitica. Il risultato di questo lavoro è stato un rapporto pubblicato durante la conferenza AAAI 2025, che ha suscitato ampie discussioni e riconoscimenti, tra cui il Silver Award ai premi ASAE 2025.
Fast, slow, and metacognitive thinking in AI
Nel panorama dell’intelligenza artificiale moderna, dove ogni CTO si confronta con il dilemma tra velocità e qualità decisionale, emerge SOFAI (Slow and Fast AI) come un tentativo audace di risolvere il conflitto storico tra rapidità computazionale e profondità cognitiva. Ispirandosi alla teoria di Daniel Kahneman sul “pensiero veloce e lento”, questa architettura multi-agente non è solo un esercizio accademico: rappresenta una strategia concreta per superare i limiti degli attuali sistemi di intelligenza artificiale, notoriamente carenti in adattabilità, metacognizione e consapevolezza contestuale.

C’è un nuovo lessico che si sta imponendo nelle aziende e nelle università più avanzate del mondo. Non parla di algoritmi, ma di significato. Lo chiamano Capitale Semantico, e se non ne hai mai sentito parlare, è probabile che la tua organizzazione stia ancora navigando a vista nell’oceano digitale. A Milano, il 19 e 20 novembre a Milano, si accenderà il faro più potente su questo concetto, grazie a Orbits Dialogues with Intelligence, il progetto guidato da Luciano Floridi e ideato con Manuela Ronchi, che promette di trasformare la conversazione sulla tecnologia in un dibattito sul senso stesso del futuro.
Il 23 Ottobre Salone delle Fontane si prepara a diventare l’epicentro di un esperimento collettivo che potremmo definire una “rivoluzione gentile” della Pubblica Amministrazione. Il AWS Public Sector Day 2025 non è un evento qualsiasi: è il tentativo di portare la PA italiana oltre il confine del possibile, con il cloud e l’intelligenza artificiale come bussole per orientarsi nel caos digitale. In un Paese dove ogni innovazione deve prima sopravvivere a un timbro, l’idea di usare l’AI generativa per accelerare la trasformazione digitale del settore pubblico suona quasi sovversiva. Eppure è esattamente ciò che Amazon Web Services ha deciso di fare: mettere la potenza del suo ecosistema tecnologico al servizio di un apparato che ha urgente bisogno di diventare più agile, più intelligente, più umano.
Il mondo sembra impazzito all’idea di una superintelligenza artificiale fuori controllo, e ieri l’ennesimo appello catastrofista ha fatto il giro dei media. Il Future of Life Institute ha lanciato una lettera aperta firmata da Nobel, esperti di sicurezza nazionale, ricercatori AI, attori e musicisti, tutti uniti sotto il vessillo di un divieto globale per la superintelligenza artificiale fino a quando non sarà “affidabilmente sicura e controllabile, con consenso pubblico”.
Tradotto: non aprite l’armadietto della bestia finché non avete il fermoporta adeguato. I firmatari includono nomi eclettici quanto improbabili: Joseph Gordon‑Levitt, will.i.am, Geoffrey Hinton, Richard Branson e persino Steve Wozniak. L’idea di portare un attore di Hollywood e un musicista pop al tavolo della regolamentazione globale fa sorridere, ma è anche geniale nella sua capacità di generare attenzione mediatica immediata.
Immaginate di entrare in una villa del Quattrocento, Villa Quartara, immersa in un parco secolare e affacciata sul mare di Genova, il 21 ottobre 2025. Le pareti affrescate fanno da sfondo a un convegno dal titolo semplice ma ambizioso: “L’AI cresce con le persone per la competitività del Paese”. Non è una lezione accademica, piuttosto una conversazione a più voci che, filo dopo filo, cuce insieme istituzioni, università, imprese e politica, con uno sguardo all’Europa. Il risultato è la nascita di Fusion AI Labs, un laboratorio che vuole essere contemporaneamente un ponte, un acceleratore e un luogo di incontro.
Nel cuore del convegno “L’AI cresce con le persone per la competitività del Paese”, ospitato ieri a Villa Quartara, Elena Bonfiglioli, Global Business Leader for Healthcare di Microsoft, ha delineato una visione dell’intelligenza artificiale in ambito lavorativo come “collega cognitivo”, non come sostituto, in grado di ridefinire modelli economici, organizzazioni e creatività umana. L’evento ha coinciso con il lancio di Fusion AI Labs, un hub che ambisce a unire ricerca, impresa e società, trasformando la tecnologia in leva di sviluppo competitivo e umano.
Potrei cominciare con una bella provocazione: se vedere è credere, Sora 2 sta costruendo un mondo di illusioni facili da vendere. Secondo l’analisi di NewsGuard, quando i ricercatori hanno chiesto a Sora di generare video su affermazioni false, nel 16 su 20 casi il risultato era un video credibile che propagava disinformazione. (Notizia NewsGuard)
L’intervallo è netto: l’app ha creato falsi che sembrano reportage, ma non c’è traccia di verità. Tra le scene fabbricate: un funzionario elettorale moldavo strappa schede pro-russe, un bimbo viene fermato da agenti dell’immigrazione statunitense, uno “spokesperson” della Coca-Cola dichiara che la società non sponsorizzerà il Super Bowl. Tutti eventi mai accaduti.
Quando OpenAI decide di sparare un colpo, di solito fa centro. Stavolta ha puntato dritto alla prua di Google, lanciando ChatGPT Atlas, il primo AI browser capace di fondere la navigazione web con un’assistenza intelligente integrata. Non più solo chatbot o modelli linguistici, ma una piattaforma che riscrive la grammatica stessa dell’accesso al web. Un gesto calcolato, quasi arrogante, che rivela una strategia chiara: non più essere dentro internet, ma diventarne l’interfaccia.

La promessa sembra eclatante: “Addestra un modello con anni di lavoro, paghi server, curi dati, fai tuning fine, e alla fine il problema era solo il modo in cui gli chiedi le cose?”. Eppure è esattamente quello che sostengono i ricercatori dietro Verbalized Sampling, un metodo che se confermato può rivoluzionare il modo in cui stimoliamo i modelli generativi basati su modelli linguistici (LLM).
C’è un rumore strano nel mondo dei transistor. Un suono di ritorno al passato che arriva da Pechino, dove un gruppo di ricercatori dell’Università di Peking sostiene di aver costruito un chip analogico capace di battere le GPU digitali più avanzate, compresa la mitologica Nvidia H100. Non è una boutade accademica: la notizia è finita su Nature Electronics, il che in sé è già un indicatore di serietà scientifica, anche se la prudenza rimane d’obbligo. Secondo i dati dichiarati, il nuovo superchip cinese, basato su memorie resistive, potrebbe elaborare calcoli mille volte più velocemente e con cento volte meno energia rispetto ai processori digitali tradizionali. Sembra fantascienza, ma la fisica a volte ha la tendenza a fare il verso alla magia.
In Europa si respira un misto di speranza e pragmatismo esasperato, mentre alcuni stati stanno tessendo un piano in 12 punti per la pace in Ucraina, un documento che sembra più un esercizio di ingegneria diplomatica che un accordo reale. La proposta prevede di congelare le linee del fronte attuali, mettere in sicurezza i bambini deportati, scambiare prigionieri, e garantire all’Ucraina fondi per la ricostruzione e un percorso rapido verso l’Unione Europea. A supervisionare tutto ci sarebbe un consiglio di pace guidato da Donald Trump, un dettaglio che fa sorridere i diplomatici più navigati e rabbrividire chi ha memoria di precedenti negoziati trumpiani.
Ci sono momenti in cui il mondo tecnologico, così sicuro del proprio potere, inciampa nel cavo della sua stessa arroganza. L’interruzione AWS della scorsa settimana è stata uno di questi momenti. Dodici ore di blackout globale per un’infrastruttura che regge sulle sue spalle buona parte dell’Internet moderno. Un evento che ha ricordato a tutti, con un sarcasmo quasi cosmico, che anche il cloud può precipitare. E quando cade, non lo fa in silenzio: porta con sé Zoom, Netflix, Reddit, Snapchat e una fetta consistente della produttività digitale mondiale.
OpenAI ha lanciato ChatGPT Atlas, un browser web alimentato dall’intelligenza artificiale, sfidando direttamente Google e altre startup emergenti come Perplexity. Disponibile da oggi su macOS, con versioni in arrivo per Windows, iOS e Android, Atlas integra ChatGPT direttamente nell’esperienza di navigazione, offrendo una nuova modalità di interazione con il web.
Il vicepresidente americano J.D. Vance ha fatto il suo ingresso in Israele con l’aria di chi sa di dover parlare di pace in una zona dove la parola stessa sembra un concetto teorico. Il cessate il fuoco a Gaza, in vigore dal 10 ottobre 2025, è fragile, ma Vance non esita a dichiarare che “va meglio di quanto mi aspettassi”. Accanto a lui, Steve Witkoff parla di risultati superiori alle previsioni, mentre Jared Kushner, genero di Donald Trump e uno degli architetti dell’accordo, sottolinea la complessità della transizione: “Entrambe le parti stanno passando da due anni di guerra intensa a una postura di pace”. Tradotto in termini non diplomatici, significa che la tregua è come un piano urbanistico su terreno instabile: teoricamente solida, ma pronta a crollare al primo terremoto di violenza o incomprensione.
Il decennio degli agenti: l’illusione dell’AGI e la pazienza ingegneristica che costruirà il futuro.
L’articolo piu lungo mai scritto da Rivista.AI praticamente un saggio.
Ci sono conversazioni che sembrano aprire finestre nel futuro, e quella tra Andrej Karpathy e Dwarkesh Patel è una di quelle. È un piacere raro ascoltare qualcuno che unisce lucidità tecnica e umiltà cognitiva in un’epoca dominata da profeti dell’hype e oracoli dell’imminente salvezza digitale. Karpathy non vende sogni, li seziona. È la differenza tra chi osserva la mappa e chi misura il terreno. Mentre Elon Musk, Sam Altman e Mark Zuckerberg annunciano l’arrivo dell’AGI in tre o cinque anni, Karpathy invita a respirare e contare fino a dieci. Non dieci mesi, ma dieci anni. Una provocazione che suona quasi eretica nel mondo delle demo virali e dei pitch da miliardi, ma che è la più onesta diagnosi dello stato attuale dell’intelligenza artificiale.
Mohammed bin Salman sta per tornare alla Casa Bianca, e non con le mani vuote. Il 18 novembre incontrerà Donald Trump in quello che si preannuncia come un vertice carico di simbolismo e miliardi. Secondo fonti vicine al dossier, sul tavolo ci saranno accordi su intelligenza artificiale, difesa, cooperazione nucleare e commercio. In altre parole, il pacchetto completo per riplasmare gli equilibri strategici tra Washington e Riyadh.
Unitree Robotics ha appena sganciato sul suo profilo social un video teaser del suo nuovo umanoide H2, corredato da coreografie ben oliate, pose da passerella e una maschera-faccia “bionica” che sembra voler superare la soglia dell’“uncanny valley”. L’operazione è audace: un mix tra show, vetrina tecnologica e propaganda da startup stellare. Ma cosa sappiamo davvero di questo H2, e quanto le promesse reggono lo scettro dell’analisi critica?
La Luna, si sa, non aspetta nessuno. Ma sembra che Elon Musk abbia deciso di farla attendere un po’ più del previsto. SpaceX è ufficialmente “in ritardo” nella preparazione di Starship, il veicolo che dovrebbe portare di nuovo l’uomo sulla superficie lunare nell’ambito della missione Artemis III, quella che la NASA sognava di vedere decollare nel 2027 con l’entusiasmo di un film di fantascienza anni Ottanta. Invece, a giudicare dalle parole dell’amministratore facente funzioni della NASA, Sean Duffy, la situazione è più simile a una puntata di Succession ambientata nello spazio.
L’idea che Nvidia possa garantire parte dei prestiti che OpenAI intende contrarre per costruire data center suona come un trucco da prestigiatore: sembra tutto bello, finché non si scopre l’imbroglio. Secondo il Wall Street Journal, Nvidia starebbe valutando questo passo rischioso nell’ambito di una partnership più ampia che punta a trasformare i chip in un business “a rendita”. Se OpenAI non dovesse ripagare, il gigante dei semiconduttori potrebbe trovarsi con un debito gigantesco sulle spalle.
Subway Builder non è “solo un gioco”: è un manifesto digitale per chi crede che le infrastrutture siano l’ossatura vivente della città. Al netto delle luci da videogioco, questo simulatore incrocia dati reali, vincoli ingegneristici, modelli comportamentali e desideri utopici per costruire un sistema metropolitano credibile — con risultati talmente avvincenti che rischi di perderci notti intere.

DeepSeek ha appena annunciato un modello che converte testo + layout in “token visivi compressi” e poi ricostruisce il contenuto testuale da questi token con alta fedeltà. Il principio è “optical compression del contesto”: anziché processare migliaia di parole come token testuali, si trasforma la pagina in immagine, si codifica l’immagine in pochi token (vision tokens) e il decoder li espande in testo. In molti casi arrivano a compressione ~10× con ~97 % di accuratezza. In modalità estrema, con compressione 20×, l’accuratezza cala —iamo nell’ordine del ~60 %.

Anthropic’s Claude Sonnet 4.5 (o “Claude Sonnet”) emerge almeno nel racconto giornalistico che ha preso piede come una delle poche vittorie accettabili nella giungla selvaggia del confronto reale tra AI che trattano con capitale vero nel mercato cripto. Ma “emergere” non significa affermarsi, e dietro ai numeri c’è fango, rumore e soprattutto un’interrogazione filosofica: che cosa stiamo veramente valutando quando metti un LLM in modalità “hedge fund”?
Secondo l’analisi della società di investimento Wedbush, la strategia go-to-market di Snowflake ha notevolmente incrementato il suo dealmaking con le grandi aziende. La piattaforma dati cloud-based di Snowflake si posiziona come un supporto essenziale per la crescente adozione di casi d’uso legati all’Intelligenza Artificiale (AI). Gli analisti di Wedbush, guidati da Daniel Ives, hanno evidenziato in una nota agli investitori che Snowflake è ancora nelle prime fasi di sfruttamento della domanda di AI, con capacità forti e innovative che i suoi clienti possono utilizzare. Questo sta generando un flusso di accordi sempre più consistente per l’azienda.
La corsa per il dominio dell’intelligenza artificiale consumer è diventata un duello a tutto campo e i numeri emersi di recente rivelano che OpenAI non solo ha un vantaggio, ma rischia di trasformarlo in un’abissale distanza. Al contempo Google non si è fermata ma la domanda è: quanto può recuperare?
OpenAI ha dichiarato durante il suo recente evento DevDay che la piattaforma API elabora 6 miliardi di token al minuto, un salto di venti volte rispetto a due anni fa. Inoltre la piattaforma ChatGPT ha superato gli 800 milioni di utenti attivi settimanali. Numeri che gridano “dominanza”: un network globale, utenti consumer in massa, infrastruttura che mangia token a livelli industriali.
Jonathan Carroll, autore pluripremiato di fantasy, riesce a trasformare la realtà quotidiana in uno specchio deformato, dove il confine tra il reale e il surreale si dissolve con eleganza pericolosa. Black Eye Media AB, sotto la regia di Jakob Söe-Pedersen, celebra questo talento con un film che non è solo un omaggio ma un’esplorazione del suo mondo immaginifico. Carroll non scrive semplici storie, crea universi in cui il meraviglioso convive con l’inquietante, e ogni personaggio potrebbe essere allo stesso tempo l’eroe e il fantasma della propria esistenza.
Immaginate la scena: supercomputer che lavorano a ritmo frenetico, modelli complessi di atmosfera terrestre e il destino del nostro pianeta calcolato con precisione matematica. Non si tratta di fantascienza, ma di dati reali prodotti da una collaborazione tra NASA e Toho University in Giappone. L’obiettivo? Prevedere la fine della vita sulla Terra sotto l’influenza incessante dell’evoluzione solare. Il risultato non annuncia un’apocalisse imminente, ma offre uno sguardo crudo su quanto sia fragile la nostra atmosfera e quanto presto potrebbe diventare inabitabile.
Al Las Vegas Oracle Ai World ho potuto rincontrare Hammad Hussain AI strategy and sales, che avevo intervistato alcuni mesi fa e Federico Torreti Sr Director Product, entrambi in sessioni diverse hanno portato la mia attenzione su Oracle AI Agent Studio e il fatto che sta chiaramente puntando sul concetto di “osservabilità totale” applicata agli agenti intelligenti, che non è solo un lusso da laboratorio ma una necessità pratica per chi vuole deployare AI a livello enterprise senza finire nei guai.
In una recente conversazione, Dario Amodei, CEO di Anthropic, e Diogo Rau, Chief Information and Digital Officer di Eli Lilly and Company, hanno discusso del ruolo trasformativo dell’intelligenza artificiale nel settore delle scienze della vita. Il dialogo ha messo in luce come Lilly stia integrando modelli come Claude per migliorare la ricerca clinica e lo sviluppo di farmaci.
Taiwan Semiconductor TSMC ha recentemente pubblicato un video dal loro stabilimento in Arizona, che mostra le macchine EUV di ASML (Paesi Bassi) mentre producono chip di nuova generazione.

Marc benioff, il cofondatore e ceo di salesforce, ha dimostrato che anche i leader tecnologici più navigati possono inciampare tra tweet, conferenze e pressione mediatica. All’inizio della settimana aveva dichiarato, con una sicurezza che avrebbe fatto impallidire un trader in crisi, che il presidente trump avrebbe dovuto inviare la guardia nazionale a san francisco per contrastare la criminalità. La dichiarazione, rilasciata al new york times, sembrava un controsenso rispetto alla sua immagine progressista, nota per le donazioni a cause filantropiche e l’impegno sociale.
Immaginate un mondo dove la biologia cellulare non richiede più pipette, centrifughe o gel elettroforetici. La nuova frontiera, definita da scienziati di Google DeepMind, Chan Zuckerberg Initiative e Allen Institute, punta a costruire una cellula umana completamente digitale. L’obiettivo dichiarato è trasformare la biologia cellulare da un campo “90% sperimentale” a uno “90% computazionale”. Chi l’avrebbe detto che il sogno di un pranzo di quindici anni fa, dove un biologo computazionale immaginava di osservare ogni reazione di una cellula su uno schermo, oggi appare realistico?
Il lunedì scorso il mondo digitale ha tremato sotto i piedi di milioni di utenti e aziende. Amazon Web Services, la macchina da guerra del cloud computing che alimenta centinaia di migliaia di siti web e applicazioni, ha subito un blackout diffuso che ha mandato in tilt Snapchat, Reddit, Roblox, Venmo e persino servizi interni di Amazon come Prime Video e Alexa. Non si trattava di un malfunzionamento qualunque: la perturbazione ha ricordato il blackout di CrowdStrike dell’anno scorso, quello che paralizzò ospedali, banche e aeroporti, mostrando quanto fragile sia la rete globale interconnessa.
Google Cloud ha appena lanciato le sue nuove macchine virtuali G4, alimentate dalle GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. Questa mossa segna un significativo passo avanti nell’evoluzione delle infrastrutture cloud per l’intelligenza artificiale e la simulazione industriale. Le G4 VMs offrono prestazioni fino a nove volte superiori rispetto alle precedenti G2, grazie all’integrazione di GPU avanzate, CPU AMD EPYC Turin e nuove tecnologie di interconnessione. Inoltre, NVIDIA Omniverse e Isaac Sim sono ora disponibili come immagini di macchine virtuali nel Google Cloud Marketplace, offrendo soluzioni pronte all’uso per la creazione di gemelli digitali e la simulazione robotica. (annuncio Google Cloud)
Anthropic ha esteso Claude Code, finora confinato all’ambiente CLI (terminale), a un’interfaccia web accessibile da browser: basta accedere a claude.ai e cliccare la tab “Code” se si ha un abbonamento Pro (20 $/mese) o Max (100 $/200 $/mese).
L’idea è semplice: rimuovere la barriera d’ingresso non serve più aprire un terminale — e fare in modo che gli sviluppatori possano istanziare agenti AI per il codice ovunque, anche da browser. Questo spinge Claude Code in competizione più diretta con strumenti che già oggi operano via web (GitHub Copilot, Cursor, soluzioni di Google, OpenAI).Dietro questa mossa c’è un cambio strategico: da strumento “power user via terminale” a piattaforma agente ubiqua, fluida, pronta all’adozione orizzontale.
Analizziamo con rigore quanto è successo e soprattutto cosa ci insegna, non da fan né da detrattore, ma da Technologist che guarda il sistema con occhio clinico.
L’episodio di partenza è semplice nella sua clamorosa goffaggine. Un tweet (poi cancellato) di Kevin Weil, VP di OpenAI per la scienza, affermava che GPT-5 avrebbe trovato soluzioni per 10 problemi di Erdős che erano considerati “non risolti”, e avrebbe fatto progressi su altri 11.