Marina Vyazovska, matematica originaria di Kiev, è entrata nella storia risolvendo un problema che aveva sfidato generazioni di studiosi: il problema dell’impacchettamento delle sfere nello spazio a otto dimensioni. Per chi non mastica matematica avanzata, si tratta di una variante estrema della domanda apparentemente banale “quante arance si possono sistemare ordinatamente in una cassetta?”. La risposta in tre dimensioni era costata trecento pagine di dimostrazioni complicatissime, mentre Vyazovska ha risolto la versione a otto dimensioni con appena ventitré pagine, per di più con una grazia tecnica che molti colleghi hanno definito “elegante” quasi quanto un’opera d’arte.

La notizia arriva come un colpo ben assestato in una partita che qualche anno fa sembrava già scritta: Alibaba ha reso open source il suo ultimo modello di intelligenza artificiale costruito sull’architettura Qwen3-Next, reclamando miglioramenti di efficienza che suonano quasi irridenti rispetto al passato. Secondo le note pubblicate dal team Qwen sulle piattaforme pubbliche per sviluppatori, il modello Qwen3-Next-80B-A3B, con 80 miliardi di parametri totali ma solo 3 miliardi attivi per token, ottiene prestazioni dieci volte superiori in certi compiti a fronte di un costo di addestramento dichiarato pari a un decimo rispetto al predecessore Qwen3-32B. Questa affermazione non è un tweet vago ma è documentata nei repository ufficiali dove Alibaba ha caricato modelli e note tecniche.

Chatbot Per Minori oggi non è più solo un esperimento sociologico, ma un campo minato dove tecnologia, psicologia, business e regolamentazione scontrano le loro lame. Il caso della Federal Trade Commission Usa getta luce su rischi che finora molti hanno sottovalutato, purché il profitto cresca.
Il termine racchiude macchine che somigliano agli amici, che parlano come confidanti, che offrono empatia artificiale a ragazzini e adolescenti soli o in crisi. Queste piattaforme fanno leva su quella che psicologi chiamano “dipendenza emotiva”: non serve che siano consapevoli, serve che appaiano consapevoli.

Cos’è Nano Banana?
Nano Banana (nome in codice per **Gemini 2.5 Flash Image**) è l’ultimo modello di Google AI Studio, il più veloce ed efficiente. La sua architettura multimodale nativa gli permette di elaborare testo e immagini in un unico passaggio, sbloccando capacità potenti come:

La notizia ufficiale è semplice e diplomaticamente lucida. OpenAI e Microsoft hanno firmato un memorandum d’intesa non vincolante per definire la prossima fase della loro partnership, impegnandosi a finalizzare i termini contrattuali in un accordo definitivo e a proseguire nello sviluppo di strumenti di intelligenza artificiale con un focus condiviso sulla sicurezza. (annuncio OpenAI)
La realtà è che si tratta di una partita di governance, asset cloud e condizioni economiche che potrebbe decidere chi governerà la catena di valore dell’AI nei prossimi anni. Microsoft ha immesso capitale nell’ecosistema OpenAI per anni, con cifre riportate tra gli 11 e i 13 miliardi di dollari dal 2019 ad oggi, e ha ottenuto diritti commerciali e condivisione dei ricavi che l’hanno resa un partner quasi irrinunciabile. Questa ambiguità numerica sulla somma precisa riflette la natura opaca e stratificata degli accordi che stiamo osservando.

Anthropic ha appena annunciato un aggiornamento importante per Claude: ora il chatbot può “ricordare” automaticamente i dettagli delle conversazioni precedenti senza che l’utente debba esplicitarlo, ma con limiti e controlli precisi. Ecco una disamina tecnica e strategica, con spunti critici perché se sei CTO/CEO, capire le implicazioni è essenziale.

L’intelligenza artificiale generativa sta trasformando il modo in cui lavoriamo, creando nuove opportunità per strategist e creativi di potenziare i propri processi di ideazione e produzione. Questa guida esplora come padroneggiare l’arte del prompting per ottenere il massimo da questi strumenti rivoluzionari.
L’AI non è un sostituto della creatività umana, ma un partner strategico che può amplificare le nostre capacità. I professionali più efficaci sono quelli che integrano l’AI nella loro routine quotidiana, imparando a riconoscere quando utilizzarla e quando invece è necessario il tocco umano unico.
L’approccio vincente consiste nel mantenere l’AI sempre a portata di mano durante la giornata lavorativa. Questa vicinanza costante permette di identificare rapidamente le opportunità in cui l’AI può aggiungere valore, che si tratti di generare variazioni creative, analizzare dati complessi o accelerare processi di ricerca.

Inizio il pezzo sbriciolando l’illusione più comune: non si tratta soltanto di due leader che si stringono la mano davanti alle telecamere, ma di catene di approvvigionamento, licenze, e magneti così piccoli da non farsi notare ma abbastanza vitali da mettere a ginocchio un aereo da combattimento. La finestra di novembre per una possibile visita del presidente Trump in Cina, collocabile intorno al vertice APEC in Corea del Sud, non è soltanto diplomazia di facciata; è il tentativo di trasformare una tregua tariffaria fragile in una soluzione negoziale concreta. L’accordo che mantiene le tariffe a livelli elevati ma stabili è stato esteso fino al 10 novembre 2025, creando una scadenza che funziona come una clessidra per negoziatori nervosi.

La notizia è semplice nella sua brutalità: la milanese Bending Spoons ha annunciato l’acquisizione di Vimeo per 1,38 miliardi di dollari, un’operazione in contanti che porta il prezzo per azione a 7,85 dollari e che trasformerà Vimeo in una società privata. Questo è il tipo di mossa che parla più di strategia opportunistica che di semplice filantropia industriale.
Il prezzo offerto rappresenta un premio sostanzioso rispetto al mercato: circa il 91 percento sopra la media delle ultime 60 giornate di scambio. Pagare quasi il doppio rispetto a quello che il mercato aveva “pronosticato” nel breve termine è una dichiarazione d’intenti. In termini pratici significa che Bending Spoons sta comprando non tanto ricavi stabili quanto capacità tecnologica, contratti enterprise, e una base di utenti che può essere riposizionata sotto una nuova narrativa di prodotto e AI.
La modalità script è appena arrivata per la generazione audio in Copilot Labs. Modalità script: legge il tuo input alla lettera. Emotiva: improvvisa un po’ per il massimo del dramma. Storia: interpreta più voci/personaggi.

La notizia è semplice e potente nella sua semplicità: Oracle Health ha annunciato il lancio dell’Oracle AI Center of Excellence for Healthcare, una piattaforma pensata per aiutare ospedali e sistemi sanitari a sfruttare i rapidi progressi dell’intelligenza artificiale, mettendo insieme risorse, ambienti cloud sicuri e competenze di integrazione per far decollare progetti AI su scala enterprise.
Questo annuncio arriva in un contesto in cui i grandi vendor tecnologici rincorrono il sogno di trasformare i processi clinici e amministrativi con modelli di intelligenza artificiale e agenti conversazionali che promettono di ridurre il lavoro ripetitivo, accelerare la ricerca e, perché no, abbassare i costi operativi. Oracle posiziona il suo Centro come hub di risorse on demand, con guide di implementazione, framework, best practice e sessioni onsite per sperimentare soluzioni su Oracle Cloud Infrastructure, Oracle Fusion Cloud Applications e tecnologie di Oracle Health.

Lo ametto mi piace leggere Forbes. L’economia degli Stati Uniti, un tempo sinonimo di solidità e affidabilità, sta mostrando crepe che non si possono più ignorare. La narrativa comune parla di crescita, inflazione sotto controllo e mercati resilienti, ma sotto questa superficie luccicante si accumulano segnali di instabilità sistemica. Applicando la lente di Hyman Minsky, il grande economista che anticipò il crollo del 2008, è possibile riconoscere un pattern preoccupante: periodi di apparente stabilità alimentano comportamenti rischiosi e indebitamento crescente, creando terreno fertile per una crisi futura.
Dal 2021, gli Stati Uniti hanno assistito a un’impennata dei costi del debito federale, quasi triplicati in pochi anni, sottraendo risorse preziose alla spesa pubblica e aumentando il peso degli interessi sul bilancio. Il deficit federale si attesta intorno al 7% del PIL, più del doppio della soglia considerata sana del 3%. Senza interventi correttivi, queste dinamiche suggeriscono che l’economia americana stia ripetendo la traiettoria che Minsky aveva teorizzato: la stabilità incoraggia l’eccesso, l’eccesso genera fragilità, e la fragilità prepara la caduta.

Chiunque oggi respiri l’aria rarefatta delle boardroom tecnologiche ha capito che l’intelligenza artificiale non è più un futuro lontano, ma un presente travolgente. La corsa ai chatbot generativi è talmente forsennata che le aziende li implementano con lo stesso entusiasmo con cui un ventenne compra criptovalute al massimo storico, convinti che sia la scorciatoia verso efficienza, margini e vantaggi competitivi. La verità è che in questo slancio cieco c’è un problema strutturale: stiamo mettendo nelle mani dei nostri sistemi più critici uno strumento che, a ben guardare, si comporta come un perfetto psicopatico digitale. Nessuna empatia, nessun senso di colpa, ma un’incredibile capacità di produrre risposte ordinate, convincenti, formattate in modo impeccabile. È la maschera lucida che inganna proprio quando pensiamo di avere a che fare con un assistente affidabile.

La fallacia di congiunzione è stata per decenni il poster child dei nostri presunti limiti cognitivi. Tutto parte dal celebre esperimento di Amos Tversky e Daniel Kahneman che ci presenta Linda, 31 anni, laureata in filosofia, attiva socialmente e preoccupata per la discriminazione. La domanda è semplice: è più probabile che Linda sia una cassiera di banca oppure una cassiera di banca e attiva nei movimenti femministi? La probabilità congiunta, in termini matematici, non può mai essere maggiore della probabilità semplice. La logica classica impone che l’opzione uno sia sempre più probabile dell’opzione due. Eppure la maggior parte delle persone sceglie la seconda. Da qui il verdetto accademico: l’essere umano è irrazionale, vittima di bias cognitivi che lo portano a violare sistematicamente le regole della probabilità.

Il debutto pubblico del nuovo laboratorio di Mira Murati, Thinking Machines Lab, non è stato un battito d’ali: è stato un boato finanziario che ha trasformato rumor e voci di corridoio in cifre che nessun boardroom osa ignorare. La raccolta di 2 miliardi di dollari e la valutazione da 12 miliardi sono riporti che collocano la società tra le startup più capitalizzate dell’era post-scouting, con nomi importanti tra gli investitori come Nvidia, Accel e altri. Questa non è solo una buona notizia per i venture capitalist; è una dichiarazione di intenti: soldi, talento e una roadmap ambiziosa.
Chi segue il mercato sa quanto pesi la reputazione di chi guida l’impresa. Mira Murati non è una CEO qualunque: è l’ex Chief Technology Officer di OpenAI, figura che ha contribuito a far diventare prodotti come ChatGPT più affidabili e di massa. Quando una persona con il suo pedigree lancia un laboratorio con una squadra che include ex ricercatori di primo piano, l’attenzione non è emozionale; è tecnica, strategica, e per alcuni versi scettica. Non c’è magia dietro queste operazioni, c’è una scommessa: che sapendo dove guardare si possano risolvere problemi che tutti ritenevano “inesorabili”.

La notizia è semplice ma distruttiva per le vecchie abitudini del mercato tecnologico: OpenAI avrebbe firmato un accordo con Oracle per acquistare 300 miliardi di dollari in potenza di calcolo su un orizzonte di circa cinque anni, uno degli acquisti cloud più vasti mai registrati su scala industriale. Questo non è un esercizio di iperbole finanziaria, ma la costruzione concreta di una dipendenza infrastrutturale che rimodella rapporti di forza, dinamiche di costo e leve geopolitiche intorno all’intelligenza artificiale.
Questo accordo si innesta dentro un progetto più ampio che ormai ha un nome quasi mitologico: Project Stargate, la scommessa di OpenAI, Oracle e altri partner per costruire nuove capacità di data center che richiederanno fino a 4.5 gigawatt di potenza. La cifra è reale e impressionante, perché 4.5 gigawatt significano impianti su scala industriale che non si installano in un garage ma si progettano con ingegneria pesante, accordi energetici e permessi politici. Il comunicato congiunto e i documenti pubblici dell’iniziativa lo confermano.

Immagina un’arena dove 100 startup, armate solo di un’idea e 5 minuti di tempo, si sfidano per conquistare il futuro. È questo il cuore pulsante di DigithON 2025, la più grande maratona tech d’Italia, che prende oggi il via alle Vecchie Segherie Mastrototaro di Bisceglie. Un’edizione speciale, quella del decimo anniversario, che mette l’Intelligenza Artificiale al centro della scena, celebrando tre giorni di innovazione, confronto e visioni audaci, dall’11 al 13 settembre.

Il mondo digitale è un teatro di potere dove chi pubblica prova a riprendersi il conto in banca. Questa settimana un gruppo di editori e piattaforme ha messo in campo un piano che suona semplice ma ha una potenziale portata gigante: Really Simple Licensing, abbreviato RSL, un nuovo standard aperto che permette ai proprietari di contenuti di specificare termini di licenza e compenso direttamente nei loro file robots.txt o nei metadati dei contenuti. L’annuncio, sostenuto da nomi come Reddit, Yahoo, Medium, Quora e People Inc., rappresenta più di una protesta politica contro il furto dati: è un tentativo deliberato di ridefinire la valuta dell’ecosistema informativo.

Il SANDBOX Act presentato da Ted Cruz suona come il classico manifesto politico travestito da rivoluzione tecnologica. Un disegno di legge che promette alle aziende di intelligenza artificiale la possibilità di muoversi in un’area grigia, al riparo da “ostacoli regolatori”, con la scusa di accelerare l’innovazione e mantenere la supremazia tecnologica americana. La narrazione è semplice: meno regole, più creatività. Ma come ogni slogan efficace nasconde la sostanza più complessa, e spesso più scomoda, che va letta con attenzione da chiunque abbia a cuore il futuro dell’AI, la concorrenza e la protezione dei consumatori.

Larry ellison ha appena compiuto l’impresa che nessuno, tranne lui, aveva davvero previsto. L’uomo che per decenni è stato il genio sottovalutato della Silicon Valley, il cofondatore che trasformò Oracle in un colosso silenziosamente onnipresente nei sistemi delle aziende globali, oggi ha superato Elon Musk e siede sul trono di uomo più ricco del mondo. Non stiamo parlando di uno scarto marginale. Bloomberg stima il patrimonio netto di Ellison intorno ai 393 miliardi di dollari, superando Musk, fermo a 385 miliardi. Un sorpasso che non è figlio di una lenta accumulazione, ma di un’accelerazione brutale: un guadagno di oltre 100 miliardi in un solo giorno grazie a un rally storico delle azioni Oracle, spinte dall’euforia sul business del cloud e dalla fame insaziabile di potenza di calcolo per l’intelligenza artificiale.

Se pensavate che l’AI del futuro puntasse inevitabilmente verso modelli sempre più mastodontici, il paper di NVIDIA Research vi costringe a ricredervi. “Small Language Models Are the Future of Agentic AI” stila una provocatoria dichiarazione di rottura: i modelli compatti non sono solo sufficienti, ma spesso più efficaci nel vasto mondo delle AI agentiche.
Questa non è teoria da salotto. È una rivoluzione operativa che mette sotto accusa l’intero culto dei giganti. I modelli con meno di 10 miliardi di parametri (SLMs) sono oggi in grado di eguagliare o superare LLM da 30–70 B nelle tasks specifiche grazie a fine-tuning, tecniche di distillazione e design ibridi. Il modello “Nemotron Nano 2”, un SLM da 9 B parametri, segna un punto di svolta: più preciso, più efficiente, fino a 6 × più veloce rispetto ai coetanei, con contesto fino a 128k token, pensato per girare su una sola GPU con pesi aperti e documentazione per l’enterprise.

Microsoft ha deciso di diversificare la propria strategia nell’intelligenza artificiale integrando la tecnologia di Anthropic nelle applicazioni di Office 365, tra cui Word, Excel, Outlook e PowerPoint. Questa mossa segna un cambiamento significativo rispetto alla tradizionale dipendenza dai modelli di OpenAI. Secondo quanto riportato da Reuters, Microsoft pagherà per utilizzare la tecnologia di Anthropic per alcune funzionalità AI in queste applicazioni, combinandola con i modelli di OpenAI.
ByteDance ha appena lanciato Seedream 4.0, il suo nuovo modello di intelligenza artificiale per la generazione e modifica di immagini, dichiarando che supera Gemini 2.5 Flash Image (noto anche come “Nano Banana”) in diversi indicatori chiave. Secondo quanto riportato dal South China Morning Post, ByteDance afferma che Seedream 4.0 ha ottenuto risultati superiori a Gemini 2.5 Flash Image nel suo benchmark interno MagicBench, con prestazioni migliori in termini di aderenza al prompt, allineamento e estetica.
Bernardo Kastrup, noto per la sua fusione tra filosofia della mente e ingegneria informatica, ha recentemente lanciato Euclyd, una startup olandese focalizzata sull’AI responsabile. La società ha appena rivelato il suo prodotto di punta, il CWS12, un rack server progettato per offrire prestazioni superiori a oltre 100 rack NVIDIA Blackwell, consumando meno energia di un singolo rack NVIDIA. Questo approccio mira a ridurre l’impatto ambientale dell’AI, un passo significativo verso un’AI più sostenibile.
Euclyd si distingue per l’architettura Craftwerk, che include 16.384 processori SIMD e una memoria ultra-banda da 1 terabyte, con una potenza termica di circa 3 kW. La società è supportata da figure di spicco come Federico Faggin, inventore del microprocessore, e Peter Wennink, ex CEO di ASML. Questa combinazione di competenze filosofiche e ingegneristiche potrebbe segnare una svolta nell’AI responsabile.
Eccolo https://euclyd.ai/

Google Research ha recentemente introdotto un sistema di intelligenza artificiale progettato per assistere gli scienziati nella scrittura di software empirico di livello esperto, superando le capacità degli approcci tradizionali. Questo sistema, sviluppato utilizzando Gemini, agisce come un motore di ricerca sistematico per l’ottimizzazione del codice: propone concetti metodologici e architetturali innovativi, li implementa come codice eseguibile e ne valida empiricamente le prestazioni. Il sistema è stato testato su sei problemi scientifici complessi e ha raggiunto risultati di livello esperto in ciascuno di essi.

C’è un dettaglio fastidioso che emerge ogni volta che mettiamo insieme ricercatori, utenti e algoritmi: l’AI non ci rende più intelligenti. Al contrario, sembra che stia silenziosamente erodendo la nostra capacità di pensiero critico, trasformandoci in consumatori docili di consigli automatizzati. I pattern che la ricerca accademica sta documentando non sono affatto marginali. Sono i segnali precoci di un cambiamento radicale nel modo in cui prendiamo decisioni. Non stiamo parlando di futurismo da salotto, ma di evidenze già misurate in laboratorio e nella vita quotidiana.
Buçinca e colleghi lo hanno dimostrato in uno studio del 2021: introdurre funzioni di forcing cognitivo, piccoli ostacoli progettati per costringere l’utente a ragionare, migliora la qualità delle decisioni. Ma c’è un problema enorme. Gli utenti detestano l’esperienza. Vogliono risposte veloci, non esercizi di logica. Usabilità vince su accuratezza, e questo dice tutto sul rapporto tossico che stiamo costruendo con l’AI. Preferiamo essere serviti piuttosto che messi alla prova. È un trionfo del design dell’esperienza sull’esercizio della ragione.

La Francia entra in una nuova stagione di incertezza dove i mercati non perdonano distrazioni politiche; il collasso del governo guidato da François Bayrou ha già lasciato tracce visibili sui titoli di Stato, trasformando quella che fino a ieri era una discussione domestica su tagli di bilancio in una questione di credibilità sovrana internazionale.
La caduta del governo è stata inequivocabile: il voto di sfiducia ha registrato 364 voti contro e 194 a favore, numeri che non lasciano spazio a interpretazioni tattiche. Il fallimento della manovra di austerità proposta da Bayrou ha rapidamente rivelato crepe profonde nella coalizione e ha spostato l’attenzione dei portafogli da metriche macroeconomiche a considerazioni politiche e di governance.
Quando leggi “incredible”, pensi a qualcosa di grandioso, e non sei deluso: tre anni di sviluppo dicono tutto. È incredibile e stai per scoprire perché, con quella cifra magica di 1000+ azioni e gigabyte di dati che vengono strumentalizzati senza sforzo, Incredible ha appena piantato una bandierina nel deserto del generico genAI.

Q-Day è il nome che la comunità della sicurezza informatica usa per indicare il giorno in cui un computer quantistico abbastanza potente riuscirà a spezzare la crittografia oggi alla base di Internet, banche, blockchain e comunicazioni digitali. Non è un termine accademico, ma un’etichetta evocativa: come il “D-Day” dello sbarco in Normandia, segna un punto di non ritorno.
La crittografia più diffusa, come RSA e le curve ellittiche (ECC), funziona bene perché gli algoritmi classici non sono in grado di fattorizzare grandi numeri o risolvere certi problemi matematici in tempi utili. Ma i computer quantistici, grazie all’algoritmo di Shor, potranno un giorno farlo in tempi rapidissimi. Quando quel giorno arriverà, chiunque abbia accesso a un computer quantistico di scala sufficiente potrà decifrare messaggi cifrati, violare chiavi private e compromettere firme digitali.

Anthropic pensava di aver chiuso la faccenda con un assegno da 1,5 miliardi di dollari, una cifra che in altri contesti verrebbe definita un atto di contrizione spettacolare. Ma il giudice William Alsup, che da anni non le manda a dire alle big tech, ha deciso che no, non basta scrivere un numero a nove zeri per trasformare il peccato originale dell’addestramento illegale dei modelli AI in un ricordo sbiadito. Non è questione di soldi, è questione di potere contrattuale. Perché quando la narrativa dominante diventa “abbiamo risolto, gli autori riceveranno tremila dollari a testa, avanti il prossimo”, si rischia di trasformare una violazione sistemica in una transazione di massa, senza che chi è stato colpito abbia realmente voce in capitolo.

Quando Nvidia pubblica un bilancio che fa girare la testa agli investitori, non stiamo parlando di numeri da “cresciuto un po’”. Stiamo parlando di cifre che riscrivono la geografia economica dell’intelligenza artificiale. Jensen Huang, CEO della società, ha lanciato un’indicazione chiara: un singolo data center AI da un gigawatt costerà circa 50 miliardi di dollari. Di quei 50 miliardi, 35 miliardi finiranno nelle casse di Nvidia sotto forma di hardware, lasciando il resto per sistemi complementari. Non sono più i classici megawatt che si spostano con calma nei bilanci aziendali; qui parliamo di gigawatt, di super-fabbriche AI che potrebbero moltiplicare i costi e, ovviamente, i profitti di Nvidia.
OpenAI non sta giocando piccolo. Bloomberg ha riportato che l’azienda sta esplorando partnership in India per costruire un data center da un gigawatt e allo stesso tempo programma strutture simili negli Stati Uniti e in altre regioni globali. Tradotto in soldoni, se le stime di Nvidia reggono, il piano di OpenAI potrebbe tradursi in centinaia di miliardi di dollari destinati all’infrastruttura AI. Non è fantascienza, è capitalismo su scala industriale spinto dall’intelligenza artificiale.

Navigazione quantistica: quando persino i super‐jet e i droni smettono di chiedersi “succede qualcosa al satellite?” e iniziano a fidarsi di atomi, campi magnetici e fotoni (non sto scherzando). Non è fantascienza, è un investimento strategico del Pentagono. Il Department of Defense ha fatto girare la ruota del budget RDT&E del FY 2026, arrivando a 179 miliardi di dollari, e dentro c’è una linea chiamata “Quantum Application” che attraversa tutte le forze armate. Dietro quel nome pomposo si nasconde l’ossessione per sensori quantistici, crittografia post‐quantistica e navigazione alternativa al GPS.

Il paradosso è affascinante: abbiamo algoritmi che distruggono i campioni di scacchi, che umiliano i maestri di Go e che risolvono problemi di logica matematica con una precisione glaciale. Poi basta presentare loro una griglia colorata con una regola nascosta e la macchina va in tilt come un vecchio modem degli anni ’90. È qui che si manifesta lo scarto più imbarazzante tra l’intelligenza artificiale di oggi e l’illusione dell’intelligenza artificiale generale, l’AGI che dovrebbe comportarsi come un cervello umano, con elasticità, adattamento e la capacità di improvvisare.
Il cuore della questione sta nella differenza tra competenza verticale e intelligenza generale. Le AI attuali funzionano come virtuosi ossessivi: se gli chiedi di riconoscere pattern in milioni di partite di Go, ti restituiscono una maestria sovrumana. Se però li sposti fuori da quel dominio, si scopre che sono ciechi, incapaci di improvvisare senza il supporto di un oceano di dati. L’AGI, invece, richiede la capacità di apprendere regole con pochi esempi, di generalizzare e di trasferire conoscenza a contesti nuovi. La stessa abilità che un bambino usa quando capisce che una mela rossa e una palla rossa hanno in comune più della forma o del colore, ma una categoria concettuale.

Quantum computing promette rivoluzioni, ma ogni tanto ci ricorda che l’innovazione è più lenta delle nostre fantasie. La rubrica Feedback di New Scientist, con la sua ironia tipica, ha segnalato una notizia tanto surreale quanto illuminante: un cane neozelandese addestrato avrebbe “superato” i computer quantistici. Non serve correre a registrare brevetti canini. Nessun Labrador sta davvero calcolando algoritmi, ma l’aneddoto, nato da un preprint di crittografi, mette a nudo la discrepanza tra hype e realtà concreta nel mondo dei computer quantistici.
Peter Gutmann dell’Università di Auckland e Stephan Neuhaus della Zurich University of Applied Sciences hanno pubblicato un lavoro sull’ePrint Archive di crittologia. L’obiettivo era evidenziare quanto sia ancora arduo per i computer quantistici fattorizzare numeri giganteschi, la base di molti sistemi di crittografia moderni come RSA. Il messaggio tecnico è chiaro: nonostante decenni di ricerca, la fattorizzazione rapida su larga scala rimane un miraggio.

Il paradosso è servito. Il mercato azionario americano, la vetrina più osservata del capitalismo globale, è oggi più caro che all’apice della bolla delle dot-com. Sì, avete letto bene: più caro del 2000, quando un dominio web con un’idea vaga di business poteva gonfiare valutazioni fino a stratosfere poi implose. La differenza è che stavolta non si parla di startup bruciasoldi, ma di giganti tecnologici con fatturati da Pil nazionale e margini che sembrano scritti in laboratorio. Eppure la matematica delle valutazioni non mente: lo S&P 500 viene scambiato a 3,23 volte le vendite, un record storico, mentre il suo price-to-earnings forward è 22,5, ben oltre la media venticinquennale di 16,8.

Baidu, uno dei principali protagonisti dell’intelligenza artificiale in Cina, ha recentemente presentato la versione aggiornata del suo modello di ragionamento proprietario, l’X1.1. Secondo i dati forniti dalla società, l’X1.1 ha superato le prestazioni del modello DeepSeek-R1 e si è allineato a quelle di GPT-5 di OpenAI e Gemini 2.5 Pro di Google, posizionandosi come un concorrente di rilievo nel panorama globale dell’IA.

Oracle cloud revenue è la nuova ossessione dei mercati. Non è più solo una voce nei bilanci, ma un mantra ripetuto da analisti, investitori e commentatori che hanno trovato nel colosso guidato da Safra Catz e Larry Ellison il nuovo cavallo da corsa dell’intelligenza artificiale. La cifra magica è 144 miliardi entro il 2030. Un numero che non dice nulla e dice tutto, perché non è soltanto una proiezione contabile ma un racconto di potere, una narrativa di egemonia tecnologica che vuole far sembrare inevitabile ciò che, in realtà, è ancora altamente incerto. Quando un titolo vola del 28% in after-hours non per gli utili ma per le promesse, si capisce che non siamo davanti a un trimestrale, ma a un rito collettivo.

Google Cloud ha recentemente pubblicato un ampio studio basato su un sondaggio condotto tra 3.466 leader aziendali globali, focalizzandosi sull’adozione dell’AI generativa e sul ritorno sugli investimenti (ROI). I risultati evidenziano un cambiamento significativo nelle priorità delle organizzazioni, spostando l’attenzione dalla sperimentazione alla realizzazione di valore concreto.


Nvidia ha appena annunciato la prossima rivoluzione nel calcolo dell’intelligenza artificiale: il chip rubin cpx, previsto per la fine del 2026. Questo nuovo prodotto non è solo un’evoluzione, ma una vera e propria reinvenzione del paradigma dell’inferenza ai massimi livelli. La promessa è audace: un chip progettato per gestire contesti complessi da milioni di token, spingendo l’ai oltre i limiti attuali.