Alibaba Group Holding ha appena scosso il mondo dell’intelligenza artificiale e del cloud computing con l’annuncio di Aegaeon, un sistema di pooling computazionale che promette di rivoluzionare il modo in cui le GPU vengono utilizzate per servire modelli di AI su larga scala. Secondo quanto riportato in un paper presentato al 31° Symposium on Operating Systems Principles a Seoul, il nuovo sistema ha permesso di ridurre il numero di GPU Nvidia H20 necessarie per gestire decine di modelli fino a 72 miliardi di parametri da 1.192 a soli 213 unità, un taglio impressionante dell’82 per cento. La beta di Aegaeon è stata testata per oltre tre mesi nel marketplace di modelli di Alibaba Cloud, evidenziando come la gestione delle risorse sia stata tradizionalmente inefficiente.
La corsa all’intelligenza artificiale sta riscrivendo le regole dell’energia negli Stati Uniti, e non in modo elegante. The AI era is giving fracking a second act, un colpo di scena per un’industria che già durante il boom dei primi anni 2010 veniva accusata di avvelenare falde acquifere, provocare terremoti indotti e prolungare la dipendenza dai combustibili fossili. Le aziende AI stanno costruendo data center mastodontici vicino ai principali siti di produzione di gas, generando spesso energia in proprio sfruttando fonti fossili. Una tendenza in gran parte oscurata dai titoli sulle applicazioni AI in sanità o lotta al cambiamento climatico, ma destinata a ridefinire le comunità che ospitano queste strutture.
Agentic AI e la rivoluzione silenziosa dei modelli operativi aziendali
L’intelligenza artificiale ha smesso di essere una promessa lontana. Non si parla più di strumenti che aiutano a fare meglio ciò che già facciamo, ma di agenti AI che prendono decisioni, orchestrano processi e, in qualche modo, ridefiniscono il significato stesso di lavoro in azienda. IBM e Oracle non si limitano a lanciare slogan: una survey di oltre 800 dirigenti C‑suite in 20 paesi delinea una tendenza netta e irrinunciabile. Il 67 % degli executive prevede che gli agenti agiranno autonomamente già entro il 2027. Non un esercizio di stile, ma un deadline strategico che chi guida aziende non può ignorare.
Oracle ha recentemente annunciato previsioni finanziarie ambiziose, delineando un futuro in cui l’intelligenza artificiale (AI) gioca un ruolo centrale nella sua strategia di crescita. Durante l’AI World Conference, l’azienda ha dichiarato di aspettarsi margini lordi tra il 30% e il 40% per i suoi progetti di infrastruttura AI, un dato che si allinea con altri giganti dei data center e contrasta con previsioni precedenti che indicavano margini lordi del 14% per i data center AI. Oracle ha utilizzato come esempio un progetto di infrastruttura AI di sei anni e 60 miliardi di dollari, prevedendo un margine lordo del 35% per tale contratto.

Il mondo della tecnologia sta assistendo a una silenziosa, ma epocale, mutazione: l’intelligenza artificiale sta abbandonando le server farm remote per insediarsi direttamente, in modo nativo e potente, nei nostri device quotidiani. Al centro di questa transizione c’è l’Apple M5, un sistema su chip che non è semplicemente una versione potenziata del suo predecessore, ma un vero e proprio ripensamento dell’architettura di calcolo. Apple, infatti, ha inciso il futuro su un processo a 3 nanometri, introducendo un concetto radicale: integrare acceleratori neurali all’interno di ogni core della GPU. Non più solo un muscolo grafico, ma una rete di piccoli, efficienti motori per l’IA, capaci di una potenza di calcolo GPU quadruplicata rispetto all’M4.
Negli Stati Uniti, l’intelligenza artificiale sta scoprendo la sua fonte di energia preferita: l’uranio arricchito. Non è una battuta, ma la cronaca di un accordo che unisce due mondi, quello dei reattori nucleari e quello degli algoritmi, in un matrimonio che sa di geopolitica, tecnologia e un pizzico di marketing apocalittico.
I ricercatori hanno sottoposto GPT-5 e Gemini 2.5 Pro agli esami teorici e di analisi dei dati dell’International Olympiad on Astronomy and Astrophysics (IOAA) dal 2022 al 2025. Questi esami sono noti per richiedere una profonda comprensione concettuale, derivazioni in più passaggi e analisi multimodale.
| Modello | Media Teoria | Media Analisi Dati |
| Gemini 2.5 Pro | 85.6% | 76% (circa) |
| GPT-5 | 84.2% | 88.5% |
Dettagli sui Risultati
L’intelligenza artificiale sta rapidamente diventando un fattore determinante nell’evoluzione del panorama delle minacce informatiche, con un incremento del 47% degli attacchi basati su tecniche di intelligenza artificiale rispetto all’anno precedente ed entro la fine del 2025, gli incidenti cyber guidati da IA possano superare i 28 milioni a livello globale. È quanto emerge dal nuovo report AI Threat Landscape 2025, realizzato dal Cybersecurity Competence Center di Maticmind, appena presentato alla Camera dei Deputati.
La scintilla che ha acceso la miccia del dibattito è questa frase:>
“Ok this tweet about upcoming changes to ChatGPT blew up on the erotica point much more than I thought it was going to! It was meant to be just one example of us allowing more user freedom for adults.”
In un certo senso, Altman ha confessato la dinamica: un annuncio “ampio”, fatto per spingere una visione filosofica (“trattare gli adulti come adulti”), è stato divorato dal sensazionalismo “erotico” e lui è rimasto sorpreso che l’asticella del discorso pubblico sia scattata proprio lì.
Se pensavate che il traffico peggiore fosse quello del Grande Raccordo Anulare di Roma alle otto del mattino, ripensateci. Appena più in là, nello spazio, la situazione è anche peggiore. A marzo 2025 si contavano oltre 14.000 satelliti attivi e 27.000 oggetti tracciati tra rottami, razzi esausti e detriti spaziali in libera circolazione che, per avere un’idea, vuol dire un incremento del 31% in soli due anni. E come ogni autostrada affollata, anche l’orbita terrestre ora necessita di un buon sistema di guida autonoma.
Il machine learning non è più il giocattolo per nerd delle università americane. È diventato il motore silenzioso che alimenta previsioni finanziarie, diagnosi mediche, strategie di marketing e persino le tue playlist su Spotify. Eppure, pochi ne comprendono davvero l’ossatura. Parlano di intelligenza artificiale come se fosse magia, dimenticando che dietro ogni modello predittivo c’è una struttura logica precisa, fatta di matematica, probabilità e una buona dose di scetticismo scientifico. Comprendere i ventiquattro concetti fondamentali del machine learning non è un esercizio accademico. È la differenza tra costruire un’illusione e costruire valore reale.
Il potenziale nascosto dei modelli di linguaggio
Nell’evoluzione rapida dell’intelligenza artificiale, una scoperta sta cambiando la nostra comprensione delle capacità dei modelli di linguaggio: i modelli esistenti, anche quelli di dimensioni moderate, possiedono un potenziale di ragionamento inesplorato che può essere sbloccato attraverso tecniche di stimolazione appropriate, senza necessariamente ricorrere a modelli sempre più grandi o a cicli di addestramento sempre più intensivi.
Età minima digitale di 16 anni in Ue per social media, divieto automatico delle pratiche più dannose che creano dipendenza nei minori, norme sulle tecnologie e le pratiche persuasive come la pubblicità mirata, il marketing degli influencer, il design che crea dipendenza, i loot box e i dark pattern. Sono questi i contenuti della relazione adottata dalla commissione per il Mercato interno del Parlamento europeo, con 32 voti a favore, 5 contrari e 9 astensioni, in cui esprime preoccupazione per l’incapacità delle principali piattaforme online di proteggere i minori e mettono in guardia dai rischi legati alla dipendenza, alla salute mentale e all’esposizione a contenuti illegali e dannosi.
C’è qualcosa di ironicamente potente nel dire che la Sarajevo Security Conference è finita, ma non è finita. Perché gli eventi che contano davvero non si esauriscono nei comunicati stampa, si infiltrano nei circuiti neuronali della politica e del pensiero strategico. Le idee, soprattutto quelle pronunciate da uomini come il Generale Fernando Giancotti, non muoiono il giorno dopo. Si sedimentano, diventano visioni operative, o almeno tentativi di razionalizzare un mondo che sembra essersi disabituato alla razionalità.
Il concetto di responsabilità ha l’aria di un vecchio fantasma: lo senti presente in ogni discussione morale, politica o giuridica, eppure resta sfuggente, come se sfuggisse a ogni definizione netta. Nel libro curato da Mario De Caro, Andrea Lavazza e Giuseppe Sartori, questa nebulosa viene sviscerata con un approccio che attraversa filosofia, neuroscienze e scienze sociali, mettendo a nudo la fragilità e la complessità della nostra idea di agire come individui responsabili.
La rivoluzione dell’AI non avviene sul palco visibile degli algoritmi: accade dietro le quinte, nel buio metallico dei datacenter, dove i veri contendenti si sfidano per il dominio sui supercomputer che alimentano i modelli generativi. Non è una guerra sui dati né sulle reti: è una guerra sull’elettricità, sul silicio e sulla capacità di orchestrare decine di migliaia di GPU come un esercito silenzioso.
Ai supercomputer con GPU non serve il fine scientifico predizione del tempo, simulazioni nuclearima la generazione di testo, immagine, agenti decisionali. E per farlo servono scale gigantesche: cluster con migliaia se non centinaia di migliaia di Nvidia H100, Google TPU o acceleratori custom emergenti. Questi sistemi non simulano fisica: predicono il prossimo “token” (parola, pixel, passo d’azione). Li potremmo chiamare predittori massivi.
Quando Wall Street si sveglierà, il Pentagono avrà già visto il futuro. Rigetti Computing (NASDAQ: RGTI) sta emergendo come il Palantir 2.0 del calcolo quantistico: un innovatore allineato alla difesa, con i suoi primi clienti principali non aziende, ma governi. Mentre il Pentagono, gli alleati degli Stati Uniti e le agenzie energetiche accelerano l’adozione del calcolo quantistico, Rigetti si sta posizionando all’incrocio tra sicurezza nazionale, materiali avanzati e resilienza energetica, richiamando l’ascesa di Palantir come pioniere della tecnologia profonda finanziato dalla difesa.
Spotify ha appena firmato accordi con Sony, Universal, Warner e Merlin per sviluppare strumenti di intelligenza artificiale che mantengano artisti e autori al centro del processo creativo. Non è un gesto di marketing, ma una manovra strategica per costruire un futuro dove l’AI non sostituisce la musica, la amplifica. L’obiettivo dichiarato è semplice: lasciare ai musicisti il potere di decidere se e come l’intelligenza artificiale possa usare la loro voce o il loro suono, garantendo compensi trasparenti quando questo avviene.
Il sentimento ribassista sull’equazione costo-beneficio dell’intelligenza artificiale è diventato talmente diffuso che sembra ormai buon senso. Un nuovo consenso al contrario: chi non è scettico appare ingenuo. Poi arriva Oracle, l’azienda quasi cinquantennale che si è reinventata in cloud provider come mi ha spiegato ieri un VP Italiano “smart”, a Smith & Vollensky offrendomi un Pinot Noir di Sonoma, e l’azienda di fare quello che pochi hanno il coraggio di fare in un mercato in preda al dubbio: dichiararsi in ipercrescita. Non una metafora, ma una promessa contabile. E con la solennità dei suoi numeri, Oracle sostiene di essere un’azienda in “hypergrowth” grazie all’espansione dei suoi AI data center, i motori digitali che dovrebbero trainare la prossima decade del cloud.
Una nuova generazione di hacker sta mettendo in ginocchio infrastrutture critiche, grandi aziende e governi di tutto il mondo. Lo fanno più velocemente, in modo più astuto e con un livello di coordinamento mai visto prima. Secondo il National Cyber Security Centre (NCSC) del Regno Unito, si verificano circa quattro attacchi informatici di “rilevanza nazionale” ogni settimana, un aumento del 50% di incidenti capaci di paralizzare il governo centrale e i servizi essenziali.
La posta in gioco non è più solo il denaro: è l’influenza strategica e la destabilizzazione.
I ricercatori di Apple hanno presentato SimpleFold, un nuovo modello di intelligenza artificiale progettato per prevedere la struttura 3D delle proteine con una potenza di calcolo nettamente inferiore rispetto ai sistemi esistenti, come l’acclamato AlphaFold di Google DeepMind. Questa innovazione rappresenta un grande passo avanti verso la democratizzazione della biologia strutturale, permettendo a un numero maggiore di laboratori di studiare le proteine e accelerare la scoperta di farmaci senza la necessità di accedere a cluster di supercomputer mastodontici.
on è più fantascienza, ma neppure ancora realtà. L’energia da fusione, quella promessa quasi mitologica di generare elettricità infinita e pulita a partire dall’acqua, sta uscendo dal laboratorio e cominciando a parlare il linguaggio dell’intelligenza artificiale. O, più precisamente, il linguaggio di DeepMind, la divisione di Google che negli ultimi anni sembra avere come hobby quello di risolvere problemi che il resto del pianeta definisce “impossibili”. Dopo aver battuto campioni di Go e decifrato le pieghe delle proteine, ora tenta di addomesticare il caos più estremo dell’universo: il plasma.
Il Punteggio è Tutto? La ricerca di Sapienza NLP rileva un “Vuoto Critico”
Siamo abituati a celebrare i Modelli Linguistici Piccoli (SLM – Small Language Models) per le loro crescenti capacità e l’efficienza che portano nelle applicazioni di Intelligenza Artificiale (IA). Ma i loro punteggi di accuratezza riflettono davvero le loro reali capacità di ragionamento?
Sono all’aereoporto di LV di ritorno del AI World e mentre sorseggio una Hazy Little Thing Ipa stanco morto e penso di non scriverne più arriva la notizia. Oracle ha tentato di fare ciò che ogni colosso tecnologico fa quando gli investitori iniziano a guardare con troppa attenzione ai margini: raccontare una storia credibile di profitti futuri.
Clay Magouryk, co-CEO della divisione cloud, ha dichiarato che l’attività di noleggio dei server dotati di GPU Nvidia a OpenAI, Meta e ad altri sviluppatori di intelligenza artificiale genererà presto margini lordi compresi tra il 30% e il 40%. Un numero che suona come una sinfonia in un mercato dove le GPU si vendono a peso d’oro, ma dove la realtà contabile è meno poetica.
Come l’IA sta riscrivendo le regole dell’energia: data center sotto shock e megawatt fuori controllo

L’industria dell’intelligenza artificiale sta vivendo una rivoluzione energetica. Non si tratta solo di algoritmi più sofisticati o di modelli linguistici più potenti; è una questione di megawatt, infrastrutture e di come l’energia venga orchestrata in tempo reale. Il concetto di “new power layer” per l’orchestrazione dell’IA sta emergendo come una risposta strategica a questa nuova era.
Se credi che l’AI sia solo prompt da digitare e output da copiare, stai per fare un errore strategico. Prima di costruire modelli, costruisci comprensione. Il rischio maggiore non è fallire con un progetto di machine learning, ma partire senza capire i meccanismi che lo governano. Questa raccolta di libri selezionati a mano ti costringe a entrare nelle viscere dell’intelligenza artificiale, del machine learning e del deep learning, senza scorciatoie da hype digitale.


Uber prova a diventare la piattaforma definitiva per il lavoro flessibile e lancia negli Stati Uniti un pilota per far guadagnare ai suoi driver e corrieri soldi extra con microtask per addestrare modelli AI. Si tratta di registrare audio, caricare immagini o documenti in determinate lingue, con pagamenti che variano, ma a volte bastano pochi secondi per guadagnare un dollaro. L’idea è trasformare l’esercito globale di freelance di Uber in un concorrente di Scale AI e Amazon Mechanical Turk, piattaforme già note per far etichettare dati da umani per addestrare AI.

AI agents hanno smesso di essere solo un concetto astratto o un esperimento da laboratorio. Ora le aziende di intelligenza artificiale puntano a renderli davvero utili per utenti e professionisti. Anthropic ha annunciato Skills for Claude, un sistema di “cartelle” contenenti istruzioni, script e risorse che Claude può caricare per diventare più intelligente su compiti specifici, dal lavoro su Excel al rispetto delle linee guida del brand. Gli utenti possono anche creare Skills personalizzate, utilizzabili su Claude.ai, Claude Code, API e SDK, con aziende come Box, Rakuten e Canva già a bordo.
Microsoft sta spingendo Copilot oltre la semplice app di produttività per trasformare il PC in un assistente che non solo risponde, ma osserva e agisce. L’ultima mossa? Il nuovo wake word “Hey, Copilot!” che permette di interagire con Windows 11 tramite voce. Mehdi, uno dei dirigenti chiave, lo definisce il “terzo meccanismo di input” del PC, dopo tastiera e mouse. Non sostituisce il tradizionale metodo di lavoro, ma promette un’interazione più naturale e, a detta sua, “piuttosto profonda”.

I data center AI di OpenAI ad Abu Dhabi sono effettivamente in fase di costruzione.
Le foto del cantiere del data center negli Emirati Arabi Uniti, pubblicate giovedì, mostrano l’imponenza degli edifici che, secondo OpenAI e i suoi partner Stargate, Oracle, NVIDIA, Cisco e SoftBank, ospiteranno 16 gigawatt di potenza di calcolo.
Secondo le fonti Reuters, Anthropic starebbe per raggiungere un fatturato annualizzato di circa 7 miliardi di dollari questo mese, un salto rispetto ai circa 5 miliardi stimati a luglio. La società produttrice del modello Claude prevede che questo tasso si porti a 9 miliardi entro fine 2025, e tra 20 e 26 miliardi entro fine 2026.
È ufficiale: anche Berlino vuole il suo chip. Non quello da aperitivo, ma quello che, in un mondo dominato da silicio, intelligenza artificiale e geopolitica, vale più dell’oro. Il governo tedesco ha approvato la nuova “Strategia per la microelettronica”, un piano ambizioso che promette di trasformare la Germania in una potenza autonoma nella produzione di microprocessori e tecnologie strategiche. “L’obiettivo è rafforzare l’autonomia europea”, ha dichiarato Stefan Kornelius, portavoce del governo federale, con quella calma teutonica che fa sembrare perfino un piano decennale una faccenda di routine.
C’è qualcosa di stranamente familiare nel World Economic Outlook di ottobre 2025: il mondo non cresce, ma continua a raccontarsi che lo farà presto. Il Fondo Monetario Internazionale parla di un’economia “in flusso”, un eufemismo elegante per dire che nessuno sa più esattamente dove stiamo andando. Dopo anni di crisi concatenate, tra pandemie, guerre commerciali, crisi energetiche e boom tecnologici a intermittenza, la globalizzazione sembra un software che ha smesso di ricevere aggiornamenti, ma che nessuno ha ancora il coraggio di disinstallare.
Il problema non è la fisica. È la fiducia. Tutti parlano del quantum computing come della prossima rivoluzione tecnologica, ma pochi capiscono cosa accade davvero dietro quelle scatole criogeniche che lavorano a temperature più fredde dello spazio interstellare. Le aziende fingono sicurezza quando in realtà brancolano tra probabilità, rumore e correzione d’errore. È la prima volta nella storia dell’informatica in cui il computer non è prevedibile, e l’imprevedibilità, paradossalmente, è il suo valore più grande.

OpenAI ha annunciato martedì la formazione di un Consiglio di Esperti su Benessere e IA (Expert Council on Well-Being and AI), un gruppo composto da accademici e leader di organizzazioni no-profit. L’obiettivo è assistere l’azienda nel valutare come i suoi prodotti influenzino la salute mentale degli utenti.
C’è qualcosa di irresistibile nel pensare che l’intelligenza artificiale, la nostra creatura più sofisticata, abbia bisogno di un piccolo trucco per essere davvero creativa. Un gruppo di ricercatori di Stanford, Northeastern e West Virginia University ha appena presentato un paper dal titolo volutamente provocatorio: Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity. Dentro, c’è una scoperta che sembra banale e invece cambia tutto. Un “magic prompt” capace di sbloccare la creatività repressa dei modelli linguistici, restituendo quella varietà di pensiero che l’allineamento etico e la preferenza umana avevano lentamente sterilizzato.

Il giorno in cui un’intelligenenza artificiale ha superato il semplice “riconoscere modelli” e ha generato una ipotesi biologica nuova, da confermare sperimentalmente, è qui. DeepMind ha annunciato mercoledì che il suo ultimo sistema di IA biologica ha formulato e poi verificato in laboratorio una proposta rivoluzionaria per il trattamento del cancro, definendo questo risultato “un traguardo per l’intelligenza artificiale nella scienza”. Con Yale, DeepMind ha rilasciato un modello di fondazione per l’analisi a singola cellula da 27 miliardi di parametri, denominato Cell2Sentence-Scale 27B (C2S-Scale), costruito sulla famiglia open-source Gemma. Il modello ha generato “una nuova ipotesi sul comportamento cellulare del cancro” che è stata da allora validata sperimentalmente in cellule viventi. (vedi blog Google)

È ufficiale. Dalla fine del 2024, il numero di articoli generati da intelligenze artificiali ha superato quello degli articoli scritti da esseri umani. Una rivoluzione silenziosa che ha trasformato il web in un’enorme officina di testi prodotti da modelli linguistici come ChatGPT, Claude e Gemini, mentre le redazioni umane si ritirano dietro quinte digitali sempre più affollate.
Ma ecco il paradosso: nonostante questa invasione, la curva di crescita si è improvvisamente fermata. Dopo il picco di maggio 2024, la percentuale di contenuti AI pubblicati si è stabilizzata. È come se il web avesse raggiunto un punto di saturazione, o forse un momento di autoconsapevolezza. Gli editori stanno iniziando a capire che la quantità non è sinonimo di visibilità. Google e ChatGPT, secondo i dati, non mostrano la maggior parte di questi articoli nelle loro risposte. È un po’ come stampare milioni di copie di un giornale e poi scoprire che nessuno le distribuisce.