Il sentimento ribassista sull’equazione costo-beneficio dell’intelligenza artificiale è diventato talmente diffuso che sembra ormai buon senso. Un nuovo consenso al contrario: chi non è scettico appare ingenuo. Poi arriva Oracle, l’azienda quasi cinquantennale che si è reinventata in cloud provider come mi ha spiegato ieri un VP Italiano “smart”, a Smith & Vollensky offrendomi un Pinot Noir di Sonoma, e l’azienda di fare quello che pochi hanno il coraggio di fare in un mercato in preda al dubbio: dichiararsi in ipercrescita. Non una metafora, ma una promessa contabile. E con la solennità dei suoi numeri, Oracle sostiene di essere un’azienda in “hypergrowth” grazie all’espansione dei suoi AI data center, i motori digitali che dovrebbero trainare la prossima decade del cloud.
Una nuova generazione di hacker sta mettendo in ginocchio infrastrutture critiche, grandi aziende e governi di tutto il mondo. Lo fanno più velocemente, in modo più astuto e con un livello di coordinamento mai visto prima. Secondo il National Cyber Security Centre (NCSC) del Regno Unito, si verificano circa quattro attacchi informatici di “rilevanza nazionale” ogni settimana, un aumento del 50% di incidenti capaci di paralizzare il governo centrale e i servizi essenziali.
La posta in gioco non è più solo il denaro: è l’influenza strategica e la destabilizzazione.
I ricercatori di Apple hanno presentato SimpleFold, un nuovo modello di intelligenza artificiale progettato per prevedere la struttura 3D delle proteine con una potenza di calcolo nettamente inferiore rispetto ai sistemi esistenti, come l’acclamato AlphaFold di Google DeepMind. Questa innovazione rappresenta un grande passo avanti verso la democratizzazione della biologia strutturale, permettendo a un numero maggiore di laboratori di studiare le proteine e accelerare la scoperta di farmaci senza la necessità di accedere a cluster di supercomputer mastodontici.
on è più fantascienza, ma neppure ancora realtà. L’energia da fusione, quella promessa quasi mitologica di generare elettricità infinita e pulita a partire dall’acqua, sta uscendo dal laboratorio e cominciando a parlare il linguaggio dell’intelligenza artificiale. O, più precisamente, il linguaggio di DeepMind, la divisione di Google che negli ultimi anni sembra avere come hobby quello di risolvere problemi che il resto del pianeta definisce “impossibili”. Dopo aver battuto campioni di Go e decifrato le pieghe delle proteine, ora tenta di addomesticare il caos più estremo dell’universo: il plasma.
Il Punteggio è Tutto? La ricerca di Sapienza NLP rileva un “Vuoto Critico”
Siamo abituati a celebrare i Modelli Linguistici Piccoli (SLM – Small Language Models) per le loro crescenti capacità e l’efficienza che portano nelle applicazioni di Intelligenza Artificiale (IA). Ma i loro punteggi di accuratezza riflettono davvero le loro reali capacità di ragionamento?
Sono all’aereoporto di LV di ritorno del AI World e mentre sorseggio una Hazy Little Thing Ipa stanco morto e penso di non scriverne più arriva la notizia. Oracle ha tentato di fare ciò che ogni colosso tecnologico fa quando gli investitori iniziano a guardare con troppa attenzione ai margini: raccontare una storia credibile di profitti futuri.
Clay Magouryk, co-CEO della divisione cloud, ha dichiarato che l’attività di noleggio dei server dotati di GPU Nvidia a OpenAI, Meta e ad altri sviluppatori di intelligenza artificiale genererà presto margini lordi compresi tra il 30% e il 40%. Un numero che suona come una sinfonia in un mercato dove le GPU si vendono a peso d’oro, ma dove la realtà contabile è meno poetica.
Come l’IA sta riscrivendo le regole dell’energia: data center sotto shock e megawatt fuori controllo

L’industria dell’intelligenza artificiale sta vivendo una rivoluzione energetica. Non si tratta solo di algoritmi più sofisticati o di modelli linguistici più potenti; è una questione di megawatt, infrastrutture e di come l’energia venga orchestrata in tempo reale. Il concetto di “new power layer” per l’orchestrazione dell’IA sta emergendo come una risposta strategica a questa nuova era.
Se credi che l’AI sia solo prompt da digitare e output da copiare, stai per fare un errore strategico. Prima di costruire modelli, costruisci comprensione. Il rischio maggiore non è fallire con un progetto di machine learning, ma partire senza capire i meccanismi che lo governano. Questa raccolta di libri selezionati a mano ti costringe a entrare nelle viscere dell’intelligenza artificiale, del machine learning e del deep learning, senza scorciatoie da hype digitale.


Uber prova a diventare la piattaforma definitiva per il lavoro flessibile e lancia negli Stati Uniti un pilota per far guadagnare ai suoi driver e corrieri soldi extra con microtask per addestrare modelli AI. Si tratta di registrare audio, caricare immagini o documenti in determinate lingue, con pagamenti che variano, ma a volte bastano pochi secondi per guadagnare un dollaro. L’idea è trasformare l’esercito globale di freelance di Uber in un concorrente di Scale AI e Amazon Mechanical Turk, piattaforme già note per far etichettare dati da umani per addestrare AI.

AI agents hanno smesso di essere solo un concetto astratto o un esperimento da laboratorio. Ora le aziende di intelligenza artificiale puntano a renderli davvero utili per utenti e professionisti. Anthropic ha annunciato Skills for Claude, un sistema di “cartelle” contenenti istruzioni, script e risorse che Claude può caricare per diventare più intelligente su compiti specifici, dal lavoro su Excel al rispetto delle linee guida del brand. Gli utenti possono anche creare Skills personalizzate, utilizzabili su Claude.ai, Claude Code, API e SDK, con aziende come Box, Rakuten e Canva già a bordo.
Microsoft sta spingendo Copilot oltre la semplice app di produttività per trasformare il PC in un assistente che non solo risponde, ma osserva e agisce. L’ultima mossa? Il nuovo wake word “Hey, Copilot!” che permette di interagire con Windows 11 tramite voce. Mehdi, uno dei dirigenti chiave, lo definisce il “terzo meccanismo di input” del PC, dopo tastiera e mouse. Non sostituisce il tradizionale metodo di lavoro, ma promette un’interazione più naturale e, a detta sua, “piuttosto profonda”.

I data center AI di OpenAI ad Abu Dhabi sono effettivamente in fase di costruzione.
Le foto del cantiere del data center negli Emirati Arabi Uniti, pubblicate giovedì, mostrano l’imponenza degli edifici che, secondo OpenAI e i suoi partner Stargate, Oracle, NVIDIA, Cisco e SoftBank, ospiteranno 16 gigawatt di potenza di calcolo.
Secondo le fonti Reuters, Anthropic starebbe per raggiungere un fatturato annualizzato di circa 7 miliardi di dollari questo mese, un salto rispetto ai circa 5 miliardi stimati a luglio. La società produttrice del modello Claude prevede che questo tasso si porti a 9 miliardi entro fine 2025, e tra 20 e 26 miliardi entro fine 2026.
È ufficiale: anche Berlino vuole il suo chip. Non quello da aperitivo, ma quello che, in un mondo dominato da silicio, intelligenza artificiale e geopolitica, vale più dell’oro. Il governo tedesco ha approvato la nuova “Strategia per la microelettronica”, un piano ambizioso che promette di trasformare la Germania in una potenza autonoma nella produzione di microprocessori e tecnologie strategiche. “L’obiettivo è rafforzare l’autonomia europea”, ha dichiarato Stefan Kornelius, portavoce del governo federale, con quella calma teutonica che fa sembrare perfino un piano decennale una faccenda di routine.
C’è qualcosa di stranamente familiare nel World Economic Outlook di ottobre 2025: il mondo non cresce, ma continua a raccontarsi che lo farà presto. Il Fondo Monetario Internazionale parla di un’economia “in flusso”, un eufemismo elegante per dire che nessuno sa più esattamente dove stiamo andando. Dopo anni di crisi concatenate, tra pandemie, guerre commerciali, crisi energetiche e boom tecnologici a intermittenza, la globalizzazione sembra un software che ha smesso di ricevere aggiornamenti, ma che nessuno ha ancora il coraggio di disinstallare.
Il problema non è la fisica. È la fiducia. Tutti parlano del quantum computing come della prossima rivoluzione tecnologica, ma pochi capiscono cosa accade davvero dietro quelle scatole criogeniche che lavorano a temperature più fredde dello spazio interstellare. Le aziende fingono sicurezza quando in realtà brancolano tra probabilità, rumore e correzione d’errore. È la prima volta nella storia dell’informatica in cui il computer non è prevedibile, e l’imprevedibilità, paradossalmente, è il suo valore più grande.

OpenAI ha annunciato martedì la formazione di un Consiglio di Esperti su Benessere e IA (Expert Council on Well-Being and AI), un gruppo composto da accademici e leader di organizzazioni no-profit. L’obiettivo è assistere l’azienda nel valutare come i suoi prodotti influenzino la salute mentale degli utenti.
C’è qualcosa di irresistibile nel pensare che l’intelligenza artificiale, la nostra creatura più sofisticata, abbia bisogno di un piccolo trucco per essere davvero creativa. Un gruppo di ricercatori di Stanford, Northeastern e West Virginia University ha appena presentato un paper dal titolo volutamente provocatorio: Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity. Dentro, c’è una scoperta che sembra banale e invece cambia tutto. Un “magic prompt” capace di sbloccare la creatività repressa dei modelli linguistici, restituendo quella varietà di pensiero che l’allineamento etico e la preferenza umana avevano lentamente sterilizzato.

Il giorno in cui un’intelligenenza artificiale ha superato il semplice “riconoscere modelli” e ha generato una ipotesi biologica nuova, da confermare sperimentalmente, è qui. DeepMind ha annunciato mercoledì che il suo ultimo sistema di IA biologica ha formulato e poi verificato in laboratorio una proposta rivoluzionaria per il trattamento del cancro, definendo questo risultato “un traguardo per l’intelligenza artificiale nella scienza”. Con Yale, DeepMind ha rilasciato un modello di fondazione per l’analisi a singola cellula da 27 miliardi di parametri, denominato Cell2Sentence-Scale 27B (C2S-Scale), costruito sulla famiglia open-source Gemma. Il modello ha generato “una nuova ipotesi sul comportamento cellulare del cancro” che è stata da allora validata sperimentalmente in cellule viventi. (vedi blog Google)

È ufficiale. Dalla fine del 2024, il numero di articoli generati da intelligenze artificiali ha superato quello degli articoli scritti da esseri umani. Una rivoluzione silenziosa che ha trasformato il web in un’enorme officina di testi prodotti da modelli linguistici come ChatGPT, Claude e Gemini, mentre le redazioni umane si ritirano dietro quinte digitali sempre più affollate.
Ma ecco il paradosso: nonostante questa invasione, la curva di crescita si è improvvisamente fermata. Dopo il picco di maggio 2024, la percentuale di contenuti AI pubblicati si è stabilizzata. È come se il web avesse raggiunto un punto di saturazione, o forse un momento di autoconsapevolezza. Gli editori stanno iniziando a capire che la quantità non è sinonimo di visibilità. Google e ChatGPT, secondo i dati, non mostrano la maggior parte di questi articoli nelle loro risposte. È un po’ come stampare milioni di copie di un giornale e poi scoprire che nessuno le distribuisce.
Inizio con un colpo secco: l’idea che un modello video generi audio credibile insieme all’immagine non è rivoluzionaria sul piano teorico, ma è difficilissima da far funzionare bene in ogni contesto. Con veo 3, Google ha già messo le basi: ambienti, dialoghi, effetti tutto generato internamente. Ciò che 3.1 promette è di spostare l’asticella dalla sperimentazione accademica alla praticità da studio domestico: audio vivo più editing granulare, durata maggiore, controlli più fini.
Claude Haiku 4.5 è pensato per essere il modello “leggero” e veloce, accessibile nel prezzo, con buone capacità di ragionamento e generazione, un compromesso tra prestazioni e costo.
(Analogamente al modello Haiku 3.5 che era già la versione più rapida della serie Claude fino ad allora) Anthropic dichiara che Haiku 4.5 costa circa un terzo rispetto al modello Sonnet 4, e un quindicesimo rispetto al modello Opus più potente.
Un consorzio di investimento che include BlackRock, Global Infrastructure Partners e il fondo MGX di Abu Dhabi ha concluso un accordo da 40 miliardi di dollari per l’acquisizione di uno dei maggiori operatori di data center al mondo, lanciando un’iniziativa volta a sostenere le infrastrutture per l’intelligenza artificiale.
Quando Oracle decide di spingere sull’intelligenza artificiale, non lo fa per moda. Lo fa come chi progetta un’infrastruttura neuronale per le aziende, non un gadget da demo.
L’annuncio di nuovi agenti AI integrati nelle Oracle Fusion Cloud Applications suona come un cambio di paradigma travestito da aggiornamento software. Dentro l’ERP, l’HCM, lo SCM e il CX, questi agenti diventano la nuova forza lavoro digitale, capaci di leggere, decidere e agire in tempo reale.
Si parla di un ecosistema che non si limita a eseguire comandi, ma anticipa le intenzioni dei responsabili aziendali e le traduce in azioni operative. Una visione che, se presa sul serio, riscrive il concetto stesso di management digitale.
Guardando la vicenda del TikTok deal con occhi da tecnologo, la prima impressione è che non siamo davanti a una semplice cessione aziendale, ma a un intricato puzzle geopolitico travestito da operazione finanziaria. TikTok, con i suoi 170 milioni di utenti americani, non è solo un’app di intrattenimento; è diventata un simbolo della collisione tra interesse commerciale, sicurezza nazionale e strategia tecnologica.
La proposta di vendita a un consorzio guidato da Oracle, lasciando a ByteDance un 20 per cento di quota, appare sulla carta un compromesso elegante. Ma la realtà, come spesso accade quando Washington e Pechino entrano in gioco, è molto più complessa.
Ant Group ha appena scosso le fondamenta dell’ecosistema dell’intelligenza artificiale con il lancio di dInfer, un framework open-source progettato per ottimizzare l’inferenza dei modelli linguistici basati su diffusione (dLLM). Questo strumento promette di superare le soluzioni esistenti, come Fast-dLLM di Nvidia, in termini di velocità e efficienza, segnando un punto di svolta significativo nel panorama dell’AI.

Nel panorama ipercompetitivo del cloud, l’innovazione non è più un optional: è sopravvivenza. Oracle Acceleron ridefinisce radicalmente come i dati si muovono su Oracle Cloud Infrastructure, portando connessioni ultra‑performanti tra host senza alcun costo aggiuntivo per i clienti.
Questa non è solo una promessa di marketing, ma un cambiamento architetturale basato su oltre un decennio di ricerca e implementazione nel networking cloud, dove ogni hop, ogni pacchetto, ogni bit conta.
Le aziende che puntano all’AI di nuova generazione o a workload HPC ad alta intensità finalmente possono respirare, perché il traffico dati non è più ostacolato da architetture legacy o da inefficienze silenziose che rallentano l’innovazione.

Il 14 ottobre 2025, durante l’Oracle AI World di Las Vegas, l’azienda ha annunciato la disponibilità generale della sua nuova AI Data Platform. Secondo Oracle, questa piattaforma è progettata per aiutare i clienti a connettere in modo sicuro modelli di intelligenza artificiale generativa con i loro dati aziendali, applicazioni e flussi di lavoro.
Combinando l’ingestione automatica dei dati, l’arricchimento semantico e l’indicizzazione vettoriale con strumenti di intelligenza artificiale generativa integrati, la piattaforma semplifica l’intero percorso dai dati grezzi all’IA pronta per la produzione. Oracle sostiene che la piattaforma renda i dati pronti per l’IA e consenta la creazione e l’implementazione di applicazioni agentiche, sfruttando le capacità combinate di Oracle Cloud Infrastructure (OCI), Oracle Autonomous AI Database e OCI Generative AI service.

La Federal Reserve Bank of Dallas non è solita indulgere in giochi di fantasia. Eppure, nel suo rapporto di giugno 2025 sull’intelligenza artificiale e la produttività, ha tracciato scenari che vanno dalla “Singolarità benevola” all'”Estinzione”. Sì, avete letto bene: estinzione. Non è un incubo da film di fantascienza, ma una proiezione economica ufficiale. Il grafico allegato mostra come l’adozione dell’IA potrebbe influenzare il PIL pro capite fino al 2050, con scenari che spaziano da un modesto incremento dell’1,9% annuo a un potenziale collasso esistenziale. (dallasfed.org)
Negli ultimi anni, l’intelligenza artificiale è diventata uno dei temi dominanti nel panorama tecnologico e finanziario globale. Investimenti record, acquisizioni miliardarie, startup meteore e alleanze strategiche tra aziende e stati stanno ridefinendo gli equilibri dell’economia mondiale. Tutto questo ricorda, in modo sorprendentemente simile, la bolla delle dot-com dei primi anni 2000.
Apple, il gigante tecnologico che ha fatto del design minimalista e della privacy un mantra, ha deciso di fare un passo audace: aumentare gli investimenti in Cina. Tim Cook, il CEO che ha sempre parlato di “responsabilità globale”, ora si trova a bilanciare la sua retorica con la realtà geopolitica. La sua visita a Beijing e Shanghai, accompagnata dal nuovo Chief Operating Officer Sabih Khan, non è solo una questione di business, ma una mossa strategica in un contesto di crescente tensione tra le due maggiori economie mondiali.
Se pensate che il business delle intelligenze artificiali sia un gioco da ragazzi, OpenAI è qui per dimostrarvi il contrario. Con 13 miliardi di dollari di ricavi annuali di cui il 70% proviene da utenti che pagano 20 dollari al mese per chattare con un algoritmo l’azienda di Sam Altman sta vivendo un momento d’oro. Ma attenzione: dietro l’oro c’è un buco nero finanziario pronto a inghiottire tutto. Perché OpenAI ha promesso di spendere oltre 1 trilione di dollari nei prossimi dieci anni. E non è una cifra scritta su un tovagliolo in un ristorante di lusso, ma un impegno vincolante con partner come Oracle, Nvidia, AMD e Broadcom.
MIT ha letteralmente costruito un’IA che riscrive il proprio codice siamo pronti?

Quando ho letto il titolo del paper “Self-Adapting Language Models (SEAL)” di ricercatori del MIT, la prima reazione è stata: “Finalmente, uno step concreto verso l’IA che evolve da sola”. Ma tra l’emozione e il panico sì, panico controllato serve capire cosa sta davvero succedendo. Perché l’idea che un modello riscriva il proprio “codice” è affascinante quanto pericolosa.
Ma la realtà è molto più sfumata e piena di trappole strategiche di quanto i titoli delle agenzie facciano credere.
Durante una recente riunione dei ministri UE svoltasi in Danimarca, il ministro degli Esteri danese Lars Rasmussen ha dichiarato che “se invitiamo investimenti cinesi in Europa, dev’essere con la condizione che ci sia qualche tipo di trasferimento tecnologico”. Il commissario al commercio europeo Maroš Šefčovič ha indicato che gli investimenti esteri dovrebbero essere “reali”, ovvero generare posti di lavoro nell’UE e implicare la condivisione di proprietà intellettuale un’impostazione che implicitamente giustifica condizioni stringenti.
Goldman Sachs ha deciso di giocare la sua partita più ambiziosa sul campo dell’intelligenza artificiale, e lo fa nel momento in cui i numeri la incoronano come regina indiscussa dell’investment banking globale. Il terzo trimestre è stato un trionfo: 15,2 miliardi di dollari di ricavi, più 20% rispetto all’anno precedente, e un utile netto balzato del 37% a 4,1 miliardi. David Solomon, il suo amministratore delegato, sorride. O almeno, così sembra. Perché dietro quella curva perfetta di risultati, si intravede la lama tagliente della ristrutturazione più silenziosa mai condotta nel settore bancario: quella guidata dagli algoritmi.
La notizia è semplice nel suo impatto e complicata nelle sue conseguenze: Walmart ha annunciato una partnership con OpenAI per permettere agli utenti di acquistare prodotti direttamente all’interno delle conversazioni di ChatGPT tramite la funzionalità Instant Checkout. Questa mossa trasforma un’interfaccia conversazionale in un punto vendita, e lo fa con la leggerezza di un click e la pretesa di cambiare il comportamento d’acquisto di centinaia di milioni di clienti.
Alla conferenza Dreamforce 2025, Marc Benioff, cofondatore e CEO di Salesforce, ha alzato il sipario su una accelerazione decisiva nelle relazioni con OpenAI e Anthropic: non più semplici alleati tecnologici, ma componenti integrate del motore generativo del suo ecosistema AI. Il messaggio è chiaro: Salesforce vuole non restare indietro nell’era degli agenti autonomi.
Gli orologi più precisi del mondo stanno diventando specchi del futuro, non solo strumenti di misura. Fisici come Igor Pikovski, del Stevens Institute of Technology, stanno cercando di capire se il tempo, quella linea apparentemente inesorabile che ci separa dal passato, possa piegarsi sotto le leggi del mondo quantistico. In laboratorio, atomi intrappolati e raffreddati a temperature vicine allo zero assoluto battono i secondi con una precisione che umilia qualsiasi orologio svizzero, ma ciò che cercano non è la puntualità: è la verità sul tempo stesso.