Prendere il controllo della narrazione non è un vezzo da ufficio marketing. È una necessità strategica quando stai cercando di raccogliere fino a 100 miliardi di dollari con una valutazione che flirta con i 750 miliardi, cifre che fino a pochi anni fa appartenevano solo alla fantascienza o ai deliri dei pitch deck più aggressivi di Sand Hill Road. L’annuncio di OpenAI sull’avvio dei test pubblicitari in ChatGPT e sull’introduzione di un nuovo livello di servizio da 8 dollari al mese chiamato ChatGPT Go negli Stati Uniti va letto esattamente in questa chiave. Non è solo una mossa di prodotto. È un’operazione narrativa, quasi chirurgica, pensata per spostare il dibattito da “Google sta recuperando terreno” a “OpenAI ha finalmente trovato il modo di stampare denaro”.
Autore: Redazione Pagina 1 di 107
Bill Gates ha alzato il tono nel suo lettera annuale 2026, lanciando un monito che pochi leader mondiali oserebbero articolare in pubblico: il progresso globale non avanza più. Dopo decenni di miglioramenti misurabili in salute pubblica, riduzione della povertà e sopravvivenza infantile, Gates dipinge uno scenario inquietante: il mondo rischia di entrare in una nuova “Età Oscura” entro cinque anni se le tendenze attuali non cambiano. Il messaggio, per quanto espresso con la pacatezza di un filantropo miliardario, porta con sé una gravità che ricorda più un rapporto d’intelligence che un briefing benefico.
Tra utopia regolatoria e realtà aziendale
Il Ministero del Lavoro e delle Politiche Sociali ha finalmente deciso di uscire dall’ombra, pubblicando un documento che, sulla carta, promette di guidare imprese e lavoratori nell’adozione dell’intelligenza artificiale. Non parliamo di un semplice vademecum di buone intenzioni: è un tentativo di dettare regole chiare in un territorio che fino a ieri sembrava territorio di startup, lobby tecnologiche e consulenti futuristi.
L’IA nel mondo del lavoro non è più un’idea astratta da conferenze high-tech: sta entrando nei processi aziendali con la violenza silenziosa di un algoritmo che decide chi viene promosso, chi licenziato e, più spesso, chi resta invisibile ai radar della produttività digitale. Trasformare questa realtà in una gestione equa e inclusiva non è banale, ma il Ministero ci prova. La parola chiave sembra essere trasparenza, almeno sulla carta. Sistemi comprensibili, supervisione umana obbligatoria, tracciabilità. In pratica: niente scatole nere che decidono il destino di un dipendente senza spiegazioni plausibili.
La notizia è semplice e devastante: conversazioni “cancellate” su ChatGPT potrebbero non essere mai realmente sparite. Una sentenza federale, scaturita da una causa del New York Times contro OpenAI, stabilisce che anche i messaggi che gli utenti pensavano eliminati possono essere conservati e usati come prova legale. Psicologicamente, questo cambia tutto: il patto implicito tra utenti e piattaforme AI è frantumato, e ricostruire fiducia è più difficile di convincere un consiglio di amministrazione a investire in un progetto quantistico.
Non è solo esercitazione, è deterrenza politica pura. L’Artico non è bottino negoziabile e la sovranità conta
Un passo simbolico può dire più di mille dichiarazioni pubbliche, soprattutto quando a parlare sono truppe e navi schierate nel freddo estremo dell’Artico. I recenti movimenti militari coordinati dei Paesi europei a Nuuk non rappresentano una semplice esercitazione: rivelano una tensione latente all’interno della NATO e un’Europa intenzionata a sfidare apertamente le pretese statunitensi su territori strategici. Francia, Germania, Svezia, Norvegia, Paesi Bassi e Regno Unito hanno inviato contingenti limitati ma altamente simbolici per partecipare a Operation Arctic Endurance, guidata dalla Danimarca. Il numero esatto di truppe importa poco: il messaggio politico è chiarissimo, e Macron non si è fatto scrupoli a ribadirlo, sottolineando la responsabilità europea su Groenlandia come territorio legato all’UE e come alleato NATO.
Se pensavate che la computazione quantistica fosse ancora relegata a conferenze accademiche e diapositivi pieni di formule incomprensibili, attendete di leggere questo. IBM ha appena segnalato che il vantaggio quantistico sta passando dallo stato di promessa futuribile alla soglia operativa di ogni grande impresa. Due risultati fondamentali, due nuovi processori quantistici, e un messaggio talmente esplicito che persino il board più conservatore non potrà più ignorarlo. Il conto alla rovescia è iniziato.
La Cina, con la presentazione di COSA, un sistema operativo cognitivo progettato per robot umanoidi autonomi, sembra aver scelto deliberatamente quel momento. Non stiamo parlando di un altro framework per orchestrare sensori e attuatori in un laboratorio sterilizzato, ma di un sistema pensato per sopravvivere nel mondo reale, quello sporco, imprevedibile, pieno di attriti fisici e ambiguità semantiche che fanno impazzire anche gli esseri umani. Il punto non è che un robot cammini. Il punto è che sappia perché sta camminando, dove sta andando e cosa fare quando il mondo non collabora.
Tutti parlano di agentic AI con lo stesso entusiasmo con cui qualche anno fa si parlava di cloud first o data driven, ma quando arriva il momento di concedere vera autonomia agli agenti artificiali, improvvisamente le mani tremano. Troppo rischio. Troppa opacità. Troppa responsabilità distribuita. Il risultato è un esercito di bot intelligenti che restano però strumenti isolati, brillanti ma soli, incapaci di funzionare come una vera organizzazione cognitiva. Qui entra in scena una teoria nata molto prima dei transformer, ignorata per decenni dal mondo enterprise e oggi sorprendentemente attuale. La memoria transattiva.
Non tutti i lavori sono destinati a essere divorati da algoritmi, reti neurali e automazione cognitiva. Alcuni mestieri resistono non per nostalgia o romanticismo analogico, ma perché incorporano un livello di giudizio umano, sensibilità fisica e controllo artistico che oggi nessun modello generativo, per quanto addestrato, è in grado di replicare. Il paradosso è che proprio questi lavori artigianali insostituibili dall intelligenza artificiale sono oggi più a rischio di qualunque professione d ufficio automatizzabile. Non per colpa delle macchine, ma per l assenza crescente di persone disposte a impararli.
I regolatori EMA e FDA hanno smesso di parlarsi per corridoi riservati e hanno deciso di pubblicare un documento congiunto, mettendo nero su bianco dieci principi condivisi per l’uso dell’intelligenza artificiale nel ciclo di vita del farmaco. Non è una dichiarazione di intenti da convegno, ma una mossa difensiva e offensiva insieme. Difensiva perché negli ultimi anni le autorità si sono viste recapitare dossier pieni di promesse algoritmiche e poveri di prove. Offensiva perché chi governa la regolazione sa che l’intelligenza artificiale farmaceutica non è più un esperimento da laboratorio, ma una leva industriale che può comprimere tempi, costi e rischi, se gestita con disciplina.
Il metaverso è morto. Non per mancanza di visione, come qualcuno proverà a raccontare nei prossimi panel patinati di Davos, ma per un motivo molto più prosaico e molto più spietato: non produceva abbastanza ritorni, non abbastanza in fretta, e soprattutto non abbastanza potere. Mark Zuckerberg lo ha capito prima di altri e ha fatto ciò che i CEO sopravvivono facendo da sempre. Ha tagliato, ha smentito se stesso e ha cambiato religione. Il risultato è un’operazione di liquidazione industriale mascherata da pivot strategico, con il metaverso trasformato in un asset contabile da ridimensionare e l’intelligenza artificiale elevata a nuova divinità aziendale.
I numeri parlano una lingua che nemmeno la narrativa più sofisticata riesce a distorcere. Mille posti di lavoro tagliati nella realtà virtuale, studi chiave chiusi, Reality Labs ridotto a una versione smagrita e molto meno ambiziosa di ciò che doveva essere il futuro dell’interazione umana. In parallelo, settanta miliardi di dollari di investimento diretto in intelligenza artificiale e una promessa che suona più come una dichiarazione di guerra industriale che come un piano aziendale: seicento miliardi di dollari in infrastrutture negli Stati Uniti entro il 2028. Non software, non avatar, non mondi digitali. Cemento, rame, acciaio, data center, reattori nucleari e chilometri quadrati di consenso politico.
Qui il punto non è che Zuckerberg abbia smesso di credere nel metaverso. Il punto è che ha smesso di credere che fosse il campo di battaglia giusto. L’intelligenza artificiale generativa ha cambiato le regole del gioco in modo brutale. Non vince chi ha l’idea più elegante, vince chi riesce a garantire calcolo continuo, energia stabile e scala industriale. La nuova unità di misura del potere tecnologico non è più il numero di utenti ma i gigawatt disponibili.
Meta Compute non è un progetto tecnologico, è un progetto infrastrutturale degno del New Deal. Data center iperscalabili alimentati da contratti a lungo termine per l’energia nucleare, una dipendenza esplicita da permessi governativi, incentivi federali e alleanze politiche. Altro che move fast and break things. Qui si tratta di move slow and convince everyone. La fisica ha fatto irruzione nella Silicon Valley e ha imposto il conto. I modelli si addestrano in settimane. Le centrali elettriche si costruiscono in anni. E se sbagli il timing, sei fuori.
Il cambio di leadership racconta più di mille comunicati stampa. Santosh Janardhan, uomo infrastrutture, viene affiancato da Daniel Gross, reclutato dalla startup di sicurezza AI SSI. Non un ricercatore accademico, non un evangelista visionario, ma qualcuno che conosce bene il concetto di frontiera, di rischio sistemico e di controllo. È un messaggio interno molto chiaro. L’era dell’AI romantica è finita. Inizia l’era dell’AI governata come un’arma strategica.
L’ingresso di Dina Powell McCormick come presidente con delega ai rapporti istituzionali è forse il segnale più rivelatore. Meta non si prepara a competere solo con OpenAI, Google o Anthropic. Si prepara a negoziare con Stati, autorità di regolazione, comunità locali e lobby energetiche. Quando un’azienda tecnologica assume figure con background politico di alto livello, non sta facendo public relations. Sta anticipando conflitti. Permessi, autorizzazioni ambientali, accesso alla rete elettrica, consenso pubblico sull’uso del nucleare. L’intelligenza artificiale non è più una questione di algoritmi, è una questione di sovranità industriale.
Il paradosso in cui Meta si trova immersa è affascinante e pericoloso. Da un lato i Superintelligence Labs guidati da Alexandr Wang promettono modelli di frontiera, nomi in codice che suonano quasi ironici come Mango e Avocado, a ricordare quanto la cultura tech ami mascherare il potere dietro nomi innocui. Dall’altro lato il vero collo di bottiglia non è la ricerca, ma l’esecuzione fisica. Non conta chi arriva primo con il modello più brillante, conta chi riesce a tenerlo acceso senza far saltare la rete elettrica di un intero Stato.
Questo ribalta completamente la narrativa classica dell’innovazione. Per anni ci siamo raccontati che il software mangia il mondo. Ora il mondo sta rispondendo mordendo il software. Territorio, energia, acqua per il raffreddamento, consenso sociale. Tutto ciò che la Silicon Valley considerava un dettaglio noioso è diventato il fattore critico di successo. Meta lo ha capito e ha fatto una scelta che molti altri dovranno imitare, magari con meno risorse e più panico.
Il metaverso, in questa storia, non è stato un errore concettuale. È stato un errore temporale. Troppo ahead of demand, troppo costoso in termini di capitale politico interno, troppo scollegato da una monetizzazione immediata. In un mondo dove l’AI promette ritorni tangibili in termini di produttività, advertising, automazione e controllo delle piattaforme, continuare a bruciare miliardi in visori VR era diventato un atto quasi ideologico. Zuckerberg ha scelto di essere pragmatico. O, per dirla senza eufemismi, ha scelto di sopravvivere.
Meta aveva provato a costruire un mondo virtuale per sfuggire ai vincoli del mondo reale. Ora è costretta a tornare con entrambi i piedi nel fango della realtà industriale. Permessi edilizi, opposizioni locali, proteste ambientali, comitati cittadini. L’AI non vive nel cloud. Vive in capannoni grandi come aeroporti e consuma energia come una città di medie dimensioni. Chi controlla l’energia controlla l’AI. Chi controlla l’AI controlla l’economia digitale dei prossimi decenni.
La vera domanda non è se Meta riuscirà a costruire abbastanza data center. È se riuscirà a farlo abbastanza in fretta senza scatenare una reazione politica e sociale che rallenti tutto. L’opinione pubblica accetta volentieri chatbot e assistenti intelligenti. È meno entusiasta quando scopre che per alimentarli serve una centrale nucleare nel raggio di pochi chilometri. Qui si giocherà la partita più delicata. Non nei benchmark, ma nei consigli comunali.
In controluce, questa mossa segna la fine simbolica di un’epoca. La Silicon Valley che prometteva mondi alternativi lascia spazio a una nuova aristocrazia tecnologica che parla il linguaggio dell’industria pesante. L’AI come acciaio del ventunesimo secolo. Il calcolo come petrolio. I data center come raffinerie. Zuckerberg non sta solo liquidando il metaverso. Sta riscrivendo il DNA di Meta per trasformarla da piattaforma sociale a potenza infrastrutturale.
Chi pensa che sia un ripiegamento non ha capito la portata del cambio di paradigma. Questo è un raddoppio della posta, non una ritirata. Solo che il tavolo non è più quello luccicante delle demo futuristiche. È quello, molto meno sexy, delle centrali elettriche, delle autorizzazioni federali e dei contratti a trent’anni. Vince chi resiste più a lungo, non chi corre più veloce.
Alla fine, la corsa all’intelligenza artificiale si sta rivelando per quello che è sempre stata sotto la superficie. Una corsa alla fisica, al territorio e al potere. Zuckerberg lo ha capito e ha agito di conseguenza. Gli altri stanno ancora discutendo di prompt.

Baidu è tornata. Non con un tweet roboante, non con una demo teatrale in stile Silicon Valley, ma con una dichiarazione asciutta su X che ha il sapore della rivincita tecnica più che della vittoria mediatica. ERNIE 5.0 è ufficialmente uscito dalla fase di preview e il messaggio implicito è chiaro. Il gruppo che molti analisti occidentali avevano già archiviato come un ex gigante incapace di reggere la nuova corsa ai large language model è ancora seduto al tavolo, con una strategia che segue una logica cinese molto precisa. Efficienza prima della potenza bruta. Architettura prima del marketing. Infrastruttura prima dell’ego.
ERNIE 5.0 non è un modello che impressiona per un singolo numero da slide per investitori. È un modello che va letto come manifesto industriale. Circa due trilioni di parametri in una architettura Mixture of Experts, ma con solo il tre per cento degli esperti attivati a ogni inferenza. Chi lavora davvero con i modelli sa cosa significa. Meno calcolo per query, meno costi marginali, più complessità ingegneristica, più debito tecnico a monte, ma anche una strada più sostenibile nel lungo periodo. È l’opposto della filosofia muscolare che ha dominato la prima fase della corsa ai foundation model in Occidente, dove ogni release sembrava una gara a chi aveva più GPU e più miliardi da bruciare.
Il dato interessante non è solo la dimensione o la sparsità. È la scelta di addestrare ERNIE 5.0 nativamente come modello omni-modale. Testo, immagini, audio e video non come moduli aggiunti in un secondo momento, ma come parti integrate fin dall’inizio. Questa differenza, che a molti utenti finali sembra una sottigliezza accademica, è in realtà un cambio di paradigma architetturale. Significa che la rappresentazione latente del mondo non nasce testuale per poi essere adattata. Nasce già ibrida, con tutte le implicazioni del caso su ragionamento, allineamento cross-modale e capacità di generalizzazione. Non è un caso che Baidu insista sul termine omni-modal. È una parola che suona come branding, ma nasconde una scelta tecnica profonda.
Sul piano delle performance, Baidu rivendica risultati competitivi nella scrittura creativa, nel seguire istruzioni e nel coding. ERNIE 5.0 si posiziona nella top 10 in diverse categorie occupazionali, dalla scienza al business e finanza fino alla sanità. Qui è necessario un minimo di scetticismo da veterani del settore. I benchmark sono strumenti politici prima che scientifici. Tuttavia il rimbalzo è reale. A novembre la preview di ERNIE 5.0 era scivolata al ventiquattresimo posto su LMArena, un dato che aveva alimentato la narrativa del declino. Oggi il modello è tornato nella conversazione che conta, anche se più per recupero che per sorpasso.
Il contesto rende questo ritorno ancora più interessante. Il mercato domestico cinese dell’intelligenza artificiale è diventato una giungla ipercompetitiva. ByteDance con Doubao ha superato i cento milioni di utenti attivi mensili. DeepSeek ha innescato una guerra dei prezzi con modelli estremamente efficienti che hanno costretto Baidu a una scelta dolorosa ma razionale. Abbandonare completamente il modello di abbonamento a pagamento per il consumer. Un segnale che molti in Occidente avrebbero letto come resa. In realtà è stata una riallocazione strategica delle risorse.
Mentre il fronte consumer diventava una battaglia di margini sempre più sottili e di attenzione sempre più volatile, Baidu ha rafforzato la sua posizione nel B2B. ERNIE oggi alimenta i centri di comando delle smart city in tutta la Cina, serve tutte le banche cinesi considerate sistemicamente rilevanti e gestisce circa sedici miliardi e mezzo di chiamate API al giorno. Questo numero da solo racconta più di qualsiasi demo. Significa carichi reali, SLA stringenti, integrazioni profonde con sistemi legacy e una pressione operativa che nessun benchmark pubblico può simulare. È questo flusso di cassa enterprise che ha finanziato lo sviluppo continuo del modello mentre altri si inseguivano sui social.
C’è poi un aspetto spesso sottovalutato dagli analisti tecnici puri. L’interfaccia. Il chatbot ERNIE non è solo un endpoint di un LLM, ma un prodotto pensato per ridurre la frizione cognitiva dell’utente. Scrittura, lettura, editing di immagini e uso generale sono separati in sezioni dedicate. Sotto il cofano è sempre lo stesso modello, ma con prompt di sistema e regolazioni differenti. È una scelta apparentemente banale che in realtà dice molto sulla maturità del team di prodotto. Non costringere l’utente a diventare prompt engineer per ottenere valore. In un mercato dove molti confondono flessibilità con complessità, è una posizione quasi controculturale.
Curioso, e per certi versi controintuitivo, il fatto che l’ultima versione di ERNIE 5.0 non abbia la ricerca web attiva. È un modello offline, puro. Chi vuole informazioni aggiornate deve tornare a ERNIE 4.5. Questa scelta ha fatto storcere il naso a diversi utenti, ma è coerente con una filosofia di controllo e affidabilità. Separare il ragionamento dalla retrieval esterna riduce superfici di rischio, costi e dipendenze. È una scelta che parla più agli ingegneri che ai marketer.
Le reazioni della comunità sono state miste. C’è chi applaude il ritorno tecnico di Baidu e chi aspetta benchmark più dettagliati, promessi ma non ancora pubblicati in forma completa. Vale la pena ricordare un dettaglio che spesso viene omesso nei titoli. Anche ammesso che ERNIE 5.0 eguagli GPT-5 e Gemini 2.5 su specifiche metriche, molti laboratori occidentali stanno già lavorando su GPT-5.2 o Gemini 3. Il che rende questo rilascio più un allineamento che una rottura dello status quo. Ma nel mondo reale dell’AI industriale, il catch-up tempestivo è spesso più importante del salto in avanti.
C’è una citazione attribuita a Deng Xiaoping che torna spesso quando si parla di strategia tecnologica cinese. Non importa se il gatto è bianco o nero, l’importante è che prenda i topi. ERNIE 5.0 sembra incarnare perfettamente questa filosofia. Non è il modello più rumoroso. Non è quello che promette l’AGI su un palco. È un sistema progettato per funzionare, scalare e generare valore in contesti complessi e regolamentati. In un’epoca in cui molti confondono l’intelligenza artificiale con una demo virale, questa sobrietà è quasi sovversiva.
Chi vuole provarlo può farlo gratuitamente su ernie.baidu.com. Il vero test però non è l’esperienza del singolo utente curioso. È capire se questa combinazione di architettura sparsa, approccio omni-modale e dominio enterprise riuscirà a sostenere Baidu nel prossimo ciclo competitivo. Perché la prossima fase dell’AI non sarà vinta da chi urla più forte, ma da chi riesce a far funzionare modelli complessi sotto carichi reali, con costi sostenibili e responsabilità operative. Su questo terreno, Baidu non è affatto fuori gioco. Anzi, sembra aver appena rimesso gli scarponi da lavoro.
A volte le policy smettono di essere documenti legali e diventano strumenti di potere. WhatsApp, Meta e l’intelligenza artificiale sono entrati esattamente in quella fase. Quello che sta accadendo in Brasile non è un dettaglio regolatorio locale, ma un segnale globale, di quelli che i board dovrebbero leggere con la stessa attenzione riservata ai report trimestrali. Perché quando un’autorità antitrust costringe una piattaforma a sospendere una policy e la piattaforma risponde creando un’eccezione chirurgica per un singolo Paese, non siamo più nel campo della compliance. Siamo nel campo della strategia.
Un numero che oggi vale più di mille discorsi strategici, 25 per cento. Non è una percentuale scelta a caso, non è nemmeno una misura tecnica. È una dichiarazione di potere. Washington ha deciso che l’accesso cinese ai chip di intelligenza artificiale avanzata deve passare da una cassa americana, anche quando quei chip non sono fisicamente prodotti negli Stati Uniti. Le nuove tariffe sui chip AI, applicate a modelli come Nvidia H200 e AMD MI325X, non sono un dettaglio commerciale ma un cambio di paradigma nella guerra dei semiconduttori tra USA e Cina. Il messaggio è brutale nella sua semplicità. Se vuoi fare AI di frontiera con tecnologia americana, paghi il pedaggio. E lo paghi a prescindere.
C’è una parola che terrorizza i mercati più dei tassi di interesse e delle guerre commerciali. Disoccupazione. Appena si pronuncia insieme a intelligenza artificiale, la reazione è pavloviana. Panico, editoriali apocalittici, thread su X che annunciano la fine della classe media e corsi accelerati di falegnameria come piano B. Poi arriva Vlad Tenev, CEO di Robinhood, sale su un palco TED e decide di rovinare la festa ai catastrofisti parlando di job singularity. Non la singolarità delle macchine che ci dominano, ma quella dei lavori che esplodono. Un’esplosione cambriana, per usare la sua espressione, di nuove professioni, nuovi mestieri, nuove combinazioni uomo macchina che oggi nemmeno abbiamo il vocabolario per descrivere.

Il rilascio di GLM-Image da parte di Z.AI appartiene a questa categoria. Non è solo un nuovo modello di generazione di immagini open source. È una dichiarazione strategica, silenziosa ma brutalmente chiara. La Cina può addestrare modelli di intelligenza artificiale complessi senza un singolo transistor made in USA. Nvidia non è più un prerequisito. È solo un acceleratore, e nemmeno indispensabile.
Un caffè al Bar dei Dani, oggi viene lungo e leggermente amaro. Di quelli che ti tengono sveglio mentre il mondo dell’intelligenza artificiale continua a fare quello che gli riesce meglio: concentrare potere, capitali e talento come se fosse una partita a Risiko giocata da pochi adulti molto ben finanziati.
Partiamo da OpenAI, che negli ultimi mesi sembra più un aeroporto internazionale che un laboratorio di ricerca. Arrivi, partenze, ritorni clamorosi. Il rientro di Barret Zoph, Luke Metz e Sam Schoenholz da Thinking Machines Lab è una di quelle notizie che raccontano più di quanto sembri. Non è solo un “abbiamo ripreso tre cervelli bravi”. È il segnale che la guerra per il talento è entrata nella sua fase matura, quella in cui non vinci più reclutando giovani promesse ma riportando a casa chi conosce già i segreti industriali, le cicatrici e i compromessi. Thinking Machines, la creatura di Mira Murati, resta valutata dieci miliardi e sogna i cinquanta. Ma intanto OpenAI si riprende pezzi strategici della propria memoria storica. Silicon Valley, versione boomerang. Te ne vai per costruire il futuro, torni perché il futuro costa più di quanto pensassi.
C’è un momento preciso in cui la narrativa sull’intelligenza artificiale smette di essere epica e diventa improvvisamente contabile. Accade quando i modelli linguistici da miliardi di parametri incontrano i bilanci, quando le promesse di cloud infinito si scontrano con il costo molto finito del cemento, dell’energia e del debito. La causa intentata dall’Ohio Carpenters’ Pension Plan contro Oracle è esattamente questo momento. Non parla di etica dell’AI o di rischi esistenziali, ma di qualcosa di molto più concreto e, per Wall Street, infinitamente più pericoloso. La trasparenza finanziaria.
Vincere nell’intelligenza artificiale non è una metafora sportiva, è una strategia di dominio. Non basta avere un buon modello, serve un ecosistema che ti consenta di piegare il mercato, gli utenti e perfino il linguaggio quotidiano alla tua visione del mondo. Serve potenza computazionale quasi illimitata, prodotti usati ogni giorno da miliardi di persone, accesso profondo ai dati personali e la capacità industriale di migliorare tutto questo senza chiedere permesso a nessuno. Messa così, sembra un elenco impossibile. In realtà esiste già un’azienda che ha quasi tutte le carte in mano, e si chiama Google.
La notizia è stata confezionata con il tono solenne delle grandi svolte storiche, di quelle che in Cina amano definire “momenti fondativi”. Zhipu AI, fresca di IPO a Hong Kong e ormai stabilmente nel radar delle liste nere americane, annuncia che il suo nuovo modello di generazione di immagini GLM-Image è stato addestrato interamente su chip Huawei Ascend, senza alcun ricorso a semiconduttori statunitensi. Nessuna Nvidia sotto il cofano, nessun acceleratore occidentale nascosto dietro una VPN. Solo silicio domestico, framework domestico e una narrativa che profuma di autosufficienza tecnologica. Il messaggio politico è chiaro, quasi più del risultato tecnico. Pechino può fare AI avanzata da sola, anche sotto sanzioni. O almeno così vorrebbe sembrare.
Quando i data center diventano un problema politico, significa che l’innovazione ha finalmente incontrato il contatore di casa. Martedì mattina, a Washington, Brad Smith, presidente di Microsoft, ha fatto qualcosa di piuttosto raro per un colosso tecnologico. Ha parlato di elettricità come se fosse una questione sociale, non solo una riga di costo nel bilancio. Il messaggio, tradotto dal linguaggio diplomatico, è semplice. Tranquilli, non vi faremo esplodere la bolletta per alimentare l’intelligenza artificiale.
Dopo anni di espansione frenetica delle capacità, il settore tecnologico sta entrando in una fase più adulta, meno romantica e decisamente più politica. Chi controlla i modelli, chi li integra nei processi reali, chi paga quando qualcosa va storto. Questa è la vera agenda. Il resto è marketing.
La keyword dominante è intelligenza artificiale 2026. Intorno orbitano concetti che fino a ieri sembravano secondari e oggi sono centrali come modelli open source, regolamentazione AI e responsabilità legale dell’AI. Google SGE ama le strutture chiare. Gli esseri umani intelligenti amano le verità scomode. Qui proviamo a soddisfare entrambi, senza illusioni.
Non è il numero di parametri, non è la creatività apparente dei modelli, non è nemmeno la velocità con cui rispondono. È la memoria. La vera strozzatura industriale dell’AI moderna non è il talento ingegneristico né la teoria matematica, ma la banale, costosissima, fisica memoria ad alta banda. DeepSeek lo ha capito prima di molti. E ora lo scrive nero su bianco in un paper che farà discutere più di una keynote.
Il lavoro co firmato da Liang Wenfeng e da un gruppo di ricercatori della Peking University introduce Engram, una tecnica di conditional memory che punta a un obiettivo apparentemente eretico nel culto occidentale del brute force. Scalare i modelli in modo aggressivo senza aumentare proporzionalmente i requisiti di GPU e di HBM. In altre parole, crescere in intelligenza senza crescere in bolletta elettrica e in dipendenza da Nvidia. Per la Cina non è una scelta filosofica, è una necessità geopolitica.
Google oggi sembra in vantaggio sull’intelligenza artificiale. Non perché sia diventata improvvisamente più simpatica, ma perché ha fatto ciò che le riesce meglio da vent’anni: occupare lo spazio prima che qualcun altro si accorga che esiste. L’accordo con Apple per portare l’AI di Mountain View dentro Siri è una di quelle mosse che, a posteriori, verranno descritte come inevitabili. Nel presente, invece, suona come una dichiarazione di potere. Quando controlli la ricerca, il browser, il sistema operativo mobile dominante e ora anche il cervello conversazionale dell’iPhone, non stai semplicemente competendo nel mercato dell’intelligenza artificiale. Stai ridisegnando i confini del potere tecnologico globale.
C’è un momento preciso in cui anche le aziende che hanno costruito imperi sull’illusione dell’autosufficienza devono guardarsi allo specchio. Per Apple quel momento è arrivato oggi, con una frase che pesa come un bilancio trimestrale sbagliato e molto più di mille keynote perfettamente coreografati. Cupertino ha deciso di affidare i suoi modelli di intelligenza artificiale di nuova generazione a Google Gemini. Traduzione per chi ama la chiarezza più della narrativa. Apple, la società che per vent’anni ha predicato l’integrazione verticale come dogma industriale, ha bussato alla porta del suo rivale storico per non restare fuori dalla partita più importante del decennio. Intelligenza artificiale generativa come keyword principale, ma anche come nervo scoperto di un’azienda che ha capito di non potersi permettere un altro rinvio.
C’è stato un momento preciso, negli ultimi anni, in cui abbiamo smesso di fingere che i chatbot fossero davvero utili. Bravi a parlare, impeccabili nel riassumere, sorprendentemente creativi nel produrre testo che sembra pensato da qualcuno che ha letto troppi manuali di management. Poi però arrivava il lavoro vero. File sparsi, cartelle indecenti, screenshot di spese che nessuno aveva voglia di trasformare in un foglio Excel, report iniziati e mai finiti. Ed è lì che Claude Cowork entra in scena, non chiedendo permesso e soprattutto non comportandosi più come un assistente gentile, ma come un collega che apre il tuo computer e si mette a lavorare.
C’è qualcosa di profondamente ironico nel fatto che l’azienda che ha indicizzato il sapere umano stia inciampando proprio dove la precisione non è un optional ma una questione di vita o di qualità della vita. Le Panoramiche AI di Google Search, presentate come l’evoluzione naturale dello snippet in evidenza, promettono risposte rapide, ordinate, rassicuranti. Il problema è che la rassicurazione, in medicina, è spesso il primo sintomo di un errore concettuale. I giornalisti del Guardian hanno fatto ciò che qualsiasi CTO con un minimo di istinto da stress test farebbe: hanno provato a rompere il giocattolo. Non con prompt esoterici, ma con query banali, quotidiane, quelle che milioni di persone digitano quando sono spaventate, stanche o semplicemente confuse davanti a un referto.
Claude for Healthcare non è un prodotto. È una dichiarazione di potere. Anthropic lo sa, OpenAI lo sa, e chiunque abbia mai messo piede in una sala CED di un grande ospedale dovrebbe saperlo. La sanità non è solo un settore verticale. È il campo di battaglia definitivo dell’intelligenza artificiale, quello dove si incrociano dati ad altissima sensibilità, processi regolatori lenti come placche tettoniche e budget che fanno impallidire qualsiasi CFO della Silicon Valley. Quando Anthropic annuncia Claude for Healthcare, non sta semplicemente aggiungendo un’altra feature alla roadmap. Sta dicendo con chiarezza che non intende lasciare a OpenAI il monopolio cognitivo della medicina digitale.
Google ha appena deciso che Gemini non deve più limitarsi a suggerire cosa comprare, ma deve accompagnare l’utente fino all’ultimo gesto, quello più antico e meno filosofico di tutti: pagare. Con Google Pay. E presto anche con PayPal. Il resto è narrativa.
La mossa è apparentemente semplice. Acquisti diretti dentro Gemini e dentro AI Mode, integrazione dei programmi fedeltà, sconti personalizzati, cross selling prima del checkout. Ma sotto questa superficie liscia da comunicato stampa si nasconde una trasformazione radicale. Google sta riscrivendo il flusso del commercio digitale, spostando il punto di decisione dal sito del retailer all’interfaccia conversazionale. Non più ricerca, confronto, click, scheda prodotto, carrello, pagamento. Una sola conversazione. Una sola intenzione. Una sola infrastruttura.
DeepSeek V4 non è solo un altro modello AI che circola nei forum di X e Reddit. Se le voci raccolte da The Information trovano conferma, stiamo osservando un punto di svolta nel mondo dei modelli AI per coding e sviluppo software. Il lancio potrebbe avvenire intorno al 17 febbraio, strategico come il Capodanno lunare, con un focus tecnico puro: generazione di codice su prompt estremamente lunghi e contestualmente complessi. Questo non è rumor di corridoio, è la porta girevole del futuro dellintelligenza artificiale applicata al software engineering.
Google ha deciso che la posta elettronica, così com’è, è un oggetto del Novecento. E oggi lo ha detto senza troppi giri di parole, annunciando una revisione profonda di Gmail con l’integrazione nativa di Gemini 3, il suo modello di intelligenza artificiale più avanzato. Non un restyling cosmetico, ma un cambio di paradigma: la inbox smette di essere un archivio passivo di messaggi e prova a diventare un assistente personale che ragiona, anticipa e risponde.
C’è un momento preciso in cui una tecnologia smette di essere intrattenimento per nerd ben finanziati e diventa infrastruttura. Per Boston Dynamics quel momento è arrivato al CES 2026, quando Atlas, il robot umanoide che per anni ha fatto capriole su YouTube terrorizzando sindacalisti e affascinando venture capitalist, ha finalmente tolto il costume da laboratorio ed è salito sul palco come prodotto commerciale. Non come promessa, non come demo, ma come macchina pensata per lavorare. Il robot umanoide Atlas non è più una metafora del futuro. È una variabile concreta nei bilanci industriali.
C’è un momento preciso in cui una tecnologia smette di essere un giocattolo per power user e diventa un’infrastruttura sociale. ChatGPT Health nasce esattamente lì. Non nel marketing patinato di San Francisco, non nei comunicati rassicuranti sull’uso “solo informativo” dei dati sanitari, ma nel punto in cui milioni di persone hanno già deciso, spontaneamente, di affidare a un modello linguistico le domande più intime sulla propria salute, sul dolore, sull’ansia, sulla morte. OpenAI non sta creando un nuovo bisogno. Sta formalizzando qualcosa che esiste già. E questo è il vero problema.
ChatGPT Health viene presentato come uno strumento di supporto, non di diagnosi, non di trattamento. Linguaggio prudente, studiato con avvocati e medici, come da manuale. Ma la sostanza è più interessante della forma. Consentire la connessione di cartelle cliniche e dati di benessere significa spostare il baricentro della relazione medico paziente. Non verso l’IA, come temono i più ingenui, ma verso la piattaforma che media l’accesso alla conoscenza sanitaria. In altre parole, non stiamo parlando di una nuova app. Stiamo parlando di un nuovo gatekeeper cognitivo.
Elon Musk dice che Nvidia non è una minaccia. Non ancora. Cinque o sei anni, secondo lui. Un orizzonte temporale che nella tecnologia equivale a dire domani mattina, ma detto con il tono giusto suona come un’eternità rassicurante. La dichiarazione arriva dopo il CES 2026, dove Jensen Huang ha mostrato Alpamayo, una famiglia open source di modelli di intelligenza artificiale pensati per la guida autonoma urbana basata su visione artificiale. Telecamere, video, reti neurali. Una Mercedes che si muove per le strade di Las Vegas senza intervento umano. Applausi, demo perfetta, narrativa impeccabile. E Musk che dall’alto del suo impero automotive e mediatico risponde con un sorriso digitale. Funziona, dice, ma non abbastanza. Non ancora.
David Ellison ha un problema che nessuna banca d’affari ammetterà mai in una slide. Non è il prezzo, non è la struttura finanziaria, non è nemmeno il fatto di essere “il figlio di”. Il problema è che sta cercando di comprare il passato mentre tutti fingono di vendere il futuro. Warner Bros Discovery è esattamente questo. Un conglomerato nato tardi, fuso male e invecchiato troppo in fretta, con HBO come gioiello e il resto come zavorra. E la zavorra oggi ha un nome preciso, tv via cavo.
L’offerta di Ellison, trenta dollari per azione per un totale di circa centootto miliardi, è razionale sulla carta. È più alta, più semplice, più generosa di quella di Netflix che vuole solo i pezzi buoni. Ellison lo ha detto apertamente, quasi con una punta di risentimento. Agli azionisti di WBD conviene di più. Tecnicamente è vero. Strategicamente è discutibile. Industrialmente è quasi masochista.
Snowflake compra Observe per circa un miliardo di dollari e il mercato finge sorpresa, che è sempre il primo segnale che la mossa era ovvia da mesi. Non è solo un’acquisizione. È una confessione. L’osservabilità applicativa è diventata troppo strategica per essere lasciata a un fornitore esterno, soprattutto quando l’intero stack dati e AI poggia su volumi che non stanno più nei fogli Excel mentali dei CFO. L’operazione certifica una verità che molti board continuano a rimuovere. L’AI enterprise non scala senza controllo, e il controllo oggi passa dall’osservabilità.

La sparatoria di Minneapolis, in cui un’agente dell’Immigration and Customs Enforcement uccide una donna, non è solo un caso di cronaca nera o un potenziale abuso di potere. È un esperimento sociale a cielo aperto su come la realtà venga compressa, rallentata, sgranata e infine politicizzata fino a diventare irriconoscibile. Il punto non è più cosa sia successo, ma quale video scegli di guardare. O meglio, quale video scegli di credere.
I filmati circolano come frammenti di una verità esplosa. Angolazioni diverse, zoom esasperati che trasformano la scena in un mosaico di pixel, rallenty che suggeriscono intenzioni dove forse c’è solo caos. Alcuni durano venti secondi, altri di più, incorniciati da commenti isterici presi da X, Bluesky, Reddit e TikTok. Ogni clip mostra lo stesso istante, gli spari, le urla, i passanti sconvolti. Ma ogni clip racconta una storia leggermente diversa. E in quell’impercettibile differenza si infilano propaganda, ideologia e potere.
Non è il dibattito scientifico, non è il dissenso teorico, non è nemmeno il conflitto metodologico che dovrebbe essere il segno di un ecosistema intellettuale vivo. È il fruscio continuo di carta digitale inutile, un’incessante produzione di articoli che nessuno leggerà davvero, citati da macchine e valutati da algoritmi. La junkification della ricerca non è un accidente. È un modello industriale.
Il termine junkification nasce per descrivere il degrado delle piattaforme digitali, quando la scala diventa più importante della qualità e il profitto più importante dell’esperienza. Amazon che diventa un bazar di cloni scadenti, Google che seppellisce le risposte sotto strati di advertising, i social che ottimizzano l’engagement fino alla nausea. Applicare questo concetto alla ricerca accademica non è una forzatura retorica. È una fotografia ad alta risoluzione.
Il primo fatto evidente è questo. Nonostante l’amministrazione Trump abbia di recente aperto una porta alle esportazioni dei potenti chip H200 di Nvidia in Cina (una mossa che ha sorpreso molti per la sua portata politica e commerciale), Pechino ha dato un colpo di freno brusco: ha chiesto ad alcune grandi aziende tecnologiche di sospendere gli ordini di H200 in attesa di una decisione formale da parte del governo sui termini e le condizioni di importazione.
Sembra un paradosso degno di un romanzo politico: gli Stati Uniti, nella loro guerra economico-tecnologica con la Cina, legano una mano delle esportazioni a una tassa di esportazione del 25 % pagabile allo Stato, praticamente un licensing con penale incorporata, e dall’altra parte la Cina risponde: calma, ragazzi, prima pensiamo a come e quanto volete comprare.
Meta Platforms ha messo gli occhi su Manus, un sviluppatore di agenti di intelligenza artificiale con origini cinesi, ma il prezzo di 2,5 miliardi di dollari rischia di diventare il detonatore di un caso diplomatico-tecnologico. La notizia non riguarda soltanto una transazione milionaria, ma il confine sottile tra capitali globali, controllo tecnologico e sovranità digitale. Beijing osserva, analizza e valuta se il trasferimento di Manus a Singapore violi le norme di export tecnologico. La preoccupazione non è ideologica, ma strategica: se questo caso passasse liscio, altre startup cinesi potrebbero seguirne l’esempio, esportando tecnologie sensibili senza filtri statali.