Sembra una battuta da cabaret futurista, ma è tutto reale: Google AI Overviews, il fiore all’occhiello dell’era post-search, non sa nemmeno in che anno siamo. Letteralmente. A dodici mesi dal suo debutto trionfale, l’intelligenza artificiale generativa di Mountain View continua a inciampare su dettagli che persino un aspirante stagista umano non sbaglierebbe. Il 2025? Un mistero. Le date? Variabili quantistiche. Il contesto? Fluttuante come una risposta di ChatGPT usato senza prompt ben strutturati.
Categoria: News Pagina 11 di 86
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
Smettiamola di chiamarlo “search”. Davvero. Quello che Perplexity ha appena scaricato sotto il nome innocuo di Labs è un’esplosione termonucleare nella palude dell’informazione online. Dimentica la barra di ricerca stile anni ‘00 e preparati a un assistente AI con la sindrome di Tesla: onnipotente, sempre acceso, e probabilmente troppo intelligente per il tuo bene.
Perché Labs non cerca. Labs capisce. Labs costruisce. Labs fa il lavoro sporco. E lo fa in una sola query, iterativamente, come se l’input utente fosse solo un pretesto per dimostrare che il futuro non ha più bisogno di mouse, né di umani troppo lenti.

Non è la sceneggiatura di una satira politica, è la realtà post-verità che ci meritiamo. Un documento federale la punta di lancia dell’iniziativa “Make America Healthy Again” (MAHA), voluta da Robert F. Kennedy Jr. è stato smascherato come un Frankenstein di fonti fasulle, link rotti e citazioni generate da intelligenza artificiale, con tutti gli errori tipici di una generazione automatica mal supervisionata. No, non è un errore di battitura umano: sono proprio quelle impronte digitali inconfondibili dell’AI, le oaicite, a tradire la genesi siliconica del documento.
La keyword è report MAHA, le secondarie ovvie: ChatGPT, declino dell’aspettativa di vita negli USA. Ma qui il problema non è solo tecnico, è ontologico. Se la verità ufficiale è un’illusione generata da un modello linguistico, cosa rimane della governance democratica? Un reality show scritto da algoritmi, supervisionato da stagisti?

Ci sono dossier, e poi ci sono i dossier. Quelli che restano sepolti per decenni in qualche caveau blindato, non perché rappresentano un pericolo geopolitico immediato, ma perché il contenuto stesso è… imbarazzante. Non per la verità che rivelano, ma per le domande che sollevano. Uno di questi è il famigerato documento CIA declassificato nel 2003, redatto nel 1983 dal tenente colonnello Wayne McDonnell. Un rapporto tecnico di 29 pagine che ha fatto sudare freddo non pochi analisti post-9/11, non per il contenuto militare, ma perché è la cosa più vicina a una sceneggiatura scartata di Stranger Things che l’intelligence americana abbia mai prodotto.
Lo chiamavano il “Gateway Experience”. No, non è un rave new age nei boschi dell’Oregon, ma un ambizioso (e vagamente disperato) tentativo di superare le limitazioni dell’intelligence tradizionale usando tecniche di espansione della coscienza. L’obiettivo? Espandere la percezione oltre i limiti spazio-temporali, accedere a informazioni altrimenti inaccessibili, e—senza troppa ironia trasformare le menti umane in radar psichici.
C’era una volta, nel mondo austero della programmazione, un’epoca in cui il codice era religione, e i dev erano i suoi preti. Solo gli iniziati, quelli che avevano sacrificato anni della propria vita tra manuali, riga di comando e Stack Overflow, potevano avvicinarsi al sacro fuoco della creazione digitale. Poi, come sempre accade quando la gerarchia si fa troppo rigida, arriva la rivoluzione.
Rick Rubin, produttore musicale con la barba da profeta e un palmarès che potrebbe schiacciare qualsiasi ego da Silicon Valley, ci regala un’analogia che squarcia il velo dell’ipocrisia tech. Il vibe coding, dice, è il punk rock della programmazione. Non servono più lauree in ingegneria, non servono anni a lambiccarsi sull’algoritmo perfetto. Bastano tre accordi e un’idea. Bastano le mani sporche e la voglia di dire qualcosa. Sì, anche se non sei Linus Torvalds.

Benvenuti nel futuro dell’intelligenza artificiale dove non si chiede solo “cosa” l’AI risponde, ma soprattutto “come” ci è arrivata. Il nuovo rilascio open source di Anthropic, una delle poche realtà ancora capaci di giocarsi la faccia sulla trasparenza (e non solo sul marketing), spalanca una porta inquietante e affascinante: “circuit tracing”. Una parola che suona tecnica, innocua. Ma sotto c’è una rivoluzione.
Altro che “scatole nere”. Qui si inizia a smontare il cervello stesso del modello. Pezzo per pezzo. Nodo per nodo. Pensiero per pensiero.
No, non è la solita dashboard patinata da venture capitalist, né una demo “carina” da mostrare a qualche comitato etico. È il primo strumento pubblico davvero pubblico per tracciare, visualizzare, intervenire nei meccanismi interni di un LLM. Il cuore dell’operazione sono i grafici di attribuzione. Sembrano diagrammi, ma sono raggi X cognitivi. Ti dicono quale parte del modello ha pensato cosa, e in quale momento.

Nel mondo surreale della governance americana, dove ormai la Silicon Valley è più presente nei corridoi del potere che nelle linee di codice, il sipario è appena caduto su un altro atto tragicomico: Elon Musk abbandona l’amministrazione Trump. Ma il vero spettacolo inizia dopo il suo tweet.
Meno di 24 ore e la catena di dimissioni diventa virale. Steve Davis, genio austero della razionalizzazione economica e uomo ombra di Musk da anni, chiude la porta. Lo segue James Burnham, avvocato e stratega giuridico dietro DOGE (che non è la crypto, tranquilli, ma il fantomatico Dipartimento per l’Efficienza Governativa). Infine, Katie Miller, portavoce con pedigree trumpiano, che ha deciso di saltare giù dal carro per imbarcarsi direttamente sull’astronave Musk.

Siamo ormai nel pieno del barocco dell’intelligenza artificiale. Gli LLM (Large Language Models) sono diventati le nuove cattedrali digitali, costruite con miliardi di parametri e sorrette da GPU che sembrano più reattori nucleari che schede video. In questo panorama di potenze mostruose, dove i soliti noti (OpenAI, Google, Anthropic) dettano legge, si insinua un nome meno blasonato ma decisamente audace: DeepSeek-R1. Non solo open source, ma anche titanico 671 miliardi di parametri, per chi tiene il conto.
La provocazione è chiara: “possiamo competere con GPT-4o, Gemini e soci… e magari anche farlo girare nel vostro datacenter, se siete abbastanza matti da provarci”. Ma è davvero così? Ecco dove entra in scena Seeweb, con la sua Cloud GPU MI300X una vera bestia, con 8 GPU AMD MI300X e un terabyte e mezzo di VRAM a disposizione. E abbiamo deciso di scoprire se tutto questo è solo hype o se c’è ciccia sotto il cofano.

Se pensavate che l’epoca delle tigri asiatiche fosse finita con l’industria manifatturiera, DeepSeek è qui per ricordarvi che oggi il vero impero si costruisce su tensor, modelli linguistici e centri di calcolo raffreddati a liquido. Il nuovo modello R1-0528, evoluzione muscolare e cerebrale del già notevole R1 lanciato a gennaio, è la risposta cinese ai soliti noti: OpenAI, Google, Meta, e per non farci mancare nulla, anche Anthropic.
Ma la vera notizia non è che DeepSeek abbia fatto l’upgrade. È come lo ha fatto, quanto ha osato, e soprattutto perché oggi dovremmo tutti smettere di ridere quando sentiamo “AI cinese”.
Intanto, due parole su hallucinations: no, non parliamo del viaggio lisergico di un algoritmo impazzito, ma dell’incapacità cronica dei LLM (Large Language Models) di distinguere verità da delirio plausibile. DeepSeek sostiene di aver ridotto questi deliri del 50%. Non “un po’ meglio”, ma metà del casino. Questo, nella scala degli upgrade dell’AI, è tipo passare da Chernobyl a una centrale con l’ISO 9001: serve rispetto.

C’è qualcosa di sublime e tragicomico nel vedere il New York Times – che solo pochi mesi fa gridava allo scippo intellettuale puntando il dito contro OpenAI e Microsoft – ora stringere un patto con l’altro colosso della Silicon Valley, Amazon. Non per vendere copie, ovviamente, quelle sono un ricordo sbiadito, ma per fornire contenuti alla macchina famelica dell’intelligenza artificiale. Notizie, ricette, cronache sportive: tutto in pasto ad Alexa+ e ai modelli linguistici che l’e-commerce ha deciso di rispolverare per la sua guerra (tardiva) nell’arena dell’AI generativa.
“Allinea il nostro lavoro a un approccio deliberato che garantisce il giusto valore,” recita il memo ai dipendenti firmato da Meredith Kopit Levien, CEO del Times. Traduzione: meglio vendere che essere saccheggiati gratis. È il principio del “se non puoi batterli, fatturaci sopra”.

Hai mai chiesto a un idiota di pianificarti una vacanza? No? Bene. Google NotebookLM sì, lo ha fatto. Con stile, certo. Con linguaggio fluente, impeccabile. Peccato che ti fa perdere l’aereo, come è successo a Martin Peers. Data sbagliata. Di soli 24 ore. Roba da vacanza annullata o divorzio anticipato.
Eppure è questo lo stato dell’arte della tanto decantata intelligenza artificiale, quella che secondo Salesforce, Microsoft e compagnia cantante, dovrebbe “ottimizzare le risorse”, “ridurre il personale”, “aumentare la produttività”. Ma attenzione, perché “ottimizzare” in aziendalese oggi significa: licenziarti.

C’è una data di scadenza scritta a matita (ma sempre più marcata) sull’attuale paradigma di addestramento dell’intelligenza artificiale: quello basato su dati umani. Libri, articoli, codici, commenti, tweet, video, wiki, slide universitarie, call center, forum obsoleti di Stack Overflow, blog dimenticati e refusi di Wikipedia… Tutto macinato, frullato, digestato per alimentare il mostro semantico dei Large Language Models. Ma la festa sta per finire. E la domanda, quasi da evangelisti all’ultimo talk di una conferenza AI, rimbalza ovunque: cosa succederà quando i dati umani non basteranno più?

A volte penso che se l’umanità dovesse collassare domani, la sua ultima trasmissione sarebbe una gif di un gatto in slow motion su TikTok, caricata a 8K via fibra ottica. E se non arriverà, sarà colpa del bandwidth o meglio, della sua agonia.
Viviamo in un paradosso digitale. Da una parte, le infrastrutture dell’internet sembrano opere divine: cavi sottomarini che attraversano oceani, fotoni che danzano lungo fibre di vetro sottili come un capello, switch che operano in nanosecondi. Dall’altra parte, una videocamera di sorveglianza nel tuo frigorifero può causare congestione di rete perché sì, anche lei vuole parlare con un server in Oregon.
Il problema della banda larga non è una novità. È una valanga tecnologica che abbiamo deciso di ignorare, mentre tutto e intendo tutto: lavatrici, auto, sex toys, bambini, animali domestici, dispositivi medici si connette al cloud, che di “etereo” ha solo il nome. La verità è che il cloud è fatto di hardware infernale, con un cuore pulsante che si chiama fibra ottica. Ed è qui che entra in scena una novità tanto invisibile quanto rivoluzionaria: l’amplificatore ottico svedese.

Non lo dicono ancora ufficialmente, ma la tensione è palpabile. Nvidia è finita nel mezzo di una guerra che non ha voluto combattere, ma da cui non può uscire. Il gigante dell’intelligenza artificiale, la fabbrica di chip più ambita del pianeta, ha appena fatto una mezza ammissione: il chip AI per la Cina non è pronto. Tradotto: l’America ha colpito, e Nvidia sta ancora cercando di capire dove sanguina.
Jensen Huang, CEO con la giacca di pelle e lo sguardo da filosofo californiano, lo ha detto durante l’ultima earnings call con la freddezza tipica di chi sa che ogni parola sarà sezionata da analisti, burocrati e lupi di Wall Street. “Non abbiamo nulla da annunciare al momento”, ha detto, lasciando intendere che qualcosa bolle in pentola, ma che per ora il fuoco è spento. O meglio: bloccato da Washington.

Benvenuti nell’era dell’intelligenza artificiale dove l’unico limite non è l’etica, né la regolamentazione, ma il wattaggio. Se pensavate che il mining di Bitcoin fosse il campione mondiale dell’inutilità energetica su scala industriale, sappiate che c’è un nuovo concorrente affamato in pista: l’AI. Quella che vi risponde, vi suggerisce ricette, vi scrive email e che – ironia suprema – vi consiglia di ridurre la vostra impronta ecologica mentre brucia energia come una Las Vegas digitale.
Secondo un’analisi pubblicata sulla rivista Joule da Alex de Vries-Gao, noto per aver tenuto sotto controllo per anni il disastro energetico delle criptovalute su Digiconomist, l’AI sta rapidamente prendendo il testimone energetico lasciato libero da Ethereum. Quest’ultima, ricordiamolo, è passata a un sistema di validazione che consuma il 99.988% in meno di energia. Un esempio virtuoso, certo. Ma che pare aver ispirato pochi.
De Vries-Gao, armato di pazienza accademica e sarcasmo implicito, ha usato una tecnica che definisce “triangolazione” per stimare il consumo energetico dell’AI. Perché le big tech, ovviamente, non sono molto inclini a dichiarare apertamente quanta energia divorano i loro modelli linguistici e visionari. Troppa vergogna, o forse solo troppo profitto per mettersi a contare i kilowatt.
Trent’anni e non sentirli: Aiip festeggia, l’Internet italiano resiste 🇮🇹
Oggi, nella sfarzosa Sala della Regina a Montecitorio dove di solito riecheggiano discorsi impolverati e cerimonie da Prima Repubblica è andata in scena una celebrazione che, in un Paese che ama seppellire l’innovazione sotto regolamenti arcaici, ha il sapore della piccola rivoluzione.
Trent’anni di Aiip. L’Associazione Italiana Internet Provider. Fondata quando i modem facevano rumore, i bit costavano caro e parlare di “concorrenza” nel settore telecom era un eufemismo. O una bestemmia. Eppure eccola lì, viva, vegeta, e paradossalmente più lucida di molti dei suoi (presunti) eredi digitali.
E no, non è la solita autocelebrazione da ente stanco. Perché Antonio Baldassarra che non si limita a esserci, ma ci mette del suo è salito sul palco con quella combinazione rara di competenza tecnica e provocazione lucida che solo chi ha il coraggio di dire la verità riesce a maneggiare.
“Il futuro non si prevede, si costruisce”, ha detto. Chi lavora con la rete lo sa: non si tratta solo di cavi e pacchetti IP, ma di visione. Di scegliere da che parte stare. E Aiip, in questi decenni, ha fatto una scelta netta: quella della libertà, della neutralità, della concorrenza vera.
Benvenuti nel capitalismo 3.0, dove gli affitti non li decidono più i padroni di casa, ma una riga di codice. E non un codice qualunque: quello di RealPage, la software house accusata di aver trasformato la legge della domanda e dell’offerta in una simulazione truccata. Il concetto chiave? Rent algorithm, condito da intelligenza artificiale e da una silenziosa collusione tra giganti immobiliari. Il tutto sotto l’occhio ammiccante di legislatori più interessati ai budget dei lobbisti che alle bollette dei cittadini.
E ora, a rincarare la dose, spunta una proposta che suona come uno scudo legislativo su misura: un emendamento infilato nel disegno di legge di riconciliazione di bilancio dei Repubblicani che, udite udite, vieterebbe agli Stati americani di regolamentare l’IA per i prossimi dieci anni. Dieci. Come dire: fatevi prendere per il collo da un algoritmo e zitti per un decennio. Perché? Perché i padroni del silicio vogliono il campo libero per “ottimizzare” leggi: automatizzare l’avidità.

Google ha deciso che no, non ti meriti l’intelligenza artificiale offline.
Non più, almeno.
Il toolkit che permetteva di eseguire modelli open-source localmente, in edge, senza cloud, è stato abbandonato. Smantellato. Eliminato con la nonchalance tipica delle Big Tech quando qualcosa diventa troppo utile per essere libero.

C’è un nuovo cavallo da corsa nell’ippodromo dell’AI generativa, e non sta giocando pulito. Si chiama Codestral Embed e lo ha rilasciato Mistral, quel laboratorio francese che sta diventando la nemesi europea di OpenAI. Ma attenzione: questa volta non si tratta di un LLM da palco, ma di qualcosa di più sottile e micidiale un modello di embedding specializzato per il codice, e la notizia è che surclassa OpenAI e Cohere nei benchmark reali, quelli che contano per chi vive scrivendo codice, non post su LinkedIn.
Mistral non sta più semplicemente inseguendo. Sta mordendo le caviglie del leader e, ironicamente, lo fa usando un’arma “da retrobottega”: un embedder. Lontano dai riflettori, vicino ai developer.

C’è un silenzioso ma potentissimo colpo di stato in atto nei corridoi digitali di Google Workspace. Lo chiamano Gemini in Drive, e la sua missione è semplice quanto devastante per l’antico rituale del “guardarsi il video della riunione persa”. Ora lo fa lui. Lo guarda lui. E ti dice anche quello che ti serve sapere, senza che tu debba perdere mezz’ora della tua vita a fissare slide mosce e volti smarriti in videocall.
La novità è semplice nella sua superficie ma profonda nel suo impatto: Gemini ora riassume anche i video archiviati su Google Drive, dopo aver già colonizzato documenti e PDF con le sue sintesi algoritmiche. C’è un chatbot, ovviamente, con quella faccia finta-amichevole da assistente che “ti aiuta”, ma dietro c’è il motore semantico di Google che comincia a comprendere i contenuti visivi e trasformarli in azione testuale.

La notizia è di quelle che fanno alzare il sopracciglio anche ai più abituati al cinismo del capitalismo digitale. Il New York Times, simbolo storico del giornalismo d’élite, ha stretto un accordo pluriennale con Amazon per concedere in licenza la propria intelligenza editoriale. Tradotto: articoli, ricette, risultati sportivi e micro-pillole informative verranno digeriti, frammentati e recitati da Alexa, il pappagallo AI che ti sveglia la mattina e ti ricorda che hai finito il latte. E ovviamente, serviranno anche per allenare i cervelli artificiali di Amazon. Così, con un colpo solo, Bezos si compra l’eloquenza della Gray Lady e un po’ del suo cervello.
Certo, l’operazione viene incorniciata nella retorica del “giornalismo di qualità che merita di essere pagato”, ma sotto la lacca da comunicato stampa si intravede chiaramente il vero motore: una guerra di trincea tra editori tradizionali e giganti dell’IA per stabilire chi paga chi, quanto e per cosa. Dopo aver querelato OpenAI e Microsoft per “furto su larga scala” di contenuti più di qualche milione di articoli usati per addestrare modelli linguistici il New York Times si è infilato nel letto con un altro dei grandi predatori della Silicon Valley.

ITALIC: An Italian Culture-Aware Natural Language Benchmark
Ecco, ci siamo. ITALIC. Il benchmark “cultura-centrico” nato in Italia per misurare la comprensione linguistica e culturale degli LLM. E già dal nome parte l’equivoco: ITALIC sembra più un font che un dataset. Ma dentro c’è molto di più: diecimila domande prese da concorsi pubblici, test ministeriali, esami militari, con un gusto tutto italiano per l’iper-regolamentazione e l’esame a crocette. Una macchina perfetta per replicare il labirinto normativo e semiotico dello stivale. Ma c’è un punto che non possiamo ignorare: è davvero un buon lavoro o solo un’altra torre d’avorio accademica travestita da AI progressista?
Il sospetto del “bias italiano”, di quel provincialismo digitale travestito da resistenza culturale, è legittimo. ITALIC non nasce per allenare ma per misurare, e misura solo una cosa: quanto un modello capisce l’italiano “di Stato”, quello dei quiz del Ministero, delle domande sulla Costituzione, delle nozioni da manuale di scuola media. Non c’è nulla di “colloquiale”, nulla di “dialettale”, nulla di quella viva e ambigua lingua parlata che ogni giorno sfugge al formalismo. Quindi sì, è un benchmark italiano, ma è anche profondamente istituzionale.
Benvenuti nell’epoca in cui anche il vostro cane potrà dirigere un cortometraggio, purché mastichi qualche comando testuale e abbia accesso a Runway o a Google Veo. Il cortometraggio My Robot & Me è il manifesto involontario o forse sottilmente intenzionale di questa nuova era: l’AI può fare (quasi) tutto, ma la creatività resta l’ultimo baluardo umano. Per ora.
Parliamoci chiaro: la storia parte con un incipit da presentazione TEDx. “Silenzia il cellulare, mastica piano il popcorn, e ricordati che tutto ciò che vedi è stato generato dall’intelligenza artificiale”. Eppure non è solo un esercizio di stile o una demo per geek con troppo tempo libero. È una provocazione culturale, un test sul campo, un assaggio di un futuro dove la produzione video e forse tutto il settore creativo sarà riscritto, una prompt alla volta.

Nel teatro geopolitico dei semiconduttori, dove si combatte con wafer e transistor invece che con baionette e bandiere, Nvidia si presenta come quel personaggio improbabile che, pur zoppicando vistosamente, arriva comunque primo al traguardo. Sì, perché l’azienda guidata da Jensen Huang si è appena vista sfilare dal tavolo cinese 8 miliardi di dollari come se niente fosse, per effetto dei nuovi controlli sulle esportazioni imposti da Washington, eppure… il trimestre vola. E non vola a caso: +50% sul fatturato anno su anno, previsione a 45 miliardi. In pratica, Nvidia stampa soldi anche quando dovrebbe affogare.
Questa è la nuova aritmetica del capitalismo AI-driven: puoi perdere un intero mercato (la Cina) e continuare a macinare record su record. Il segreto? Semplice: essere l’unico spacciatore autorizzato di droga computazionale per i modelli linguistici di nuova generazione. Loro hanno gli H100, tu no. Fine della discussione.

La mossa è chirurgica, ma il bisturi è arrugginito e il paziente è globale. Gli Stati Uniti, ancora una volta, tirano il freno a mano sull’export tecnologico verso la Cina, questa volta colpendo il cuore invisibile dell’innovazione: l’Electronic Design Automation, EDA per gli adepti, il software che non costruisce chip, ma li rende possibili. Senza EDA, progettare semiconduttori diventa un’arte rupestre. Lo riferisce il Financial Times, sempre più simile a un bollettino di guerra commerciale piuttosto che a un quotidiano economico.
Ma andiamo con ordine, se ordine si può chiamare questa escalation da Guerra Fredda digitale. A partire da maggio 2025, ogni singolo byte di software EDA che voglia attraversare il Pacifico verso Pechino dovrà essere accompagnato da una licenza di esportazione concessa – o negata – dal Bureau of Industry and Security del Dipartimento del Commercio USA. E no, non si tratta più solo di tool per chip all’avanguardia: adesso il divieto si estende a tutta la linea di prodotti, dall’entry-level al bleeding edge. Anche i cacciaviti digitali sono considerati arma strategica.

Cosa succede quando un tecnocrate con deliri da ingegnere zen si lancia nella giungla burocratica di Washington? Succede Elon Musk. E succede che, dopo una breve ma devastante parentesi come special government employee una carica tanto ambigua quanto pericolosa l’uomo che voleva rendere il governo americano “snello come un razzo Falcon” si ritira con un tweet degno di un film Marvel: la missione non è finita, anzi, è diventata uno stile di vita. Per chi, però, non è chiaro.
Benvenuti nel DOGE, il Dipartimento per l’Efficienza Governativa, partorito dall’ego collettivo di Musk e di un’amministrazione Trump ormai sempre più modellata come una startup tossica in fase di IPO permanente. Una macchina da guerra neoliberista travestita da innovazione, il DOGE non ha risparmiato nessuno: migliaia di dipendenti federali licenziati, intere agenzie federali smantellate come fossero rami secchi di un’azienda in crisi, tagli lineari mascherati da “ottimizzazione”.

Cosa sei disposto a cedere per provare di essere umano? Una domanda che un tempo avrebbe fatto sorridere i più. Oggi, invece, assume contorni squisitamente reali, con un valore preciso, misurabile, convertibile: 42 dollari in Worldcoin, una criptovaluta creata ad hoc per costruire la più ambiziosa infrastruttura di identità digitale globale mai tentata. Tutto questo grazie a Orb, un globo futuristico che scansiona il tuo occhio e ti dà in cambio un’identità verificata. E, appunto, quei 42 dollari.
Sembra una puntata distopica di Black Mirror e invece è una strategia di business. Geniale? Forse. Inquietante? Sicuramente. Ma soprattutto, è un’operazione di potere mascherata da inclusività tecnologica. Un’utopia travestita da soluzione.
La tecnologia è, a ben vedere, di una semplicità disarmante: guardi dentro l’Orb, ti viene scannerizzata l’iride, ne esce un codice binario lungo 12.800 cifre, una sorta di DNA digitale, e voilà, sei un essere umano certificato. Il codice viaggia sul tuo smartphone, associato a un’app. Tu ricevi la tua moneta, loro ricevono la tua identità.

Trump ha detto no. Il Deep State del chip ha risposto: “Ok, ma solo fino alla prossima trimestrale.”
È il genere di teatro geopolitico che solo il capitalismo terminale può offrire con così tanta grazia grottesca. Mentre la Casa Bianca chiude i rubinetti tecnologici alla Cina, Nvidia – il dio monoculare dell’AI moderno – continua a macinare utili con la naturalezza con cui un server Apache gestisce richieste: freddamente, incessantemente, incurante del contesto.
Il blocco dei chip AI verso Pechino è stato sbandierato da Trump come una mossa patriottica, un colpo di karate economico alla gola dell’intelligenza artificiale cinese. In realtà, è servito a ben poco: Nvidia ha appena pubblicato numeri talmente buoni da far arrossire persino Cupertino e Mountain View. 26 miliardi di free cash flow in un solo trimestre. Roba che nemmeno la somma di Apple e Google riesce a replicare. E mentre la Cina scompare dalla mappa delle vendite (con un buco dichiarato di 10,5 miliardi su due trimestri), gli USA e i loro alleati tecnologici si accalcano a comprare ogni singolo transistor disponibile.

Il Giappone, quel laboratorio sociotecnico a cielo aperto dove l’ossessione per il dettaglio incontra la riluttanza al cambiamento, sta per essere scosso da qualcosa di piccolo, minuscolo, quasi ridicolo. Ma, come spesso accade in queste isole, ciò che sembra irrilevante può diventare fatale per i giganti.
A Higashihiroshima, in una di quelle periferie dimenticate dove il tempo passa in silenzio e i vicoli si stringono come i pensieri nei lunedì mattina, un ex YouTuber convertito in imprenditore sta per dare una lezione imbarazzante all’intera industria automobilistica nazionale. Il suo nome è Kazunari Kusunoki. Il suo giocattolo: il mibot, una scatoletta a quattro ruote da un posto solo, alimentata a batteria, che costa meno di uno scooter truccato. Ma attenzione: dietro l’estetica da golf cart c’è l’incubo di Akio Toyoda.

Nel panorama dell’intelligenza artificiale, dove le grandi aziende si contendono il primato a colpi di innovazione e potenza di calcolo, è emersa una nuova protagonista: DeepSeek. Con il rilascio della versione 0528 del modello DeepSeek-R1, l’azienda cinese ha lanciato un messaggio chiaro e potente: la Cina è pronta a giocare un ruolo da protagonista nel campo dell’IA.
Il modello DeepSeek-R1-0528 è stato pubblicato su HuggingFace senza alcun annuncio ufficiale, senza una Model Card, senza un Technical Report. Un gesto che ha il sapore della sfida, un modo per dire: “Siamo qui, e siamo pronti a cambiare le regole del gioco”.

Là dove l’Impero Celeste chiude le porte, l’Impero dell’Ovest dovrebbe spalancarle. Non per amore della libertà — concetto vago e flessibile, soprattutto quando si parla di politica monetaria — ma per strategia, dominio tecnologico e quel sottile desiderio di mettere i bastoni tra le ruote a Xi Jinping. Così ha parlato il vicepresidente degli Stati Uniti J.D. Vance alla Bitcoin Conference di Las Vegas, senza troppi giri di parole: “La Cina odia Bitcoin. Noi, quindi, dovremmo abbracciarlo.”
Un pensiero semplice, quasi infantile nella sua linearità, eppure tremendamente efficace in termini geopolitici. Perché sì, la keyword è Bitcoin. E quelle che lo seguono da vicino sono asset strategico e riserva digitale. Il nuovo lessico del potere non parla più solo di missili ipersonici o porti militari in Africa, ma di nodi blockchain e SHA-256.

Un miliardo di utenti al mese. No, non è la capitalizzazione in dollari di un’azienda crypto caduta in disgrazia, è il numero di persone che, secondo Mark Zuckerberg, stanno già usando Meta AI. Sottolineo: già usando. Non “useranno”, non “potrebbero usare”, ma sono lì, ogni mese, ad accarezzare – consapevoli o meno – le meraviglie della generative AI marchiata Meta.
Ed eccolo, il teatro annuale degli azionisti Meta. Zuck, giacca sobria e sguardo da predicatore, ripete il mantra della nuova era: personal AI. Con l’aria di chi non cerca approvazione, ma legittimazione storica. Perché, mentre il mondo gioca ancora a distinguere tra AI “assistente” e AI “infiltrata”, lui se la ride. La sua creatura non aspetta che tu la cerchi. Vive già nelle vene di WhatsApp, Facebook, Instagram. Invisibile, onnipresente, discretamente indispensabile.

Cosa succede quando gli ETF si comportano come i TikToker della finanza?
E quando un co-fondatore di Netflix spunta nel board di un’AI company da battaglia?
E perché Palantir ora si interessa ai mutui, mentre xAI si infila nei DM di Telegram?
Benvenuti nella nuova edizione della newsletter “Tech & Finanza Iniettata” – dove tutto sembra una serie TV con il budget di un hedge fund, ma in realtà è solo il nuovo normal dell’economia algoritmica.

La vendetta dei numeri: come l’IA di Ant sta uccidendo le banche dal di dentro
Non è un nuovo ChatGPT, non scrive poesie, non ti corregge la grammatica. Ma potrebbe essere l’arma più letale che la finanza abbia mai visto. Il Time-Series Transformer (TST) sviluppato da Ant International, costola globale del colosso fintech cinese Ant Group (sì, quelli di Alibaba), non produce contenuti. Produce profitti. O, per dirla meglio, elimina le perdite – chirurgicamente.
La differenza è fondamentale. Mentre il mondo intero corre dietro alla fuffa generativa, l’Asia – come spesso accade – lavora sottotraccia su qualcosa di più concreto: un’intelligenza artificiale che non si limita a interpretare il linguaggio, ma che prevede flussi di cassa, esposizioni valutarie, volatilità, errori di copertura e, soprattutto, comportamenti umani mascherati da numeri.

Siamo nel pieno della febbre dell’intelligenza artificiale applicata alla medicina. Gli articoli si moltiplicano come funghi radioattivi in una foresta post-apocalittica, le promesse si sprecano: diagnosi più rapide, prognosi più accurate, cure personalizzate grazie al miracolo del machine learning. Eppure, sotto la patina brillante della narrazione tecnofila, si nasconde una realtà meno patinata, meno vendibile ai convegni patinati e agli investitori entusiasti: il 96% di questi modelli non è mai stato testato fuori dal suo giardinetto addestrativo. Tradotto in clinichese: sono giocattoli da laboratorio, non strumenti affidabili per la vita reale.
Il problema ha un nome preciso: validazione esterna. Concetto semplice, brutalmente ignorato. Significa prendere un modello e testarlo con dati raccolti in un altro ospedale, in un’altra regione, da un altro team, con altri protocolli. E scoprire, spesso con raccapriccio, che la performance non è più così miracolosa. Succede perché i modelli non sono intelligenti, sono abitudinari: imparano a riconoscere le pieghe dei dati da cui sono nati, ma inciampano appena escono di casa. Più che chirurghi robotici, sono studenti che hanno imparato le domande dell’esame a memoria. E appena cambi università, vanno in crisi esistenziale.

La notizia, riportata con toni trionfali da metà stampa europea, è che Taiwan Semiconductor Manufacturing Company l’indiscusso Leviatano della produzione globale di chip ha deciso di piazzare il suo primo Design Centre nel cuore pulsante della Germania tecnoindustriale: Monaco di Baviera. C’è chi parla di svolta, chi di “autonomia strategica europea”, chi ancora di “rivincita contro Cina e USA”. La realtà, però, è meno poetica e molto più cinica: l’Europa sta solo comprando un biglietto in economy su un aereo che vola da anni verso l’intelligenza artificiale.
Il centro progettuale TSMC, attivo dal terzo trimestre 2025, sarà dedicato a sviluppare chip “high-density, high-performance, energy-efficient” per settori nobili come l’automotive, l’industriale, l’IoT e, ovviamente, l’AI. Ma attenzione: progettare non significa produrre, e soprattutto non significa decidere.

Sembra l’inizio di un film distopico ambientato in una Cina ipertecnologica, ma è tutto reale, documentato e soprattutto perfettamente coerente con la traiettoria evolutiva del capitalismo algoritmico: Alibaba ha appena annunciato che il suo modello AI dedicato alla sanità, integrato nella sua app Quark, ha raggiunto competenze mediche paragonabili a un medico in carne ed ossa. Ma non un tirocinante qualsiasi: parliamo del livello di “Deputy Chief Physician”, un grado che in Cina rappresenta il quarto su cinque nella gerarchia medica. In altre parole: questa intelligenza artificiale ora può potenzialmente sostituire una fascia piuttosto alta della professione.
La keyword principale è intelligenza artificiale sanitaria, ma si incrociano elegantemente anche Qwen, il modello linguistico proprietario di Alibaba, e Quark, l’app che ormai non ha più nulla del motore di ricerca e cloud storage da cui era partita.

Cosa succede quando un cofondatore di Pixar, un po’ di venture capital benedetto da GPU H100 e una moda tecnologica da cavalcare si incontrano in una stanza piena di hype? Nasce Odyssey, la startup che ha deciso di prendere l’idea di un videogioco, togliergli la coerenza, aggiungere una generosa dose di sogno allucinato e venderlo come “il futuro del video”. O almeno, questo è il pitch confezionato per il loro esperimento chiamato “interactive video”, un mondo generato in tempo reale dall’intelligenza artificiale, in cui puoi “camminare” come in un videogioco, ma che sembra più un sogno fatto con troppi cannabinoidi digitali.

C’è una frase che circola tra gli addetti ai lavori da mesi, con l’insistenza di una profezia sottovoce: “L’intelligenza artificiale consumerà più energia di quanto l’umanità ne abbia mai avuto bisogno.” Non è retorica. È uno scenario. E Google, che di futuri se ne intende, ha già scelto il proprio carburante: il nucleare. Non quello vecchio, carbonizzato dalla paura post-Chernobyl, ma quello nuovo, avanzato, strategico, “intelligente” almeno quanto le macchine che deve alimentare.
Come già anticipato, e ampiamente previsto da chi sa leggere il codice dietro le scelte geopolitiche, Mountain View ha formalizzato una partnership con la startup nucleare Elementl Power. Obiettivo? Tre impianti negli Stati Uniti, ognuno da 600 megawatt, per una botta da 1.800 MW complessivi. Non per la rete nazionale, non per la sicurezza energetica del Midwest: per i suoi data center. Quelli che macinano miliardi di parametri, inferenze, LLM, e quegli stessi algoritmi generativi che ci stanno cambiando la pelle, l’etica e ora il clima.

Nel nome dei bambini si giustifica tutto. Lacrime di coccodrillo, appelli alla morale, bandiere agitate nel vento delle elezioni. E così, mentre il governatore del Texas Greg Abbott firma una legge che obbliga Apple e Google a verificare l’età degli utenti prima di farli accedere agli app store, ci troviamo di fronte all’ennesimo teatro del potere dove la parola “sicurezza” nasconde ben altro: il controllo. Il controllo del flusso di dati, della distribuzione del software, dell’identità digitale. E, soprattutto, chi ha l’ultima parola su tutto questo.
La legge texana punta ufficialmente a proteggere i minori da app “pericolose”, social media in testa, passando per app di incontri che – evidentemente – un dodicenne texano avrebbe in cima alla sua lista di desideri digitali. In pratica, si impone alle piattaforme di autenticare l’età degli utenti prima di concedere l’accesso all’App Store. Tradotto nel linguaggio reale: Apple dovrebbe iniziare a chiedere una carta d’identità, un selfie biometrico, o una scansione del DNA prima di farti scaricare TikTok. E poi, questa informazione dovrebbe condividerla con le app di terze parti, quelle stesse contro cui Apple si è sempre battuta per limitare la raccolta dati. La privacy come bandiera, quando conviene.