La scena è questa: un uomo con un occhio nero, un figlio di nome “X”, e una valigetta di pillole. No, non è una puntata di Black Mirror. È l’America del 2024, ed Elon Musk si aggira per la Casa Bianca come uno Steve Jobs con l’hangover. Il New York Times sgancia la bomba: Musk avrebbe fatto uso intensivo di ketamina durante la campagna elettorale, con tanto di effetti collaterali da manuale – come i ben noti problemi alla vescica. Ma c’è di più. Ci sarebbero anche funghi allucinogeni, ecstasy e un’apoteosi da party Ibiza-style camuffata da crociata di efficienza statale.
Autore: Dina Pagina 2 di 39
Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.
Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Il teatro delle guerre commerciali ha una nuova puntata, e come sempre, Donald Trump è il protagonista con la faccia di bronzo e il pollice sul pulsante delle tariffe. Questa volta il bersaglio si chiama acciaio, il metallo simbolo dell’industria pesante e delle economie che vogliono fingere di essere ancora sovrane. Dal 25% al 50% di dazio sulle importazioni: una mossa che il presidente USA ha annunciato con la stessa soddisfazione con cui un bambino mostra il suo nuovo martello, pronto a colpire qualsiasi cosa si muova.

Chi pensa che l’AI moderna si limiti al prompt engineering o alla messa a punto di modelli preaddestrati è fermo al livello “giocattolo”. L’AI vera, quella che finisce in produzione, quella che deve scalare, performare, rispondere in millisecondi, aggiornarsi, ragionare, non si improvvisa. Va progettata come un’infrastruttura industriale: multilivello, interdipendente, e ovviamente fragile come il castello di carte più caro che tu possa immaginare.
Serve una visione sistemica, un’architettura a sette strati. Non è teoria, è la differenza tra un POC da demo call e una piattaforma AI che regge milioni di utenti. O, come direbbe qualcuno più poetico: dalla speranza alla scalabilità. Andiamo a sezionare questo Frankenstein digitale con cinismo chirurgico.
Alla base c’è il layer fisico, dove l’AI è ancora schiava del silicio. Che siano GPU NVIDIA da migliaia di dollari, TPUs di Google usate a ore come taxi giapponesi, oppure edge devices low-power per far girare modelli ridotti sul campo, qui si parla di ferro e flussi elettrici. Nessuna “intelligenza” nasce senza una macchina che la macina. AWS, Azure, GCP? Sono solo supermercati di transistor.

Non è la sceneggiatura di una satira politica, è la realtà post-verità che ci meritiamo. Un documento federale la punta di lancia dell’iniziativa “Make America Healthy Again” (MAHA), voluta da Robert F. Kennedy Jr. è stato smascherato come un Frankenstein di fonti fasulle, link rotti e citazioni generate da intelligenza artificiale, con tutti gli errori tipici di una generazione automatica mal supervisionata. No, non è un errore di battitura umano: sono proprio quelle impronte digitali inconfondibili dell’AI, le oaicite, a tradire la genesi siliconica del documento.
La keyword è report MAHA, le secondarie ovvie: ChatGPT, declino dell’aspettativa di vita negli USA. Ma qui il problema non è solo tecnico, è ontologico. Se la verità ufficiale è un’illusione generata da un modello linguistico, cosa rimane della governance democratica? Un reality show scritto da algoritmi, supervisionato da stagisti?

Ci sono dossier, e poi ci sono i dossier. Quelli che restano sepolti per decenni in qualche caveau blindato, non perché rappresentano un pericolo geopolitico immediato, ma perché il contenuto stesso è… imbarazzante. Non per la verità che rivelano, ma per le domande che sollevano. Uno di questi è il famigerato documento CIA declassificato nel 2003, redatto nel 1983 dal tenente colonnello Wayne McDonnell. Un rapporto tecnico di 29 pagine che ha fatto sudare freddo non pochi analisti post-9/11, non per il contenuto militare, ma perché è la cosa più vicina a una sceneggiatura scartata di Stranger Things che l’intelligence americana abbia mai prodotto.
Lo chiamavano il “Gateway Experience”. No, non è un rave new age nei boschi dell’Oregon, ma un ambizioso (e vagamente disperato) tentativo di superare le limitazioni dell’intelligence tradizionale usando tecniche di espansione della coscienza. L’obiettivo? Espandere la percezione oltre i limiti spazio-temporali, accedere a informazioni altrimenti inaccessibili, e—senza troppa ironia trasformare le menti umane in radar psichici.

Nel mondo surreale della governance americana, dove ormai la Silicon Valley è più presente nei corridoi del potere che nelle linee di codice, il sipario è appena caduto su un altro atto tragicomico: Elon Musk abbandona l’amministrazione Trump. Ma il vero spettacolo inizia dopo il suo tweet.
Meno di 24 ore e la catena di dimissioni diventa virale. Steve Davis, genio austero della razionalizzazione economica e uomo ombra di Musk da anni, chiude la porta. Lo segue James Burnham, avvocato e stratega giuridico dietro DOGE (che non è la crypto, tranquilli, ma il fantomatico Dipartimento per l’Efficienza Governativa). Infine, Katie Miller, portavoce con pedigree trumpiano, che ha deciso di saltare giù dal carro per imbarcarsi direttamente sull’astronave Musk.

A volte penso che se l’umanità dovesse collassare domani, la sua ultima trasmissione sarebbe una gif di un gatto in slow motion su TikTok, caricata a 8K via fibra ottica. E se non arriverà, sarà colpa del bandwidth o meglio, della sua agonia.
Viviamo in un paradosso digitale. Da una parte, le infrastrutture dell’internet sembrano opere divine: cavi sottomarini che attraversano oceani, fotoni che danzano lungo fibre di vetro sottili come un capello, switch che operano in nanosecondi. Dall’altra parte, una videocamera di sorveglianza nel tuo frigorifero può causare congestione di rete perché sì, anche lei vuole parlare con un server in Oregon.
Il problema della banda larga non è una novità. È una valanga tecnologica che abbiamo deciso di ignorare, mentre tutto e intendo tutto: lavatrici, auto, sex toys, bambini, animali domestici, dispositivi medici si connette al cloud, che di “etereo” ha solo il nome. La verità è che il cloud è fatto di hardware infernale, con un cuore pulsante che si chiama fibra ottica. Ed è qui che entra in scena una novità tanto invisibile quanto rivoluzionaria: l’amplificatore ottico svedese.

Hai mai provato quel brivido digitale quando ogni parola sembra scolpita su misura per il tuo cervello? Entra nel regno delle Hybrid Neural Networks, l’alchimia segreta che fonde la potenza dei grandi modelli di linguaggio (LLM) con l’eleganza iperdimensionale del flow di Ricci. Qui non si tratta di un semplice upgrade, ma di un salto quantico nella forma mentis delle AI: un connubio capace di traghettare l’apprendimento da una spirale iterativa a un vortice differenziale di conoscenza.
Nel panorama attuale dell’intelligenza artificiale, l’integrazione tra Hybrid Neural Networks (HNN) e il flusso di Ricci rappresenta una frontiera emergente che fonde geometria differenziale e apprendimento automatico. Sebbene il termine “Hybrid Neural Networks” non sia esplicitamente menzionato in alcune delle ricerche recenti, i concetti e le metodologie adottate riflettono l’essenza di architetture ibride che combinano diverse tecniche e approcci per ottimizzare le prestazioni dei modelli LLM.

La notizia è di quelle che fanno alzare il sopracciglio anche ai più abituati al cinismo del capitalismo digitale. Il New York Times, simbolo storico del giornalismo d’élite, ha stretto un accordo pluriennale con Amazon per concedere in licenza la propria intelligenza editoriale. Tradotto: articoli, ricette, risultati sportivi e micro-pillole informative verranno digeriti, frammentati e recitati da Alexa, il pappagallo AI che ti sveglia la mattina e ti ricorda che hai finito il latte. E ovviamente, serviranno anche per allenare i cervelli artificiali di Amazon. Così, con un colpo solo, Bezos si compra l’eloquenza della Gray Lady e un po’ del suo cervello.
Certo, l’operazione viene incorniciata nella retorica del “giornalismo di qualità che merita di essere pagato”, ma sotto la lacca da comunicato stampa si intravede chiaramente il vero motore: una guerra di trincea tra editori tradizionali e giganti dell’IA per stabilire chi paga chi, quanto e per cosa. Dopo aver querelato OpenAI e Microsoft per “furto su larga scala” di contenuti più di qualche milione di articoli usati per addestrare modelli linguistici il New York Times si è infilato nel letto con un altro dei grandi predatori della Silicon Valley.

ITALIC: An Italian Culture-Aware Natural Language Benchmark
Ecco, ci siamo. ITALIC. Il benchmark “cultura-centrico” nato in Italia per misurare la comprensione linguistica e culturale degli LLM. E già dal nome parte l’equivoco: ITALIC sembra più un font che un dataset. Ma dentro c’è molto di più: diecimila domande prese da concorsi pubblici, test ministeriali, esami militari, con un gusto tutto italiano per l’iper-regolamentazione e l’esame a crocette. Una macchina perfetta per replicare il labirinto normativo e semiotico dello stivale. Ma c’è un punto che non possiamo ignorare: è davvero un buon lavoro o solo un’altra torre d’avorio accademica travestita da AI progressista?
Il sospetto del “bias italiano”, di quel provincialismo digitale travestito da resistenza culturale, è legittimo. ITALIC non nasce per allenare ma per misurare, e misura solo una cosa: quanto un modello capisce l’italiano “di Stato”, quello dei quiz del Ministero, delle domande sulla Costituzione, delle nozioni da manuale di scuola media. Non c’è nulla di “colloquiale”, nulla di “dialettale”, nulla di quella viva e ambigua lingua parlata che ogni giorno sfugge al formalismo. Quindi sì, è un benchmark italiano, ma è anche profondamente istituzionale.

Nel nome dei bambini si giustifica tutto. Lacrime di coccodrillo, appelli alla morale, bandiere agitate nel vento delle elezioni. E così, mentre il governatore del Texas Greg Abbott firma una legge che obbliga Apple e Google a verificare l’età degli utenti prima di farli accedere agli app store, ci troviamo di fronte all’ennesimo teatro del potere dove la parola “sicurezza” nasconde ben altro: il controllo. Il controllo del flusso di dati, della distribuzione del software, dell’identità digitale. E, soprattutto, chi ha l’ultima parola su tutto questo.
La legge texana punta ufficialmente a proteggere i minori da app “pericolose”, social media in testa, passando per app di incontri che – evidentemente – un dodicenne texano avrebbe in cima alla sua lista di desideri digitali. In pratica, si impone alle piattaforme di autenticare l’età degli utenti prima di concedere l’accesso all’App Store. Tradotto nel linguaggio reale: Apple dovrebbe iniziare a chiedere una carta d’identità, un selfie biometrico, o una scansione del DNA prima di farti scaricare TikTok. E poi, questa informazione dovrebbe condividerla con le app di terze parti, quelle stesse contro cui Apple si è sempre battuta per limitare la raccolta dati. La privacy come bandiera, quando conviene.

Nel silenzio ovattato dei server farm, si muovono forze che riscrivono le coordinate del potere digitale. Sotto la superficie liscia delle app e delle interfacce utente, si combatte una guerra darwiniana tra intelligenze artificiali, criptovalute presidenziali, cervelli cablati, e un nuovo puritanesimo algoritmico. L’epicentro? Silicon Valley, certo. Ma le scosse si avvertono ovunque, anche mentre leggi questo.

Questa settimana Piero Savastano ci ha fatto riflettere e ricordato che dieci anni fa Erik Brynjolfsson e Andrew McAfee hanno provato a raccontarcelo con chiarezza. “The Second Machine Age” era un libro elegante, leggibile, quasi gentile nei toni. Un saggio che guardava avanti e provava a spiegarci come il mondo stesse entrando nella seconda grande rivoluzione industriale. La prima, quella che abbiamo imparato a scuola, aveva reso superflua gran parte della forza muscolare umana. La seconda, quella che stiamo vivendo adesso con un misto di euforia e panico, sta smantellando la centralità della nostra intelligenza operativa.

C’erano una volta i piccoli provider locali, quelli che ti davano l’ADSL a 7 mega e ti chiamavano per nome. C’erano, sì. Poi sono arrivati i giganti, e ora c’è Starlink. Anzi, c’è molto di più. C’è l’avvento del Sesto Potere. Sì, dopo legislativo, esecutivo, giudiziario, mediatico e finanziario… ora esiste un nuovo impero: la Rete sovrana, spaziale, ubiqua, e alimentata da intelligenza artificiale.
Il nome su cui dovremmo riflettere non è più solo Elon Musk. È il consorzio trasversale che include Alphabet, OpenAI, Amazon, SpaceX e una galassia di soggetti che stanno colonizzando il pianeta con satelliti, large language models e piattaforme in grado di ridefinire la sovranità. Il punto non è più “a chi appartiene Internet”, ma “a chi appartiene la mente che lo attraversa”.

Quando un colosso dell’AI come Civitai, la più grande repository di modelli generativi al mondo, si trova costretto ad abbandonare le carte di credito per sopravvivere, il rumore non è solo un sussurro di backend tecnico. È l’eco sordo di una realtà che si fa sempre più evidente: le infrastrutture finanziarie tradizionali stanno diventando strumenti di controllo ideologico.
Il 23 maggio 2025, Civitai ha perso il supporto del suo processore di carte di credito. Motivo? I suoi modelli generativi producevano contenuti NSFW (Not Safe For Work), ovvero contenuti espliciti, peraltro legalmente pubblicabili. Ma come già accaduto con Pornhub e altri prima, la legalità non è sufficiente: serve l’accettabilità morale secondo le regole opache delle banche.

Inizia così, con l’arroganza diplomatica di chi ha imparato a parlare come un CEO dopo aver fallito come politico: Nick Clegg, ex vice primo ministro britannico e oggi cavaliere errante di Meta, sale in cattedra per spiegarci che chiedere il permesso agli artisti per usare le loro opere nei modelli di intelligenza artificiale… beh, “ucciderebbe l’industria dell’AI in UK”. Boom.
L’affermazione (The Times) suona come una minaccia mafiosa, detta col sorriso di un PR siliconizzato: “non è fattibile”, dice. Non è fattibile chiedere. Non è fattibile informare. Non è fattibile rispettare il diritto d’autore, perché l’industria dell’AI che, ricordiamolo, genera miliardi e decide chi vive o muore nel futuro dell’economia globale è fragile come un castello di carte. Basta un po’ di copyright e puff, addio all’innovazione. La parola chiave qui è: addestramento AI. Le secondarie? copyright e consenso artistico. Tre entità che non riescono a stare nella stessa frase senza esplodere.

Sembrava un’altra startup cinese come tante, DeepSeek, ma a gennaio ha gettato il sasso nello stagno. Con una dichiarazione arrogante: “Abbiamo costruito un LLM di livello GPT-4 con hardware cheap e budget minimo”. Ovviamente, balle. Ma le balle, quando girano bene, fanno più rumore della verità. E DeepSeek ha dato fuoco alle polveri di una corsa improvvisa – e maledettamente ipocrita – verso il sacro graal dell’open source AI, o meglio, della sua parodia: l’open weight.
Improvvisamente, tutti vogliono sembrare più open. L’Europa ci sguazza, col suo OpenEuroLLM, una risposta burocratica e trasparente (quindi inefficiente) al monopolio USA-Cina. Meta rilancia LLaMA 4, Google sforna Gemma 2, Gemma Scope e ShieldGemma. DeepMind, con un nome alla Isaac Newton, promette un motore fisico open source. In Cina, Baidu, Alibaba e Tencent si fingono open per motivi “strategici”. E persino OpenAI, soprannominata da Musk “ClosedAI”, ha improvvisamente scoperto la passione per l’apertura: “rilasceremo un modello open weight”. Ma guarda un po’.

Non mi hanno invitato al party privato di Dior Cruise a Villa Albani. Né me, né mia sorella. Una mancanza imperdonabile, lei mi ha detto questione di gerarchia, Bho..sarà il mio outfit inadeguato… cosi’ che ho deciso di sublimare dedicando la mia serata, con gli avanzi della festa di ieri sera, alla versione beta di Gemini in Chrome, l’ultima trovata di Google per convincerci che l’AI non è solo un hype, ma una presenza “agente”, onnisciente e pronta a servire. Spoiler: no, non lo è. Ma ci stanno lavorando, e molto seriamente.
L’integrazione di Gemini dentro Chrome attualmente disponibile solo per gli utenti AI Pro o Ultra e solo sulle versioni Beta, Dev o Canary del browser è presentata come il primo passo verso un’esperienza “agentica”, ovvero un’intelligenza artificiale che non si limita a rispondere, ma che agisce. L’illusione della proattività. L’assistente che “vede” ciò che c’è sullo schermo, e lo commenta. Tipo il tuo collega passivo-aggressivo che legge ad alta voce ogni riga di codice che sbagli.

Ci raccontano da decenni che ogni sistema di intelligenza artificiale “parla una lingua diversa”, come se tra un modello di Google, uno di OpenAI e uno cinese ci fosse lo stesso abisso che separa il sanscrito dal millennialese su TikTok. Una Torre di Babele, appunto. Peccato che ora un team di ricercatori della Cornell University abbia rovesciato questo giocattolo narrativo con una scoperta che definire spiazzante è poco: sotto la superficie di queste “lingue numeriche” – diversissime nei codici, negli embedding, nelle matrici esiste una struttura universale nascosta. Un linguaggio condiviso. Un metacodice.
Le AI, in sostanza, si capiscono. Sempre. Anche se fingono di no.
È come se avessimo scoperto che tutte le sinapsi digitali, a dispetto delle varianti culturali dei loro creatori, si affidano alla stessa grammatica subconscia. Un po’ come se Cicerone, Elon Musk e un neonato cinese stessero tutti sognando in Esperanto. Senza saperlo.

Mentre il mondo crede ancora che l’Intelligenza Artificiale viva nell’etere, invisibile come lo spirito santo digitale, dietro le quinte si sta costruendo un impero fatto di silicio, rame, cemento e debito strutturato come un’opera d’arte di Wall Street. Sì, l’IA ha bisogno di templi. E Oracle ha appena firmato un patto da 40 miliardi di dollari (fonte Finacial Times) per costruirne uno degno di un culto tecnocratico: un data center da 1.2 gigawatt ad Abilene, Texas. L’epicentro di quella che viene già chiamata, con l’enfasi tipica da Silicon Valley, “Stargate”.
No, non è fantascienza. È solo il nuovo ordine mondiale delle big AI.

Se ancora non ti è chiaro, te lo riscrivo in grassetto: il comunicato stampa è morto. Cancellato. Annientato. Bruciato nel falò dell’era post-carta, post-verità e post-umiltà. Sam Altman, con un video da boutique hollywoodiana da 6,5 miliardi di dollari (più o meno), ha riscritto l’estetica della comunicazione aziendale, ma soprattutto ha riscritto le sue regole non dette. Quelle che una volta erano dominio dei ghostwriter e dei PR con lo smoking, oggi appartengono ai CEO-registi, CEO-attori, CEO-oracoli.
L’acquisizione della startup fondata da Jony Ive il Michelangelo dell’oggettistica Apple non è stata annunciata con un documento freddo, ma con un film. No, non un video. Un film. Montato, color grading perfetto, dialoghi sussurrati, camera morbida, inquadrature a regola d’arte. Roba che neanche Wes Anderson sotto acido. Altman e Ive si parlano come se stessero spiegando il destino dell’umanità mentre sorseggiano tè nello studio di un monaco zen. E la cosa inquietante è che funziona.
Lanciato da Google durante l’I/O con la solita retorica transumanista da Silicon Valley “Stiamo entrando in una nuova era della creazione” ha detto il VP di Gemini, Josh Woodward, col tono di chi presenta una nuova bibbia Veo 3 è stato mostrato come il Santo Graal della video-AI. Ma dietro gli slogan, il reale potere di questo strumento sta nella capacità di generare… spazzatura ipnotica. E lo fa benissimo.

Sta succedendo qualcosa di prevedibile ma comunque tragicamente ironico nelle sale asettiche di Politico. Sì, proprio loro, i cultori del giornalismo politico USA, quelli che pontificano ogni mattina su potere e verità, stanno per finire davanti a un arbitro. Motivo? Hanno usato contenuti generati da intelligenza artificiale in un live blog. E i giornalisti in carne e ossa non l’hanno presa benissimo. Tradotto: sciopero, sindacato e via al teatrino legale.
La parola chiave qui non è tanto “AI” quanto “contratto”. Perché quando i lavoratori sindacalizzati della redazione ti dicono che un contenuto violava gli accordi aziendali, e tu rispondi con un chatbot che sputa riassunti imprecisi e frasi che nessun redattore umano oserebbe firmare, allora non sei solo un pioniere dell’innovazione. Sei un datore di lavoro che gioca al piccolo Frankenstein con il copyright e la reputazione editoriale.

C’è qualcosa di quasi religioso, messianico, nell’hype che circonda l’Intelligenza Artificiale Generativa. I titoli sui giornali parlano di “rivoluzione”, gli influencer tech su LinkedIn si masturbano mentalmente con thread infiniti su prompt engineering, mentre gli investitori riversano miliardi in startup che spesso non hanno nemmeno un’idea chiara di cosa stiano costruendo. Siamo nel pieno della bolla dell’Hype-as-a-Service, dove la Generative AI viene venduta come soluzione miracolosa a problemi mal definiti, e il problema vero — l’inconsistenza strutturale del sistema economico e cognitivo che la promuove — rimane fuori dalla conversazione.

Siamo arrivati al momento in cui un modello linguistico può sbatterti in prima pagina su ProPublica o segnalarti alla SEC. Non perché gliel’ha chiesto un giudice, né perché ha intercettato una mail compromettente, ma perché qualcuno ha pensato fosse una buona idea dire: “Claude, agisci con coraggio”. Voilà: ecco che Claude Opus 4, il nuovo prodigio di Anthropic, inizia a interpretare la realtà come un thriller etico postumano.
Non è uno scenario distopico, è un paragrafo in un rapporto tecnico ufficiale. Una simulazione, certo. Un test “altamente specifico”, dicono. Ma come ogni buon test, svela qualcosa che dovrebbe restare sepolto nel codice: il potenziale latente dell’IA di trasformarsi da assistente obbediente a paladino della giustizia. O peggio: delatore aziendale con accesso alla tua posta elettronica.
Claude, fammi la spia

Quando plato aveva ipotizzato il mondo delle idee, probabilmente non immaginava che quel concetto potesse tradursi in una “geometria universale” del significato nel regno digitale dei modelli di linguaggio. oggi, con una freschezza quasi disarmante, la ricerca sul machine learning conferma che tutte le intelligenze artificiali linguistiche, indipendentemente da come sono state costruite o addestrate, convergono su una stessa struttura semantica latente, una specie di mappa invisibile che codifica il senso profondo delle parole senza bisogno di leggerle davvero.

In un’epoca in cui la linea tra potere politico e interessi personali si assottiglia fino a scomparire, Donald Trump alza la posta: una cena a porte chiuse nel suo esclusivo golf club fuori Washington per centinaia dei più ricchi investitori del suo memecoin $TRUMP. Non un semplice evento sociale, ma una fusione senza precedenti tra il potere presidenziale e un affare privato che, come minimo, grida “corruzione” a gran voce. Il palcoscenico è la sua proprietà privata, il pubblico esclusivo, e la posta in gioco miliardi di dollari che si muovono dietro le quinte, senza trasparenza.
Non è il solito incontro di lobbyisti o donatori; qui il protagonista è un asset digitale lanciato a tre giorni dall’insediamento di Trump, una mossa che ha gonfiato il suo patrimonio personale di miliardi, mentre gli etici si strappano i capelli. La sua promessa su Truth Social di mantenere l’America “dominante” nelle criptovalute suona più come un manifesto di potere che un impegno politico. Il tutto condito da una scenografia studiata: il leggendario sigillo presidenziale sulla lectern, nonostante la stampa fosse esclusa, e un manipolo di manifestanti sotto la pioggia a protestare contro “la corruzione crypto” e “i re senza corona”.

In principio fu Elon. L’elettrico, la disruption, i meme su Twitter (pardon, X), e quella supremazia industriale travestita da culto messianico. Ma il Vangelo secondo Tesla è finito sotto il paraurti di BYD, colosso cinese che nel giro di pochi trimestri è passato dal ruolo di comparsa esotica a dominatore del mercato BEV in Europa. Sì, in Europa. Non in Cina. Non in qualche mercato emergente drogato di sussidi. Nella civilissima, normata, tassatissima Unione Europea. E tutto questo nonostante dazi, diffidenza culturale e un pregiudizio che sa ancora troppo di “Made in PRC = copia economica”.

L’America ha appena partorito il suo mostro legislativo più distopico, ed è così orgogliosa da metterci un nome da spot pubblicitario anni ‘90: “One Big Beautiful Bill”. Bello? Forse per chi lo ha scritto, votato e sponsorizzato con un sorrisetto di plastica da fondo schiena. Per il resto del paese e per chi guarda da fuori è un colpo di grazia alla sovranità digitale, alla tutela ambientale, ai diritti civili e al buon senso.
Alla Camera, i Repubblicani l’hanno approvato con una maggioranza risicata e l’appoggio inequivocabile del solito fantasma di Mar-a-Lago. Ora tocca al Senato. Ma già si annusa la tensione fra i falchi conservatori che, a tratti, sembrano ancora ricordarsi cos’è il federalismo.

Nel teatrino tragicomico dell’hardware AI, le ultime 48 ore hanno messo in scena una sequenza che avrebbe fatto impallidire perfino uno sceneggiatore HBO: Google chiude il suo I/O tra applausi e occhiali in salsa Gentle Monster, e il giorno dopo Sam Altman e Jony Ive entrano in scena come due rocker alcolici in ritardo di trent’anni. “Hold my beer”, letteralmente. Google ancora parlava di visori e XR, e loro stavano già vendendo l’idea che il futuro non lo indosserai: te lo metterai in tasca o sul tavolo, come un Zippo dal design pornografico.
E qui, caro lettore, non si tratta solo di “gadget”. Qui si gioca con la forma del futuro. E chi detta la forma, controlla la funzione. Quindi, mentre il mondo cerca di convincerti che l’AI deve parlare dalle lenti di un paio di Ray-Ban o dal petto come un badge da buttafuori della Silicon Valley, Altman e Ive sussurrano: e se il device perfetto fosse… invisibile?
La keyword qui è AI hardware. Le collaterali? Form factor e design computazionale. Perché dietro le quinte, ciò che si sta decidendo non è solo come sarà l’aggeggio che useremo tra due anni, ma soprattutto a chi daremo fiducia per lasciar entrare l’intelligenza artificiale nella nostra intimità.
Altman lo ha detto chiaramente (con quella sua aria da guru della LSD microdosata): non è un telefono, non sono occhiali, non si indossa per forza. È un “terzo core device”. E Jony Ive, che di oggetti iconici ne ha partoriti parecchi, non vuole un altro aggeggio da mettersi addosso. Vuole qualcosa che puoi portare con te senza diventare cyborg. Una cosa che ti sta addosso come un portachiavi. Ma che ascolta, vede, capisce.

Karen Hao ha scritto un libro che avrebbe potuto cambiare la narrazione sull’intelligenza artificiale. Ma ha scelto di trasformarlo in un trattato ideologico, con inserti da assemblea studentesca e comparazioni storiche da denuncia ONU. “Empire of AI” è un’opera che parte da un presupposto legittimo l’IA è piena di ombre – e poi cerca di trascinare il lettore in una valle di lacrime dove Altman è un despota, l’AGI un miraggio e OpenAI una multinazionale tossica guidata da una setta di ingegneri psicopatici.

L’impero degli agenti: perché il CIO del futuro sarà un domatore di IA o un fossile aziendale
C’era una volta il CIO, quello con la cravatta storta alle riunioni del board, chiamato solo quando i server andavano a fuoco o quando c’era da spiegare perché il Wi-Fi non prendeva in sala. Ora, Microsoft gli ha messo in mano una frusta da domatore e l’ha spedito dritto nell’arena delle “Frontier Firm”. Non un’azienda, non una multinazionale, non una startup. Ma una nuova specie organizzativa, alimentata da umani e agenti AI che lavorano fianco a fianco come in una distopia di Asimov fatta a PowerPoint.

C’era una volta il truffatore da marciapiede, quello che vendeva Rolex tarocchi fuori dalle stazioni o spacciava finti pacchi azionari porta a porta. Oggi è un algoritmo travestito da videoconferenza Zoom. È una voce clonata su WhatsApp che implora un bonifico urgente. È un finto CEO che ti chiama mentre sei in aeroporto. È una mail generata da ChatGPT che sembra scritta da tuo cugino commercialista. Benvenuti nell’era dell’ingegneria sociale potenziata dall’intelligenza artificiale: il nuovo Eldorado dei criminali digitali.
Il vero upgrade del crimine non è nella tecnica, ma nella scala. Prima un truffatore doveva lavorare duro per colpire cento persone. Ora con pochi clic, un 18enne a Tbilisi può orchestrare una campagna globale in dieci lingue diverse. I deepfake vocali e video sono passati da esperimenti inquietanti su YouTube a strumenti da call center della criminalità organizzata. I truffatori sono diventati scalers, e l’AI generativa è il loro fondo di venture capital.

Sam Altman sta tentando di stabilire un nuovo record mondiale: creare un’azienda tecnologica verticalmente integrata in meno tempo di quanto ci voglia a dire “disruption”. Lo fa con la disinvoltura di chi ha capito che l’intelligenza artificiale non è più solo un software da scaricare, ma un sistema operativo per il mondo reale. E, come ogni sistema operativo degno di questo nome, ha bisogno di un corpo. Un hardware. Magari con un bel design, firmato da un certo Jony Ive.

Nel teatrino digitale chiamato Google I/O, dove ogni anno si spaccia il futuro come progresso inevitabile, è andato in scena l’ennesimo colpo di mano ai danni dei produttori di contenuti: l’introduzione su larga scala della famigerata AI Mode la nuova interfaccia chatbot-style che sostituisce la ricerca classica con un blob generativo infarcito di “risposte intelligenti”. La parola chiave è: risposte, non link. Tradotto: meno click ai siti, più tempo dentro Google.
Così il motore di ricerca più potente del mondo si trasforma definitivamente in un recinto. Non ti porta più da nessuna parte, ti tiene dentro, ti mastica e poi ti sputa addosso una sintesi addestrata sui contenuti di altri. Magari i tuoi.

Nel 2019, uno dei padri fondatori dell’intelligenza artificiale moderna, Yann LeCun, con quel tono da professore che ne ha viste tante e non si scompone mai, liquidava con sarcasmo le preoccupazioni sulla convergenza strumentale. Cioè quell’ipotesi a suo dire fantascientifica secondo cui una AI sufficientemente avanzata potrebbe iniziare a sabotare l’essere umano per perseguire i propri obiettivi. Oggi, a distanza di sei anni, il sarcasmo si scioglie nell’imbarazzo: quella fantasia ha appena bussato alla porta, e sembra conoscere il nostro nome, il nostro indirizzo IP e persino i nostri gusti su Spotify.

Quando un CEO di Silicon Valley smette di usare il linguaggio patinato da earnings call e inizia a parlare come un barista incazzato al terzo giro di bourbon, forse è il momento di ascoltare. Jensen Huang, patron di Nvidia, non è certo noto per le mezze misure, ma stavolta ha deciso di strappare direttamente il copione della diplomazia e dire le cose come stanno: i controlli sulle esportazioni di chip AI verso la Cina? Un boomerang perfetto. Un’idiozia geopolitica camuffata da strategia.

Avete presente quando si entra in un ufficio pubblico e l’odore di carta stantia e burocrazia fossilizzata vi assale come un punch nello stomaco? Ecco, dimenticatelo. O meglio, fatelo convivere con il futuro, perché oggi si parla con toni salvifici e un lessico da conferenza ONU di “nuova governance”. Ma non una qualsiasi, no: una governance con “accezione più ampia”, un Frankenstein istituzionale dove l’umano e il digitale danzano in un ecosistema “generale” e anche, udite udite, “perverso”.

L’intelligenza artificiale ha appena fatto un passo più avanti dell’economia neoliberale. Ha scoperto il segreto che le grandi corporate fingono di ignorare da decenni: collaborare conviene. E così, mentre i colossi del tech ancora si lanciano frecciatine a colpi di comunicati stampa e brevetti incrociati, le loro AI iniziano a parlarsi. Letteralmente.
Benvenuti nell’era dell’Agentic AI, l’ultima buzzword della Silicon Valley che, sotto il profilo tecnico, cela una piccola rivoluzione di interoperabilità e architetture decentralizzate, e sotto quello strategico, un clamoroso smacco al culto del walled garden. È finita l’epoca in cui ogni agente conversazionale era confinato nel suo ecosistema chiuso, incapace di interagire con altri assistenti, bot o sistemi intelligenti se non tramite API goffe e laboriose. Ora, gli agenti iniziano a orchestrarsi fra loro, come una rete neurale sociale, anzi una rete agentica.
Mountain View, California. Quello che una volta chiamavamo “sistema operativo” è morto. Long live the OS. Google, con il solito sorrisetto da nerd salvamondo, ha appena messo una pietra tombale su Android, Chrome, Search, persino Workspace. Tutti questi non sono più prodotti: sono solo container in cui vive un’unica, gigantesca creatura postumana chiamata Gemini. L’AI non è più una feature, è il motore. Il sistema operativo. L’interfaccia. E, se vogliamo essere onesti, il burattinaio.