Meta Platforms ha appena sganciato una bomba, anche se lo stile è quello da laboratorio silenzioso e patinato. Il nome è V-JEPA 2. Sembra il titolo di un software di terz’ordine, ma è molto di più: è il nuovo modello di intelligenza artificiale lanciato da Menlo Park per spingere la sua visione dell’Advanced Machine Intelligence (AMI), un concetto tanto vago quanto ambizioso che promette — o minaccia — di trasformare ogni interazione uomo-macchina in una danza algoritmica tra causa ed effetto.

Nessuno aveva chiesto il permesso. Nvidia è entrata in Europa come una valanga silenziosa, con l’annuncio che segna una nuova frontiera: la costruzione del primo cloud industriale AI europeo. Non un data center qualsiasi, ma una piattaforma con 10.000 GPU H100, pensata non per alimentare i meme su Midjourney, ma per far girare le macchine che muovono l’industria pesante, le smart factory e, soprattutto, le economie nazionali.
Dietro l’annuncio c’è molto di più che un’infrastruttura. C’è un messaggio politico. C’è l’idea, finora solo sussurrata nei corridoi della Commissione Europea, che il cloud “made in USA” non sia più sostenibile. E mentre Bruxelles balbetta leggi e regolamenti, Nvidia fa. E lo fa a casa nostra.

Non si tratta più di pacchi che arrivano a destinazione. È il tempo che viene domato. È il desiderio del cliente che viene previsto prima ancora che sia espresso. È Amazon che, con tre mosse di scacchi algoritmici, si prepara a mettere le mani sul vero potere dell’e-commerce globale: la predizione esatta. Non dei bisogni, ma delle condizioni affinché i bisogni si manifestino. Come un oracolo vestito da fattorino.
La chiamano “real-world value”, ma la posta in gioco è molto più sofisticata: chi controlla la mappa, controlla il territorio. E adesso, la mappa la disegna Amazon, pixel dopo pixel, con Wellspring, la sua nuova tecnologia di generative AI per la logistica, capace di trasformare un condominio labirintico o un quartiere appena nato in un sistema comprensibile, leggibile, prevedibile. Un algoritmo che osserva satellite, impronte degli edifici, foto di strada e persino le istruzioni del cliente, combinandoli in una rete neurale che “vede” meglio del corriere, “pensa” prima del cliente e “decide” come un architetto del delivery.

Oracle scommette tutto sulla nuvola e prende a calci la vecchia guardia
Il vecchio dinosauro di Redwood Shores ha finalmente tirato fuori i denti. Dopo anni passati a inseguire i giganti del cloud come un avvocato stanco che rincorre le big tech in tribunale, Oracle sembra aver trovato il suo punto di pressione: l’IA. E i numeri, almeno per ora, sembrano dare ragione a Safra Catz, che con un candore quasi spietato ha sparato: “Le nostre percentuali di crescita saranno drammaticamente più alte.”
Tradotto dal cattivo gergo delle earnings call: Oracle prevede una crescita del 70% nel business cloud nell’anno fiscale in corso. Una cifra che fa sobbalzare anche gli algoritmi delle sale trading, visto che il titolo è salito di oltre il 6% nel dopoborsa. Chiariamolo subito: non è solo storytelling da CFO con l’occhio lucido e il power suit impeccabile. Dietro c’è una scommessa brutale da $25 miliardi di capex, spinti soprattutto da acquisti di GPU Nvidia e altri arnesi indispensabili per servire il grande banchetto dell’intelligenza artificiale generativa.
Nelle strade di Los Angeles, dove la città ribolle sotto la superficie patinata da cartolina, 750.000 dollari di veicoli autonomi Waymo sono andati in fumo, letteralmente. Un incidente isolato? Una follia vandalica da parte di qualche sbandato con un accendino e troppo tempo libero? Forse. Ma più probabilmente è un sintomo. Un segnale. Uno di quei momenti che, se hai l’occhio giusto, ti fanno drizzare le antenne e ti obbligano a mettere in pausa l’entusiasmo da Silicon Valley.

È curioso come il sogno dell’autosufficienza tecnologica finisca spesso per trasformarsi in una beffa amara. Liu Qingfeng, il visionario ma pragmatico chairman di iFlytek, ha ammesso senza troppi giri di parole che affidarsi ai semiconduttori prodotti in Cina continentale – in particolare l’Ascend 910B di Huawei – comporta un ritardo di tre mesi nello sviluppo dei modelli di intelligenza artificiale rispetto all’utilizzo delle ben più mature soluzioni Nvidia. Un piccolo dettaglio che però non frena la sua testardaggine: “Meglio perdere tempo che perdere l’autonomia”, sembra dire, ostinandosi a proseguire sulla strada dei chip locali, malgrado l’inevitabile gap prestazionale.

Una stretta di mano tra rivali, una manovra laterale ad alta tensione geopolitica dell’AI, una sorta di Guerra Fredda tra chip e datacenter che improvvisamente si fa tiepida. OpenAI, l’astro nascente alimentato da Microsoft, ora pesca nel giardino dell’arcinemico: Alphabet. Sì, proprio Google. E non per due briciole di potenza computazionale, ma per espandere la sua infrastruttura AI con la forza di fuoco della nuvola di Mountain View. Il tutto nel momento in cui ChatGPT – definito “il rischio più concreto per il dominio di Google nella search da vent’anni a questa parte” – continua a mangiarsi fette di attenzione, di mercato e, va detto, anche di narrativa pubblica.

Se Shrek, Darth Vader e Buzz Lightyear potessero parlare, probabilmente oggi avrebbero già consultato un avvocato. E non per discutere di nuovi contratti o reboot, ma per affrontare la loro resurrezione involontaria nel circo dell’intelligenza artificiale generativa. Il 2025 non ha ancora portato veicoli volanti, ma ha spalancato le porte a una battaglia epocale: Disney e Universal hanno trascinato in tribunale Midjourney, accusandola di essere una “macchina distributrice virtuale di copie non autorizzate”. Un’accusa pesante, che ha tutta l’aria di voler diventare il precedente giudiziario che Hollywood aspettava come un sequel troppo a lungo rimandato.

Entrare in una boardroom oggi è come assistere a un revival tecnologico di fine anni ’90, solo con più buzzword e meno sostanza. Il termine “intelligenza artificiale” viene lanciato come coriandoli durante il Carnevale di Rio: colorato, rumoroso, ma alla fine completamente vuoto. Ecco il problema: la maggior parte delle “implementazioni AI” che ho visto negli ultimi tredici anni? Non erano AI. Erano automazioni mascherate, assistenti digitali con un branding più sexy, o previsioni su dati che già avevamo. Ma intelligenza artificiale? Quella, amici miei, è rara quanto l’umiltà in una startup che ha appena chiuso un round Series B.
Il cortocircuito nasce da una domanda semplice: cos’è davvero l’intelligenza artificiale? Provate a chiederlo a dieci manager. Riceverete cinquanta risposte. Alcune poetiche, altre semplicemente confuse.

Il palcoscenico era pronto, i riflettori accesi, e poi… niente. Stargate, la presunta alleanza epocale tra Oracle, SoftBank e OpenAI per dar vita a un’infrastruttura da 500 miliardi di dollari destinata all’intelligenza artificiale, è ancora una chimera. Safra Catz, CEO di Oracle, lo ha dichiarato con candore durante l’ultima call sugli utili: “non è ancora stata costituita”.

Live da GTC Paris, la fiera dove i badge brillano più dei neuroni e gli acronimi si fanno carne. Lì, tra droni in posa e modelli linguistici con velleità geopolitiche, si sta delineando un nuovo spettro: quello della Sovereign AI, l’intelligenza artificiale sovrana. Non è solo una buzzword – anche se suona dannatamente bene nei comunicati stampa – ma una posta in gioco di portata storica. E in prima fila, con il microfono acceso e le slide ben oliate, ci sono NVIDIA e Accenture. Non stanno vendendo solo chip e consulenze, ma una visione: un sistema operativo per l’autonomia digitale dell’Europa.
Già, un Operating System for Sovereign AI. Come se la democrazia liberale avesse finalmente trovato il suo kernel.
Ma cosa vuol dire davvero? Non è solo una faccenda di compliance o di regolamenti con nomi in codice tipo “AI Act”. È una questione strutturale: chi controlla i modelli linguistici controlla la narrativa, e chi controlla la narrativa… beh, scrive il futuro. Con questo OS, l’obiettivo è chiaro: dare a governi e industrie europee una piattaforma che permetta di gestire, adattare e far evolvere modelli generativi in un contesto a prova di GDPR, di sovranità economica e – perché no – di orgoglio continentale.
350.000.
No, non è il numero di biscotti che un inglese medio consuma con il tè in un anno, ma il volume di richieste di pianificazione urbanistica che ogni singolo anno intasa le scrivanie, reali o virtuali, dei consigli comunali del Regno Unito. O, meglio, le intasava.
Perché ora, grazie a Gemini – il modello multimodale di Google – e un’applicazione audace chiamata Extract, quello che richiedeva due ore di maledizioni, caffè tiepido e zoom infiniti su PDF stropicciati può essere svolto in… 40 secondi. E con una precisione che farebbe arrossire l’archivista più zelante di Westminster.

Nel cuore pulsante di Parigi, durante il palcoscenico ipertecnologico di VivaTech, Joe Tsai, presidente di Alibaba Group Holding, ha lanciato una delle dichiarazioni più taglienti e, allo stesso tempo, strategicamente calcolate dell’anno. Aprire i modelli di intelligenza artificiale—quei giganteschi LLM che oggi dominano il panorama digitale—non è solo un gesto di altruismo tech, ma una mossa calibrata per sbloccare una marea di applicazioni AI e, soprattutto, per rilanciare una delle divisioni più strategiche di Alibaba: il cloud computing.
Se vi aspettavate una svolta convenzionale, vi sbagliate. Tsai, con la sua tipica ironia da veterano, ha definito il periodo appena trascorso per Alibaba come “un’era di grandi tormenti”. Eppure, proprio da quel caos, emerge la strategia chiave: democratizzare l’AI, liberarla da ogni vincolo di esclusività, spingendo così l’intero ecosistema verso una domanda esplosiva di infrastrutture cloud.

Chiunque abbia mai fissato la piccola barra di stato di uno smartphone durante l’attesa di una pizza o di un Uber in ritardo sa bene quanto il tempo possa trasformarsi in un’entità maligna. Con Android 16, Google vuole redimere questa microfrustrazione quotidiana, lanciando finalmente i Live Updates sui Pixel, e promettendo – come sempre – una rivoluzione.
Ma sotto l’apparenza di una novità utile, si cela l’ennesimo rituale liturgico del gigante di Mountain View: un’imitazione dell’iPhone con qualche funzione in più, un’estetica un po’ più snella, un’eco di Material 3 che ancora non si vede ma aleggia come un fantasma promesso.

Nel 2025, la smart home è sempre più simile a un reality show in cui non solo le pareti hanno orecchie, ma adesso anche occhi, dita, e — sorpresa — un’intelligenza artificiale con nome da divinità romana: Gemini. Con l’ultima raffica di aggiornamenti al suo Home app, Google sta riscrivendo le regole del controllo domestico, travestendolo da comodità mentre, a ben vedere, ti invita a vivere in un habitat dove ogni gesto è mediato da un’interfaccia. Bentornati nella gabbia dorata della domotica 3.0.
Cominciamo da quello che suona come un “era ora”: il supporto picture-in-picture per le Nest Cam su Google TV. Un dettaglio apparentemente minore, ma dal valore psicologico potente: puoi guardare Netflix mentre controlli se il cane ha finalmente smesso di distruggere il divano. È il tipo di aggiornamento che nessuno aveva chiesto a voce alta, ma che, come un assistente troppo solerte, Google ti regala comunque. Una piccola finestra nell’angolo dello schermo, una grande apertura sul panopticon domestico. Più Black Mirror che Smart Living.

L’intelligenza artificiale è idrovora. Non nel senso metafisico, ma molto concreto: ogni parola che leggi, ogni domanda che fai a ChatGPT, ogni linea di codice predetta da un LLM brucia corrente e assorbe acqua. Non solo silicio e matematica, ma infrastruttura fisica e risorse naturali, come ogni altra tecnologia della storia.
Sam Altman, CEO di OpenAI e oracolo involontario dell’era post-digitale, ha recentemente pubblicato un post dove tenta di rassicurare (o distrarre?) l’opinione pubblica con un dato apparentemente innocuo: “una query media di ChatGPT consuma circa 0.000085 galloni d’acqua, ovvero circa un quindicesimo di cucchiaino”. Messa così, l’IA sembra meno un mostro energetico e più una tisana tiepida.

Al Gazometro, ex impianto industriale rigenerato nel quartiere Ostiense — non certo tra i marmi del Campidoglio — il 11 giugno 2025 si è celebrato il Namex Annual Meeting, meglio noto come NAM 2025: un’accensione di infrastrutture silenziose e cifrate, una celebrazione pragmatica della rete sotto la cupola storica di Roma
Ogni tanto, persino nel futuro si inciampa. Mentre tutti si affannano a raccontare la prossima grande innovazione, il prossimo pivot, la roadmap a 18 mesi (che nessuno rispetterà), c’è qualcuno che accende un piccolo riflettore storto su ciò che è stato. Non per nostalgia, ma per legittimità. Perché il presente non nasce mai da zero. E se non riconosci chi ha acceso la miccia, come Namex finisci per raccontare una favola storta l’ennesima.
Le cifre non mentono. Superati 1 terabit per secondo di traffico già a gennaio 2025, e picchi di 1,122 Tbps toccati durante una partita Atletico–Real Madrid trasmessa da Prime Video a marzo. Un balzo in avanti che racconta molto più di numeri: è l’autorevolezza infrastrutturale che si afferma, mentre il cuore silenzioso della rete scorre sotto Roma.

Se volevate un esempio plastico del connubio perverso tra lobby, politica miope e Big Tech in cerca di deregulation, eccolo servito su piatto d’argento: un emendamento, sepolto nella finanziaria proposta da Donald Trump — il suo “big, beautiful bill” — che di fatto congela per dieci anni qualsiasi regolazione statale sull’intelligenza artificiale. Una mossa che ha più il sapore di una sabotaggio preventivo che di una visione strategica. Ma forse è proprio questo il punto: la strategia è uccidere il dibattito sul nascere, mentre si finge di attendere un’ipotetica, mai vista regolamentazione federale.
L’emendamento non si limita a fermare la corsa alla regolazione locale — la sola che negli ultimi anni abbia prodotto qualcosa di concreto — ma revoca retroattivamente anche quelle poche norme già esistenti. Uno stop totale, indeterminato e regressivo, imposto nel momento esatto in cui il settore AI accelera verso un’adozione massiva e incontrollata.

Non serve più Spielberg, né un’agenzia pubblicitaria da sei zeri: basta un clic. Amazon ha aperto le gabbie e lanciato ufficialmente la sua Video Generator, l’arma definitiva per trasformare ogni venditore da garage in un creativo hollywoodiano — o almeno così sembra. La nuova versione del tool, disponibile per tutti i seller USA, promette risultati fotorealistici in meno di cinque minuti. Ma è nella promessa nascosta che si cela l’inquietudine: pubblicità così convincenti che potresti non accorgerti che sono generate da un algoritmo.
Questa non è l’ennesima funzione accessoria, è una svolta strutturale nella monetizzazione emozionale. I nuovi “trucchi” dell’IA includono dinamiche di movimento, scene concatenate con attori umani o animali, overlay testuali e soundtrack da spot TV. Il prodotto non è più statico: adesso si muove, vive, ti guarda, ti parla. Soprattutto, ti persuade.

Avete appena letto un titolo. Sembra una banalità, ma non lo è. Perché dentro quella sequenza di parole che ha il ritmo ipnotico di un trip psichedelico anni Novanta, ma la consistenza mutante dell’AI generativa c’è un condensato compresso di trent’anni di storia digitale.
Lì dentro, nel logo dell’evento, in quell’occhio che osserva e si lascia osservare, c’è Internet o forse sarebbe meglio dire la Rete, dal 1995 al 2025. Una narrazione visiva disordinata, volutamente confusa, che riflette perfettamente ciò che è diventato oggi il nostro mondo connesso: un’esplosione di dati, immagini, emozioni, indignazioni, euforia, angoscia.
NAM2025, tenutosi oggi a Roma, ha avuto il coraggio di mettere a fuoco proprio questa domanda torbida, centrale, quasi inconfessabile: dove sta andando Internet? Una questione che sa di vertigine, come guardare un’infrastruttura globale in preda a convulsioni da post-modernità accelerata.

Splendida cornice di Vicolo Valdina, dove il tempo sembra scorrere più lentamente ma i pensieri accelerano. Un luogo che oggi si fa teatro di un confronto necessario, urgente, direi quasi inevitabile. Inauguriamo qui un ciclo di seminari che abbiamo voluto intitolare “La Tecne e la Polis”, un’espressione che richiama non solo l’antica tensione tra il fare e il governare, ma anche il cuore pulsante delle sfide che ci aspettano. Quattro lezioni, quattro traiettorie critiche per esplorare l’attualità e, soprattutto, per immaginare il futuro con occhi più consapevoli e strumenti più affilati.
La Prima Tappa è affidata al professor Giorgio Parisi, Premio Nobel per la Fisica, mente lucida e voce critica nel panorama scientifico e culturale internazionale, già presidente dell’Accademia Nazionale dei Lincei. La sua presenza oggi è più di un contributo accademico: è un segnale, una chiamata a non separare mai la complessità del pensiero scientifico dalla responsabilità civica.
Ecco, se la Tecne rappresenta la nostra capacità di intervenire sul mondo, di modificarlo, di piegarlo ai nostri scopi attraverso l’ingegno, la Polis è lo spazio dove decidiamo collettivamente che uso farne. L’una senza l’altra genera mostri: tecnica senza etica, politica senza visione. O peggio ancora, algoritmi al servizio del consenso cieco, reti neurali che sostituiscono il dibattito, intelligenze artificiali che diventano i nuovi oracoli, idolatrate come fossero dèi postmoderni.
Questo ciclo nasce dal bisogno di rompere la narrazione anestetizzata del progresso. Basta con l’ottimismo da brochure, con le slides patinate che raccontano un futuro digitale come fosse un destino inevitabile. Non lo è. Nulla lo è, se ci assumiamo la responsabilità di pensare, discutere, dissentire. E chi meglio di un fisico teorico come Parisi, che ha insegnato al mondo come l’ordine possa emergere dal disordine, può aiutarci a decifrare le forme della complessità che ci avvolge?
In un’epoca in cui tutto è accelerazione, fermarsi a pensare è l’atto più rivoluzionario. La velocità con cui le tecnologie si insinuano nelle pieghe della nostra vita civile, culturale, economica, non ha precedenti. Ma questo non significa che dobbiamo abbandonare la riflessione, anzi. Significa che dobbiamo moltiplicare gli spazi di confronto, aprire fessure nel racconto dominante, riprenderci il tempo lungo del pensiero critico. Perché senza pensiero non c’è progetto, solo reazione. E la reattività, si sa, è il terreno su cui prosperano il populismo digitale e la tecnica priva di scopo.
La Tecne e la Polis, quindi, non è un titolo accademico. È una provocazione. È un invito a riscoprire la cittadinanza come esercizio della mente. È una sfida, anche, perché ci obbliga a riconoscere che i nostri strumenti sono imperfetti, le nostre previsioni fragili, ma che è proprio da questa fragilità che può nascere una nuova etica della responsabilità. Non quella moralistica, da salotto, ma quella strutturale, che tiene insieme codice e Costituzione, calcolo e cultura.
La sua ricerca sui sistemi complessi ci parla in modo diretto: ci dice che non esistono soluzioni semplici per problemi complessi, che il caos non è assenza di ordine ma prefigurazione di una nuova grammatica. Una lezione che la politica dovrebbe tatuarsi sulla pelle. E che anche noi, come cittadini, dovremmo interiorizzare ogni volta che ci illudiamo che basti un’app per risolvere una crisi o un algoritmo per capire una società.
Oggi più che mai abbiamo bisogno di pensatori che sappiano coniugare rigore e immaginazione, scienziati che parlino al di là delle formule, intellettuali che non si nascondano dietro la neutralità. E se c’è una figura che incarna questo modello, è proprio Parisi. Con il suo lavoro, con le sue parole pubbliche, con il suo impegno civile. Non si tratta solo di divulgare, ma di assumere una postura etica di fronte al sapere: non basta capire il mondo, bisogna anche decidere da che parte stare.
Ed è questa, forse, la posta in gioco più alta di questo ciclo. Non spiegare la tecnologia, ma scegliere come e dove farla vivere. Non temere il futuro, ma costruirlo in modo tale da non tradire il presente. Non cedere alla seduzione della semplificazione, ma addestrarsi al pensiero complesso come unico antidoto alla deriva tecnocratica.
Vicolo Valdina non è solo un luogo fisico, oggi. È una soglia. Un punto di passaggio tra ciò che siamo stati e ciò che potremmo diventare. È uno spazio in cui l’intelligenza quella umana, troppo umana – si riappropria della parola, del dialogo, del conflitto costruttivo. E se saremo capaci, insieme, di far vivere questo spazio anche fuori da queste mura, allora avremo davvero iniziato a costruire quella Polis nuova di cui tanto parliamo e poco ci occupiamo.
Con questo spirito, con questa tensione, l’On. Anna Ascani ha aperto “La Tecne e la Polis”. E lo ha fatto con la consapevolezza che non c’è tempo da perdere, ma anche con la convinzione che il tempo, se usato bene, può ancora essere nostro alleato.

Il primo incontro del ciclo di seminari a Vicolo Valdina ha messo in scena una narrazione che, con sobrietà istituzionale e una certa tensione epistemologica, ha attraversato decenni di storia dell’intelligenza artificiale, sfiorando le sue vette concettuali e le sue ombre più torbide. A guidare il pubblico in questo viaggio è stato Giorgio Parisi, Premio Nobel per la Fisica e voce sempre più centrale nel dibattito contemporaneo sull’IA, con un intervento che ha evitato gli entusiasmi da Silicon Valley per rimanere ancorato a ciò che l’IA è davvero: un’architettura che rielabora il passato più che prefigurare il futuro.
Non una macchina del tempo, insomma, ma un frullatore semantico travestito da profeta. Parisi ha ricordato che le reti neurali, oggi protagoniste assolute del palcoscenico tecnologico, non sono nate ieri. La loro genealogia affonda le radici nei decenni passati, tra intuizioni teoriche e sviluppi sperimentali, ma ciò che oggi cambia tutto è l’enorme disponibilità di dati e la potenza computazionale. È qui che l’illusione si insinua: credere che un sistema, per quanto sofisticato, possa produrre vera creatività quando in realtà sta solo ricombinando pattern già visti, compressi in modo elegante ma sempre derivativi. L’IA, per Parisi, non ha immaginazione. Ha solo memoria, e una memoria che non dimentica mai è spesso una prigione.
A fare da contrappunto, l’introduzione di Anna Ascani, Vicepresidente della Camera, che ha invocato un approccio etico e consapevole, sottolineando il bisogno di mettere l’essere umano al centro della rivoluzione tecnologica. Una formula che suona bene, certo, ma che rischia di perdersi nel rumore di fondo se non si accompagna a decisioni politiche concrete, competenti e soprattutto tempestive. L’IA non aspetta i tempi parlamentari.
Il problema è che mentre discutiamo se sia giusto o meno far scrivere poesie a un algoritmo, l’algoritmo sta già scrivendo codici, generando immagini, elaborando scenari finanziari, pilotando veicoli, valutando profili creditizi, influenzando campagne elettorali. È un paradosso tipico delle tecnologie dirompenti: ci sorprendono mentre sono già operative. E ci illudono che siano ancora in fase sperimentale, mentre invece siamo noi a essere sotto esame.
L’intervento di Parisi ha avuto il merito di restituire complessità al dibattito. Nessun tecno-entusiasmo, nessuna apocalisse. Solo l’invito a riconoscere la natura profonda degli algoritmi come strumenti. Potenti, sì, ma strumenti. Non entità senzienti, non soggetti morali, non nuovi demiurghi digitali. È la governance, non la tecnologia in sé, a determinare se l’IA sarà un moltiplicatore di disuguaglianze o una leva per redistribuire conoscenza e potere. Detto altrimenti: non sarà ChatGPT a decidere il nostro destino, ma come e da chi sarà addestrato, impiegato, regolato.
Naturalmente, questo approccio razionale è molto meno sexy della narrativa dominante, che alterna visioni utopiche e distopie hollywoodiane. Ma forse è proprio per questo che è necessario. L’IA non è un oracolo, ma una funzione matematica. Non ci dice ciò che è giusto, ma ciò che è probabile. E in un’epoca che confonde il consenso con la verità, questo dovrebbe preoccuparci.
L’altro aspetto interessante del dibattito è la costante tensione tra innovazione e umanità. Parisi, da scienziato, sa bene che ogni salto tecnologico comporta rischi. Ma sa anche che ogni resistenza aprioristica è futile. Non si tratta di fermare l’intelligenza artificiale, ma di guidarne lo sviluppo in modo che serva l’interesse collettivo. Il che, tradotto in termini politici, significa decidere a chi appartengono i dati, chi scrive gli algoritmi, chi stabilisce le priorità. In altre parole, chi ha il potere.
Il rischio, oggi, è che l’IA diventi una nuova forma di colonizzazione cognitiva, dove pochi attori privati detengono le chiavi dell’intelligenza globale, mentre il resto del mondo si limita a consumare output. Un mondo dove il codice è legge, ma la legge non conosce il codice. Dove l’opacità degli algoritmi diventa una cortina di fumo dietro cui si esercitano forme inedite di controllo sociale, sorveglianza e manipolazione. E tutto questo nel nome dell’efficienza.
“Gli algoritmi non inventano il futuro”, ha detto Parisi, e la frase ha il sapore della provocazione necessaria. In un’epoca ossessionata dalla disruption, ricordare che il futuro non si genera per via computazionale ma per volontà politica è quasi un atto rivoluzionario. Serve a ribaltare la retorica dominante, che vede l’essere umano come una variabile secondaria in un processo ineluttabile. Al contrario: l’IA non è destino, è progetto. E ogni progetto ha bisogno di architetti responsabili.
In questo senso, la riflessione proposta nel seminario di Vicolo Valdina non è stata solo accademica. È stata politica, nel senso più alto del termine. Perché ha messo al centro la questione cruciale: chi decide? La tecnologia non è neutra, e chi lo ripete continua a confondere la matematica con l’ideologia. Gli algoritmi sono scritti da persone, addestrati su dati che riflettono pregiudizi, ombre, errori sistemici. Credere che il machine learning sia imparziale è come pensare che un tribunale possa essere giusto solo perché recita il codice.
Il dibattito sull’IA ha oggi bisogno urgente di voci competenti, e ancor più di teste pensanti che sappiano sottrarsi alla fascinazione dell’automazione totale. Servono scienziati, certo, ma anche filosofi, sociologi, giuristi, linguisti, urbanisti, artisti. Perché l’intelligenza artificiale tocca tutto: dalla produzione al desiderio, dall’identità alla cittadinanza. È una questione culturale prima che tecnologica.
Se c’è una speranza, in questo scenario, è che eventi come quello di Vicolo Valdina diventino la regola e non l’eccezione. Che la politica torni a essere un luogo di elaborazione e non solo di rincorsa. Che si torni a parlare di IA come di una questione pubblica e non come di un prodotto privato. E soprattutto che si comprenda, una volta per tutte, che governare l’intelligenza artificiale non significa solo proteggerci dai suoi rischi, ma anche difendere la nostra libertà di scegliere il tipo di futuro che vogliamo.
O, come direbbe Parisi, “ricombinare il passato va bene, purché qualcuno si prenda la briga di immaginare davvero il domani”. Ma questa, purtroppo, non è un’attività che si può delegare a un algoritmo.

Roma non è più solo la capitale d’Italia, ma si candida ad essere il cuore pulsante della connettività digitale del Mediterraneo. Non è un’iperbole, è un cavo in fibra da 400 Gbps. Quando EXA Infrastructure ha annunciato, durante il NAM 2025 di Namex, il nuovo Point of Presence (PoP) all’interno del campus Aruba IT4, in molti hanno annuito distrattamente. Ma chi conosce davvero l’infrastruttura digitale ha capito: questo non è solo un aggiornamento tecnico. È una dichiarazione geopolitica travestita da specifica di rete.

Lancaster House non è solo un palazzo neoclassico con moquette spessa e stucchi dorati. Questa settimana è il set di una commedia geopolitica in stile kafkaiano: Stati Uniti e Cina fingono di negoziare, mentre tutti – loro per primi – sanno che qui non si tratta di trovare accordi, ma di decidere chi scriverà le regole dell’intelligenza artificiale, dell’export tecnologico e del controllo sulle materie prime del XXI secolo. Welcome to la nuova Guerra Fredda, versione 5G.
Non è un vertice, non è una conferenza, non c’è un comunicato ufficiale. Solo stanze chiuse, facce tese e un’unica vera valuta sul tavolo: il dominio strategico su chip, rare earths e software di progettazione avanzata. La parola “tariffa” non compare più, ha lasciato il posto a un linguaggio più crudo, chirurgico, spietato: “export controls”.

C’è qualcosa di profondamente ironico nel fatto che un algoritmo, incapace di provare empatia, sia diventato il nuovo “confidente emotivo” di tre quarti degli esseri umani coinvolti in uno studio. No, non è uno sketch di Black Mirror. È la realtà che emerge dalla ricerca pubblicata da Waseda University, che ha messo a nudo un fenomeno tanto inquietante quanto rivelatore: la nostra tendenza a proiettare sulle intelligenze artificiali le stesse dinamiche relazionali che viviamo con gli esseri umani. Triste? Forse. Umanissimo? Decisamente. Strategico? Per le Big Tech, più che mai.
La parola chiave è emotional attachment to AI, un campo che, se vi sembra marginale o curioso, rischia invece di diventare il prossimo fronte dell’ingegneria psicologica digitale. Il team guidato da Fan Yang ha sviluppato un raffinato strumento diagnostico — l’EHARS, Experiences in Human-AI Relationships Scale — per misurare con criteri psicometrici la qualità e l’intensità dell’attaccamento umano verso le intelligenze artificiali conversazionali. In pratica: quanto siamo emotivamente dipendenti dai chatbot. La risposta breve è “troppo”.

C’è qualcosa di paradossale nella calma con cui Sam Altman annuncia che l’umanità ha appena varcato un “event horizon” verso la superintelligenza. Come se stesse commentando la temperatura del tè, il CEO di OpenAI ha scritto: “Siamo oltre il punto di non ritorno; il decollo è iniziato.” È il tipo di frase che dovrebbe causare panico, o almeno un improvviso bisogno di respirare profondamente. Invece, niente. La reazione globale? Un misto di entusiasmo, scetticismo e una scrollata di spalle tecnologicamente rassegnata.
Secondo Altman, ci stiamo avviando verso quella che chiama singolarità morbida, un passaggio dolce ma inesorabile verso l’intelligenza digitale superiore. Non la distopia di Skynet, non l’esplosione prometeica di una mente artificiale che ci ridicolizza; piuttosto, una transizione “gestibile”, graduale, quasi noiosamente prevedibile. Il problema è che, come ogni vera rivoluzione, anche questa si maschera da evoluzione lineare.

Se ti sembrava che Mark Zuckerberg fosse solo ossessionato dai visori per il metaverso, o dalla realtà aumentata a suon di miliardi bruciati in R&D come se fossero marshmallow in un falò estivo, preparati a cambiare scenario. Ora l’oracolo di Menlo Park guarda dritto nel cuore dell’AI generativa — e lo fa con una delle mosse più astute, se non spregiudicate, della Silicon Valley degli ultimi dodici mesi.
Meta è infatti in trattativa avanzata per acquistare il 49% di Scale AI, valutando la startup fondata da Alexandr Wang la modica cifra di 14,8 miliardi di dollari. Sottolineiamo quel 49%: è il numero magico che consente a Meta di non scatenare automaticamente il famigerato scrutinio normativo sulle acquisizioni, soprattutto quello della Federal Trade Commission. Un controllo che, ultimamente, sembra avere le lame più spuntate di un vecchio rasoio Bic.

La rivoluzione della mobilità autonoma non si sta più avvicinando. È già parcheggiata al semaforo, con il motore acceso. E mentre Elon Musk gioca a fare il Kubrick del traffico texano con le sue Model Y che sfrecciano senza mani ad Austin, nel cuore del vecchio continente si prepara una partita ben più strategica, ben più pericolosa — e ben più affascinante.
A Londra, Uber ha deciso che è tempo di fare sul serio con l’intelligenza artificiale applicata alla mobilità urbana. La partnership con Wayve, startup britannica a metà tra Cambridge Analytica e un film cyberpunk, non è un semplice “test”. È l’inizio di una guerra. Una guerra ai conducenti umani, alle regole scritte da esseri umani, e forse — azzardiamolo — alla logica lineare con cui abbiamo gestito le città nell’ultimo secolo.

La Silicon Valley è in fibrillazione. Non per un’altra app che consiglia quale ramen ordinare alle 2 di notte, ma per qualcosa di più radicale: il ritorno del pensiero logico nelle AI. E come spesso accade, la rivoluzione non arriva da chi ha già vinto, ma da chi ha deciso che il gioco era truccato. Mistral, la startup francese che da mesi dà fastidio agli oligarchi dell’intelligenza artificiale, ha alzato il livello della competizione: due nuovi modelli, una sola direzione. Quella della catena di pensiero. Niente più predizioni a pappagallo: ora l’AI ragiona. E non è una metafora.
In un’epoca in cui le AI sembrano più interessate a produrre sciami di contenuti che a comprenderli, la scelta di Mistral suona quasi anacronistica: pensare invece di parlare. La mossa, apparentemente semplice, è in realtà chirurgica. Due modelli, distinti ma sinergici: Magistral Small, open source e democratico, e Magistral Medium, ottimizzato per l’impresa e blindato come una cassaforte svizzera.

In mezzo a una WWDC 2025 imbottita di funzioni AI, citazioni da Formula 1 e un pianista che canta recensioni di app – in uno di quei momenti tanto tipicamente Apple quanto inutilmente performativi – la grande assente era proprio lei: Siri. Non assente fisicamente, certo. Ma assente nello spirito, nei fatti, nella sostanza. Un’assenza che grida più di qualsiasi presentazione sul palco.
Apple ha parlato molto, come sempre. Ha evocato l’onnipresente “Apple Intelligence” (il branding che cerca disperatamente di restituire un’aura proprietaria a qualcosa che, in fondo, è OpenAI sotto il cofano), ha sbandierato aggiornamenti per FaceTime, Messaggi, traduzioni in diretta e una LLM “on-device”. Ma quando si è trattato dell’assistente virtuale che avrebbe dovuto essere la colonna sonora della rivoluzione AI, la voce di Siri è rimasta flebile, quasi imbarazzata. Più che un upgrade, un’interruzione diplomatica.

Questa non è una guerra di brevetti, ma una resa dei conti globale.
OpenAI sta preparandosi a ridisegnare le regole del gioco con Microsoft. Fino al 2030, OpenAI attualmente versa a Microsoft il 20 % del fatturato generato dai suoi servizi sul cloud Azure. Ma sta rinegoziando per dimezzare questa quota, fino al 10 % entro fine decennio.
E tu, lettore, sei seduto in prima fila. Ti conviene abbonarti a Rivista.AI offriamo visioni, piedi nel concreto, occhi puntati sui trend globali e spazio per riflessioni provocatorie. Se vuoi davvero capire chi governerà l’AI e perché o se preferisci restare un semplice spettatore dell’ennesima “next big thing”, puoi accedere a reportage esclusivi.
E come diceva un vecchio saggio tecnologico: “È facile essere pionieri finché non ti chiedono di pagare il biglietto.” Rivista.AI ce l’ha, il biglietto e l’occhio per chi guida davvero il futuro dell’intelligenza artificiale.

Se ti sei distratto per un secondo durante il keynote di Apple, potresti aver perso il dettaglio più esplosivo degli ultimi anni nel mondo dell’AI: l’introduzione del framework Foundation Models per eseguire modelli LLM da 3 miliardi di parametri direttamente on-device, cioè sul tuo iPhone. Sì, hai letto bene: niente cloud, niente latenza, niente connessione necessaria. Solo silicio, efficienza e controllo locale. La cosa più simile a un motore quantistico tascabile che Cupertino abbia mai osato proporre.
Apple, con la sua classica arroganza zen, lo ha annunciato senza fanfare isteriche, come se far girare un modello da 3B su un A17 fosse normale amministrazione. Ma sotto quella compostezza californiana, si cela una mossa strategica che potrebbe ribaltare l’intero equilibrio del mercato AI — e mandare nel panico chi oggi campa vendendo inference da cloud a peso d’oro.

Benvenuti nell’era in cui l’intelligenza artificiale sostituisce l’intelligenza istituzionale, e la democrazia si trasforma in un backend API-first. Non è un distopico racconto di Gibson né una bozza scartata di Black Mirror: è l’America del 2025, dove l’innovazione di governo si chiama AI.gov e parla fluentemente il linguaggio dei Large Language Models. La fonte? Il codice sorgente pubblicato su GitHub. E come sempre, il diavolo si nasconde nei commit.
L’amministrazione Trump, evidentemente non ancora sazia di plot twist tecnocratici, ha deciso di lanciare una piattaforma di intelligenza artificiale gestita dalla General Services Administration, guidata da Thomas Shedd, ex ingegnere Tesla e fedelissimo del culto eloniano. Un tecnico più affine al codice che alla Costituzione. Il sito AI.gov – attualmente mascherato da redirect alla Casa Bianca – è il punto focale di una nuova strategia: usare l’AI per “accelerare l’innovazione governativa”. La parola chiave, naturalmente, è “accelerare”, il verbo preferito da chi taglia, privatizza, automatizza.

Nel cuore pulsante della provincia di Jiangsu, a Wuxi, si muove qualcosa che non fa rumore. Nessun sibilo di elettroni, solo la danza silenziosa della luce su wafer di niobato di litio. Benvenuti nel futuro fotonico della Cina, dove CHIPX – una creatura semiaccademica nata dall’ecosistema tentacolare di Shanghai Jiao Tong University – ha appena acceso la macchina del tempo. O meglio, la macchina del sorpasso.
Siamo abituati a pensare ai chip come a microforeste di silicio, una geometria di transistor che obbedisce ai limiti della fisica classica. Eppure, in questo preciso momento, la Cina ha scelto un’altra via: quella dei chip fotonici, dove le informazioni viaggiano sotto forma di luce e non di elettroni, dove la velocità di elaborazione può toccare vette esoteriche, e dove l’Occidente, complice la propria arroganza sanzionatoria, rischia di restare al palo.

C’è un’Italia che parla di intelligenza artificiale come se fosse a cena con Elon Musk e c’è un’altra Italia che, più realisticamente, cerca ancora di capire come configurare il Wi-Fi aziendale. In mezzo ci sono loro: le startup AI italiane, una fauna affascinante quanto rara, spesso invocata nei panel dei convegni con tono salvifico, ma ignorata dai capitali che contano.
Secondo Anitec-Assinform, metà delle oltre 600 imprese digitali innovative italiane si fregia dell’etichetta “AI-enabled”. Ma definirle startup di intelligenza artificiale è come dire che chi ha una Tesla è un esperto di energie rinnovabili. L’uso della tecnologia, nella maggior parte dei casi, è decorativo, marginale, ornamentale. Non guida, non decide, non cambia il modello di business. È là per fare scena, come un’insegna a LED su un ristorante vuoto.

Benvenuti nel teatro dell’assurdo digitale europeo, dove il sogno di una sanità interconnessa e intelligente si scontra con la realtà di un mosaico normativo che farebbe impallidire persino Kafka. Nel cuore di questa pantomima c’è l’European Health Data Space (EHDS), un progetto che promette miracoli tecnologici – cartelle cliniche interoperabili, algoritmi predittivi, cure personalizzate – e invece consegna alla classe dirigente europea un guazzabuglio di piattaforme regionali in mano a aziende private spesso più interessate al business che al bene comune.
Immaginate di rompervi una gamba sulle Alpi francesi nel 2034. In teoria, l’ortopedico di Grenoble dovrebbe accedere alla vostra cartella clinica italiana in tempo reale, somministrarvi i farmaci giusti e aggiornare un algoritmo che previene future fratture. In pratica, buona fortuna. Le infrastrutture sono disgiunte, i protocolli blindati, i dati confinati in recinti nazionali blindati da egoismi burocratici che definire provinciali è un eufemismo. L’idea di una Federazione delle Repubbliche Sanitarie Regionali europee si infrange contro la realtà dei governi che preferiscono affidare la gestione a soggetti terzi — spesso poco trasparenti — e difendere il proprio orticello digitale come un’antica proprietà feudale.

Buon martedì, o come piace dire ai CFO in fuga, «giorno di svolte impreviste». In un mondo dove la tecnologia e il business si inseguono più velocemente di un aggiornamento di iOS, la giornata del 10 giugno 2025 si apre con un cocktail di movimenti aziendali degni di un thriller finanziario. Paramount perde il suo direttore finanziario, Disney stacca l’assegno da mezzo miliardo per chiudere il cerchio Hulu, Apple annuncia l’ennesima puntata del suo feuilleton sull’intelligenza artificiale, mentre le ombre di Warner Bros. Discovery si preparano a dividersi, e i razzi di Bezos si prendono una pausa imprevista.
Toronto, palco celebrativo. Ilya Sutskever — uno dei padri fondatori della moderna intelligenza artificiale — riceve un’onorificenza che ha il retrogusto amaro della confessione pubblica. Non tanto per l’elogio accademico, ma per il sottotesto che trasuda da ogni parola: “accettare questo premio è stato doloroso”. Non è il solito vezzo da scienziato modesto. È un monito. O, meglio, una resa consapevole alla vertigine di ciò che abbiamo messo in moto.
Sutskever non è un profeta apocalittico, ma è colui che ha dato le chiavi del fuoco alle macchine. E adesso ci chiede di essere sobri, razionali e veloci. Non per aumentare la potenza computazionale, ma per restare in controllo. Ecco il punto: il controllo.

In Italia anche l’intelligenza artificiale fa la fila, aspetta il suo turno, e spesso si ritrova in mano a funzionari che confondono una GPU con un acronimo del catasto. La recente indagine dell’Agenzia per l’Italia Digitale (AgID) suona come una radiografia dell’ennesima rivoluzione digitale annunciata, ma mai del tutto compresa. Titolo dell’operazione: “L’intelligenza Artificiale nella Pubblica Amministrazione”. Dietro la neutralità statistica dell’inchiesta, si cela una PA che tenta di aggrapparsi alla corrente dell’innovazione mentre arranca con zavorre fatte di burocrazia, consulenze esterne e KPI vaghi come le promesse elettorali.
Il censimento dei progetti IA ha coinvolto 108 organizzazioni pubbliche su 142 contattate, con 120 iniziative tracciate. Numeri apparentemente incoraggianti, che però si sgretolano sotto la lente di chi osserva il panorama non come un ottimista tecnologico, ma come un chirurgo delle inefficienze digitali. Solo 45 enti hanno davvero avviato progetti. Gli altri? Presumibilmente ancora impantanati nei comitati di valutazione, nei verbali, nelle richieste di pareri legali e nei flussi autorizzativi che scoraggerebbero persino una macchina a stati finiti.