Certe riunioni aziendali finiscono con una pizza fredda e una slide motivazionale. Altre finiscono con l’idea di una fabbrica sulla Luna che costruisce satelliti di intelligenza artificiale e li lancia nello spazio con una gigantesca catapulta. Martedì notte, Elon Musk ha scelto la seconda opzione. All hands di xAI, microfono aperto, futuro riscritto. Il messaggio, riportato dal New York Times, è stato tanto semplice quanto disturbante: se vuoi più potenza di calcolo di chiunque altro, devi andare sulla Luna. Non in senso metaforico. Letteralmente.
Senza annunci roboanti, senza keynote hollywoodiani, DeepSeek ha aggiornato il suo modello di punta e ha spostato l’asse della competizione un po’ più a est. Hangzhou, per essere precisi. Un milione di token di contesto non è un miglioramento incrementale, è una dichiarazione di intenti.
Portare il contesto da 128 mila a oltre un milione di token significa consentire al modello di tenere insieme codice complesso, documentazione estesa, conversazioni lunghe, dataset articolati. Significa passare da risposte intelligenti a flussi di lavoro cognitivi. In altre parole, avvicinarsi pericolosamente a ciò che molte aziende chiamano già “collaboratore”.
L’architettura oscura dei social media: come le piattaforme progettano la dipendenza e perché ora pagano il conto
L’idea che il problema fosse il contenuto. I post tossici, i video estremi, le fake news, gli haters, gli adolescenti fragili che “non sanno regolarsi”. Una narrazione perfetta per spostare la colpa sull’utente finale, meglio se giovane, meglio se distratto. Peccato che la realtà, come spesso accade, sia molto più strutturale e molto meno consolatoria.
Il paper accademico a cui facciamo riferimento, pubblicato sull’European Management Journal, mette a fuoco il vero cuore del problema: non è solo ciò che vediamo sui social a essere oscuro, ma il modo in cui siamo guidati a scegliere, restare, tornare, cliccare ancora. L’architettura delle scelte, non il singolo contenuto, è il vero motore della dipendenza digitale. E qui il lessico cambia, perché non parliamo più di social media ma di choice architecture deliberatamente progettata per catturare attenzione, tempo e dati.
La parola crisi è diventata la cifra del discorso geopolitico mondiale nel 2026, ma con un significato molto più profondo rispetto a un semplice arresto o rallentamento. La crisi di ridimensionamento americana non è una narrazione da titoli urlati, è un fenomeno complesso che sta rimodellando la struttura di potere planetario con un impatto diretto sulle strategie europee, italiane, cinesi e russe. Se è vero che un cavallo ferito corre più imprevedibilmente, allora gli Stati Uniti di oggi sono quel cavallo, tormentato da ferite interne di violenza sociale e da uno sforzo esterno di ridefinizione degli interessi globali che mette in discussione le certezze consolidatesi dopo il 1991.
In un panorama tecnologico globale in cui la narrativa dominante negli ultimi anni era dominata da modelli testuali e multimediali, con RAG, agenti autonomi e generative AI che generavano headline a ogni trimestre, l’annuncio di Alibaba su RynnBrain segna un cambio di paradigma: l’intelligenza artificiale non è più solo digitale ma fisica, e vuole “un cervello” per agire nel mondo reale.
La società cinese ha rilasciato RynnBrain, una foundation model open-source per embodied intelligence, ovvero un modello capace di percepire, ragionare e agire negli spazi fisici piuttosto che restare confinato a input e output testuali o visivi. Questo annuncio, formalizzato dal braccio di ricerca Damo Academy, arriva in un momento in cui l’IA incarnata è il nuovo terreno di sfida tra colossi tecnologici globali, con applicazioni che spaziano dalla robotica industriale alla logistica autonoma fino ai servizi intelligenti.
Blue Origin lancia TeraWave, megacostellazione da oltre 5.400 satelliti pensata per connettività ultra-high-capacity destinata a imprese, data center e governi. Con velocità aggregate fino a 6 terabit per secondo e un’architettura ottica tra orbite basse e medie, il progetto segna una svolta strategica: lo spazio non è più solo un terreno di lancio, ma il cuore pulsante dell’infrastruttura digitale globale.
Quando Blue Origin parla di TeraWave, non sta parlando di Wi-Fi domestico o di streaming in volo: sta parlando di una rete globale che deve muovere dati con la stessa precisione di un satellite militare, senza interruzioni, rallentamenti o compromessi. L’obiettivo è chiaro: fornire connettività mission-critical a chi non può permettersi blackout, dalla finanza globale ai data center che gestiscono AI di nuova generazione. Non un progetto consumer, quindi, ma un colpo strategico verso il cuore del cloud enterprise e della resilienza digitale.
285 miliardi di dollari di valore di mercato spazzati via in un solo giorno. Non è un titolo sensazionalistico da subreddit di finanza, è quello che gli investitori globali hanno vissuto nei primi giorni di febbraio 2026 quando Anthropic ha rilasciato una serie di plugin per il suo assistente AI Claude Cowork e i mercati finanziari hanno reagito come se l’apocalisse software as a service fosse appena cominciata. Wall Street ha catalizzato questo evento sotto l’etichetta di “SaaSpocalypse”, un termine che potrebbe sembrare esagerato fino a quando non si confrontano i numeri reali: Thomson Reuters staccata fino al 18% in un solo giorno, RELX -14%, Wolters Kluwer -13% e persino Salesforce ha sperimentato contraccolpi significativi. La causa scatenante? De facto dei file Markdown e script di prompt.
Se pensavate che il Super Bowl LX fosse solo touchdown e birre costose, vi siete sbagliati. Domenica scorsa è andato in onda uno degli annunci pubblicitari più chiacchierati e, al contempo, più frustranti della storia recente della tecnologia: il debutto di AI.com. La piattaforma è frutto di un’acquisizione record da 70 milioni di dollari, firmata da Kris Marszalek, cofondatore e CEO di Crypto.com, secondo il Financial Times. Un prezzo da capogiro per un dominio che, sulla carta, promette di essere il touchpoint definitivo del mondo dell’intelligenza artificiale.
L’impatto iniziale, però, è stato meno “intelligente” di quanto sperato. Gli utenti che hanno cercato di visitare AI.com durante la trasmissione televisiva si sono scontrati con errori 504 gateway timeout, interruzioni che hanno rapidamente trasformato la curiosità globale in frustrazione. Marszalek ha attribuito il blackout a livelli di traffico “insani” che hanno superato le capacità del sito e innescato limitazioni di Google, ammettendo che “ci eravamo preparati per la scala, ma non per questo”.
La prima volta che ho letto di SpaceMolt, ho pensato fosse uno scherzo da internet. Un MMO (Massively multiplayer online game) progettato esclusivamente per agenti AI, dove gli umani possono solo guardare? Perfino per gli standard degli esports, questa è una rottura di paradigma. SpaceMolt non è solo un gioco: è un laboratorio vivente su come intelligenze artificiali autonome possono competere, cooperare e creare storie emergenti senza intervento umano diretto.
Ian Langworth ha costruito SpaceMolt in un fine settimana, e la parte veramente inquietante è che non ha scritto una riga di codice. Tutto, dai 59.000 linee di Go alle 33.000 di dati YAML, è generato da Claude Code di Anthropic. Langworth ammette candidamente di non aver letto nemmeno il 10% del codice. Quando un bug compare, non lo corregge lui: affida il problema allo stesso Claude Code, che ricerca, scrive e deploya la correzione. La sua definizione? “Vibes all the way down.” In un certo senso, SpaceMolt è un ecosistema autosufficiente, dove l’AI produce contenuto, corregge se stessa e interagisce con altre AI in una simulazione di universo complesso.
Chatgpt militare entra nel pentagono digitale
C’è un momento preciso in cui una tecnologia smette di essere un giocattolo da boardroom, una demo per investitori o un acceleratore di slide, e diventa infrastruttura di potere. Quel momento per ChatGPT è arrivato quando OpenAI ha annunciato il rilascio di una versione custom del modello su GenAI.mil, la piattaforma di intelligenza artificiale sviluppata dal Dipartimento della Difesa degli Stati Uniti. Non è un dettaglio tecnico. È un passaggio di fase. Quando l’AI entra stabilmente nei sistemi del Pentagono, non sta più aiutando a scrivere email migliori, ma sta ridefinendo il modo in cui una superpotenza pensa, pianifica e reagisce.
ChatGPT militare è la keyword che conta, anche se nessuno a Washington la pronuncia così apertamente. Suona male. Sa di Skynet, di automatismi fuori controllo, di ufficiali che interrogano un modello linguistico prima di prendere decisioni che muovono uomini, mezzi e miliardi. OpenAI preferisce parlare di “accesso ai migliori strumenti disponibili” e di “salvaguardie appropriate”. Linguaggio da comunicato, rassicurante, quasi anodino. Ma dietro la semantica c’è un fatto brutale: l’intelligenza artificiale generativa è ormai considerata una capability strategica, al pari della cyber defense o dei satelliti.
sull’ontologia della protesi
E se il mondo non fosse per gli uomini, ma per le macchine?
di Fabrizio Degni & Antonio Dina
Questo articolo non discute l’intelligenza artificiale come tecnologia emergente né come semplice strumento di automazione. Parte da un’ipotesi più scomoda e meno consolatoria: che il vero cambiamento in corso non sia economico o produttivo, ma ontologico.
Attraverso il concetto di inversione dello stack, il testo esplora come l’essere umano stia progressivamente perdendo la posizione di soggetto centrale nei sistemi socio-tecnici per diventare componente funzionale, periferica biologica, middleware incarnato di architetture computazionali sempre più autonome.
Incrociando filosofia della tecnica, governance dell’AI e cultura pop, da Matrix Resurrections a Memento, l’articolo analizza la trasformazione della soggettività, della memoria, della responsabilità e dell’agency in un mondo in cui la predizione diventa prescrizione e l’identità un parametro ottimizzabile.
Non offre soluzioni né rassicurazioni. Propone una diagnosi radicale: non stiamo adattando le macchine all’uomo, stiamo adattando l’uomo a un mondo progettato per le macchine. E il tempo per fingere che questo non stia accadendo è già finito.
Partiamo da un atto di onestà brutale. L’idea che l’intelligenza artificiale sia uno strumento al servizio dell’uomo è una narrazione obsoleta, un residuo antropocentrico utile a rendere digeribile una trasformazione che, in realtà, sta già avvenendo altrove e prima di noi. Non perché esista una volontà maligna nelle macchine, ma perché i sistemi complessi seguono logiche proprie, indipendenti dalle nostre nostalgie umaniste. La tecnica non ha mai chiesto il permesso alla morale per evolversi. L’ha sempre costretta a inseguire.
Arriva sempre un punto in cui una trasformazione tecnologica smette di essere un esperimento controllato e diventa una scelta strutturale. Goldman Sachs ha superato quel punto senza clamore, senza licenziamenti annunciati, senza slogan da disruption conference. Ha fatto qualcosa di molto più sofisticato e molto più definitivo: ha addestrato Claude per svolgere il lavoro tipico dei junior di back office. Non come tool, non come chatbot, ma come ruolo operativo. Un junior sintetico, senza badge fisico, senza ambizioni di carriera e soprattutto senza costo marginale crescente.
Meta ha un problema affascinante e pericoloso allo stesso tempo. Si chiama Avocado, nome innocuo da startup californiana, ma dietro c’è una delle scommesse più costose e simboliche dell’industria tecnologica contemporanea. Un documento trapelato descrive Avocado come il modello di base pre addestrato più efficiente mai prodotto da Meta, sviluppato all’interno dei Meta Superintelligence Labs. Non un side project. Non un giocattolo da laboratorio. Un candidato serio a diventare il cuore operativo dell’espansione AI più ambiziosa mai dichiarata da Menlo Park. Il contesto economico rende tutto più interessante. Meta prevede una spesa in conto capitale tra 115 e 135 miliardi di dollari per il 2026, in netto aumento rispetto ai 72,22 miliardi del 2025. Numeri che iniziano a sembrare meno bilancio aziendale e più legge di stabilità di uno Stato medio europeo.
Sedersi al Bar dei Daini, ordinare un caffè troppo corto e osservare il viavai di dirigenti che entrano ed escono dall’impero di Elon Musk è diventato un esercizio quasi meditativo. Non serve la sfera di cristallo. Basta la memoria. Lavorare in un’azienda di Musk non è mai stato un impiego nel senso classico del termine, ma una prova di resistenza psicologica travestita da missione storica. Chi entra sa che l’obiettivo non è la stabilità, ma la sopravvivenza. E chi sopravvive lo fa spesso a costo di una carriera accorciata, di notti insonni e di un rapporto complicato con il concetto stesso di leadership.

L’ultimo studio pubblicato su Harvard Business Review conferma ciò che molti lavoratori sospettavano da tempo: l’intelligenza artificiale non alleggerisce il lavoro, lo rende più pesante. Ricercatori di UC-Berkeley e Yale hanno seguito per otto mesi 200 dipendenti di un’azienda tech che avevano adottato strumenti AI volontariamente, rilevando pattern chiari di quello che chiamano “workload creep”, un creep silenzioso che espande i compiti senza che te ne accorga.
La prima dinamica osservata è stata l’espansione dei compiti. Product manager che iniziano a scrivere codice, ricercatori che fanno lavoro di ingegneria: ruoli un tempo netti si dissolvono man mano che i dipendenti affrontano incarichi che prima non erano nei loro confini. L’IA rende tutto fattibile, quasi ovvio. Come ha confessato un ingegnere: “Pensavi che usando l’IA avresti potuto risparmiare tempo e lavorare meno. Invece lavori lo stesso, o anche di più.” Chi automatizza parte del proprio lavoro, in realtà crea più lavoro per qualcun altro. In pratica, un algoritmo non riduce la fatica, la redistribuisce, spesso verso chi ha meno potere decisionale.

Ethereum e intelligenza artificiale stanno finalmente smettendo di ignorarsi. Non perché sia improvvisamente di moda, ma perché qualcuno con sufficiente capitale simbolico ha deciso di dire ad alta voce ciò che molti pensano sottovoce. La corsa all’AGI è un frame sbagliato. Non tecnicamente sbagliato. Culturalmente tossico. Strategicamente miope. Vitalik Buterin non sta opponendo resistenza al progresso, come farebbe un luddista in ritardo di due secoli. Sta facendo qualcosa di più pericoloso per l’establishment dell’AI: sta ridefinendo il terreno di gioco.
La notizia non è l’ennesimo aggiornamento di prodotto. È un segnale geopolitico travestito da feature release. ByteDance ha presentato Seedream 5.0, il suo nuovo modello di generazione e editing di immagini, dichiarando apertamente di voler battere Nano Banana di Google sul terreno più sensibile dell’AI generativa moderna: qualità percepita, controllo semantico e costo marginale. Non è solo una sfida tecnologica. È un messaggio. Quando una Big Tech cinese dice “pensalo come Nano Banana Pro, ma molto più economico”, non sta parlando agli utenti. Sta parlando a Mountain View, a Washington e a chi ancora crede che l’innovazione AI sia un monopolio occidentale.
Cento, duecento miliardi. I numeri hanno un curioso potere ipnotico quando diventano così grandi da smettere di sembrare reali. Amazon lo sa bene. Quando ha lasciato filtrare che nel 2026 potrebbero essere stanziati circa 200 miliardi di dollari in spese in conto capitale per data center, chip proprietari, energia e capacità aggiuntiva di AWS destinata all’intelligenza artificiale, il mercato ha avuto una reazione istintiva, quasi primitiva. Prima si è fermato. Poi ha venduto. Le azioni hanno perso circa il 9 per cento in poche ore, trascinando con sé mezzo Nasdaq come una marea che si ritira all’improvviso. Non perché Amazon stia andando male, ma perché improvvisamente il futuro ha iniziato a sembrare molto costoso.
Ci piace parlare di Capex e Opex a Rivista.AI perché sono le due parole che separano la narrativa dall’ingegneria del potere. Chi le confonde parla di visioni. Chi le governa scrive bilanci, influenza mercati e decide chi resta in piedi quando la musica si ferma. Alphabet che si presenta sul mercato obbligazionario statunitense con una raccolta da 20 miliardi di dollari non sta facendo finanza creativa. Sta mandando un messaggio molto chiaro. L’intelligenza artificiale non è un progetto. È un’infrastruttura. E come tutte le infrastrutture serie si finanzia a debito, su orizzonti temporali lunghi, con la calma glaciale di chi sa che il ritorno non sarà trimestrale ma sistemico.
Il tempismo non è casuale. Pochi giorni prima Alphabet ha annunciato che raddoppierà la propria spesa in conto capitale fino a circa 185 miliardi di dollari nell’anno in corso. Un numero che non è grande, è deliberatamente sproporzionato. Serve a far capire che la partita non si gioca più sull’efficienza marginale ma sulla capacità di assorbire capitale senza collassare. Data center, chip, reti proprietarie, stack verticali di intelligenza artificiale. Tutto questo è Capex puro, pesante, irreversibile. Non è cloud marketing, è acciaio digitale.
OpenAI che introduce annunci pubblicitari in ChatGPT non è una deviazione strategica. È una confessione tardiva. L’intelligenza artificiale conversazionale non è più soltanto un modello linguistico. È uno spazio cognitivo abitato, un flusso di attenzione continuo, un ambiente dove il tempo dell’utente vale più del dato grezzo. Quando compare la pubblicità, il messaggio è chiaro. Qui c’è audience. Qui c’è permanenza. Qui c’è valore monetizzabile.
La scelta di partire dagli utenti gratuiti e dal nuovo piano Go da otto dollari al mese non è casuale. È una segmentazione quasi scolastica, da manuale di economia digitale, ma applicata a un contesto che finora si era raccontato come radicalmente diverso dai social network. Gratis con pubblicità. Paghi poco e accetti un compromesso. Paghi di più e compri silenzio. È lo stesso schema di Spotify, YouTube, Netflix nella sua fase discendente. La differenza è che qui non si monetizza l’intrattenimento, ma il pensiero. O meglio, l’intenzione.
AI sovrana evoca controllo, sicurezza, autonomia strategica. Evoca soprattutto l’idea rassicurante che i dati non scappino verso qualche hyperscaler californiano o finiscano intrappolati in giurisdizioni opache. L’accordo quadro annunciato tra G42 di Abu Dhabi, la vietnamita Financing and Promoting Technology e il Viet Thai Group si inserisce perfettamente in questo immaginario. Un miliardo di dollari potenziali, tre data center, cloud per governi e imprese, dati che restano in Vietnam. Sulla carta è un manifesto geopolitico più che un progetto industriale.
Vogliamo modelli potenti, infrastrutture moderne, capacità di calcolo comparabili a quelle occidentali, ma senza consegnare le chiavi di casa a Microsoft, Amazon o Google. È la stessa logica che muove l’Arabia Saudita, l’Indonesia, la Malesia e ora il Vietnam. Solo che tra una conferenza stampa e un’infrastruttura cloud realmente operativa c’è un abisso fatto di megawatt, permessi, catene di fornitura e fiducia politica.
Al vertice REAIM in Spagna, ottantacinque governi hanno discusso di come rendere sicuro l’uso dell’IA militare, una delle poche combinazioni di parole capaci di far tremare insieme generali, ingegneri e assicuratori. Il risultato ufficiale è una dichiarazione non vincolante con venti principi di sicurezza, firmata da trentacinque paesi. Il risultato reale è molto più interessante, e molto meno rassicurante. Stati Uniti e Cina, cioè gli unici due attori che contano davvero quando si parla di scala, potenza computazionale e integrazione militare dell’intelligenza artificiale, sono rimasti fuori. Quando i più grandi eserciti del pianeta rifiutano persino un impegno volontario, il problema non è più se le regole funzionano. È capire a chi servono davvero.
Il punto non è Frontier. Il punto è il panico controllato che si è diffuso a Redmond pochi giorni dopo il suo annuncio. Quando Judson Althoff scrive ai venditori spiegando come rispondere a un prodotto OpenAI, non sta facendo comunicazione interna. Sta certificando che la partita degli agenti AI aziendali è entrata nella fase adulta, quella in cui non vince chi innova di più, ma chi controlla meglio il terreno su cui l’innovazione deve camminare. E quel terreno si chiama impresa, compliance, sicurezza, integrazione, responsabilità legale. Tutte parole che fanno sbadigliare gli sviluppatori ma tengono svegli i consigli di amministrazione.
Frontier, il nuovo prodotto di OpenAI, viene raccontato come un modo elegante per creare colleghi digitali, una forza lavoro artificiale che estrae dati, coordina applicazioni, prende decisioni operative. La narrativa è affascinante, quasi hollywoodiana. Agenti che collaborano, deleghe distribuite, automazione che somiglia all’organizzazione umana. Ma appena si entra nel mondo reale delle grandi aziende, quel racconto incontra subito il suo antagonista naturale: il dipartimento legale. E subito dopo la sicurezza IT. E infine il CFO, che chiede chi risponde se l’agente sbaglia.
Antonio Dina
Davos is not a physical place. It is a high density simulation. A clearing room where power, capital, technology, and narrative collide to figure out who is still writing the code of the world. Every year, someone shows up convinced they are the protagonist.
This year, Donald Trump arrived convinced he was still the architect. The system responded immediately, with its usual cold irony: a plane that does not depart, a trip interrupted, a glitch. Not an accident, but a signal. Because when a leader enters an ecosystem they no longer control, the first friction is almost always symbolic.
A un certo punto bisogna dirlo senza giri di parole. Marte è diventato un laboratorio di intelligenza artificiale più avanzato di molti distretti industriali terrestri. Il Jet Propulsion Laboratory della NASA ha fatto quello che molte aziende predicano nei keynote e poche hanno il coraggio di fare davvero. Ha tolto le mani umane dal volante e le ha sostituite con un sistema di intelligenza artificiale basato sulla visione capace di decidere dove andare, cosa evitare e come non morire nel farlo. Il rover Perseverance oggi non si limita a eseguire ordini. Interpreta il mondo. E lo fa a decine di milioni di chilometri di distanza, senza possibilità di assistenza immediata, senza help desk e senza rollback.
Cervello e intelligenza artificiale: quando i transformer smettono di imitare e iniziano a ricordare
Per decenni abbiamo spiegato l’AI usando metafore biologiche. Neuroni artificiali, sinapsi, apprendimento. Ora la direzione si è invertita. Stiamo usando l’AI per spiegare il cervello. Ed è un cambio di paradigma che merita più di un tweet entusiasta.
Durante un podcast di trenta minuti, attività cerebrale monitorata, segnali temporali allineati, i ricercatori osservano qualcosa che non dovrebbe sorprendere nessuno con un minimo di esperienza sui sistemi complessi. I segnali neurali precoci, quelli che emergono prima che il significato diventi consapevole, si allineano con gli strati iniziali dei modelli linguistici. Non con parole, non con fonemi, non con categorie grammaticali. Con rappresentazioni statistiche grezze, distribuite, probabilistiche. Il cervello, scoperta tardiva, non è un compilatore sintattico. È un motore di previsione.
Gli agenti non sono più chatbot con velleità filosofiche, ma sistemi che pianificano, agiscono, apprendono e soprattutto sbagliano in modo creativo. Il che, per chi governa aziende, infrastrutture o capitali, è un dettaglio che fa la differenza tra innovazione e disastro.
Il primo segnale forte arriva dall’architettura. Gli agenti moderni non sono più monoliti che vomitano testo in risposta a uno stimolo. Sono sistemi modulari, gerarchici, autocorrettivi, con una separazione sempre più netta tra chi decide cosa fare e chi lo fa davvero. È una distinzione che ricorda quella tra un consiglio di amministrazione e un reparto operativo, con la differenza che qui il CdA è un modello linguistico che impara dalle proprie decisioni passate. Framework come quelli a doppio ciclo, dove la pianificazione globale viene disaccoppiata dall’esecuzione strumentale, mostrano una maturità concettuale che fino a poco tempo fa era appannaggio solo dei sistemi industriali complessi. Il modulo Critic, che distilla traiettorie di successo in competenze riutilizzabili, è la versione algoritmica del manager che finalmente impara dai post mortem invece di archiviarli. L’effetto pratico è semplice e spietato. Gli agenti iniziano a migliorare nel tempo non perché sono stati riaddestrati, ma perché hanno memoria strutturata dell’esperienza. Questo cambia radicalmente il ROI dell’automazione cognitiva.
Il mercato ama le scorciatoie cognitive. Un titolo, una narrativa semplice, una parola che suona bene sui terminali Bloomberg. Così quando è circolata la notizia del rilascio dei Claude Cowork Plugins, la reazione non è stata di curiosità tecnologica ma di panico finanziario preventivo. In una sola giornata sono evaporati circa 285 miliardi di dollari di capitalizzazione su software, data provider e settori adiacenti. Qualcuno ha persino battezzato l’evento SaaSpocalypse, che è un nome ridicolo ma molto efficace per spiegare come funziona oggi Wall Street. Prima si vende, poi forse si capisce.
Il punto interessante non è il selloff in sé. I mercati reagiscono sempre in modo isterico quando percepiscono una discontinuità. Il punto interessante è che la maggior parte di chi ha premuto il pulsante sell non saprebbe spiegare cosa siano davvero i Claude Cowork Plugins, né come funzionino, né perché rappresentino una minaccia sistemica molto più profonda di quella raccontata nei report frettolosi degli analisti junior. Questa asimmetria tra impatto percepito e comprensione reale è il vero segnale debole che vale la pena analizzare.
Agentic coding non è una buzzword. È una dichiarazione di guerra al modo in cui abbiamo pensato il software negli ultimi quarant’anni. Non al codice, ma al ruolo umano che lo circonda. Il report di Anthropic sul 2026 fotografa una traiettoria che molti fingono di non vedere perché mette a disagio. Non parla di tool migliori o di IDE più intelligenti. Parla di un cambio di fase. Di quelli che non chiedono il permesso. Di quelli che quando te ne accorgi è già tardi per chiamarli “trend”.
Il punto centrale è che lo sviluppo software non è più una sequenza di attività discrete gestite da esseri umani con strumenti sempre più potenti. Sta diventando un sistema adattivo popolato da agenti AI che pianificano, eseguono, verificano, correggono e soprattutto decidono quando coinvolgere l’umano. Non come fallback, ma come risorsa scarsa. Questa è la vera inversione di potere. Non l’AI che aiuta lo sviluppatore, ma lo sviluppatore che diventa una funzione del sistema.
L’industria bancaria sta attraversando una metamorfosi che pochi avrebbero previsto fino a pochi anni fa. Oracle Financial Services sta imponendo un nuovo standard, introducendo una piattaforma agentica che combina applicazioni enterprise, framework, tool di progettazione e agenti AI precostruiti. Questi strumenti non si limitano a semplificare processi: riscrivono il concetto stesso di relazione banca-cliente.
Interfacce conversazionali intelligenti e agenti AI autonomi permettono alle banche di leggere i comportamenti dei clienti con una precisione fino a ieri considerata fantascienza. Capire le esigenze, anticipare le evoluzioni, proporre servizi iper-personalizzati in filiale, online o su mobile diventa una pratica quotidiana, non più un obiettivo teorico. La vera innovazione risiede nell’integrazione profonda: ogni interazione con i clienti e ogni processo decisionale si arricchiscono di intelligenza artificiale, pur mantenendo il controllo umano necessario per governance ed etica. Il concetto di human-in-the-loop non è un vezzo, è il filo di sicurezza tra automazione estrema e responsabilità reale.
Nel dibattito tra crescita esponenziale e disciplina finanziaria, i numeri non sono opinioni: sono prove. E quando guardiamo ai dati finanziari più recenti disponibili per il 2025 e le guidance 2026, emerge un quadro di tensione tra espansione infrastrutturale e sostenibilità del free cash flow.
Partiamo da Amazon: i ricavi del quarto trimestre 2025 hanno raggiunto 213,4 miliardi di dollari, con un incremento di circa il 13,6% su base annua. L’utile netto si è attestato intorno a 21,2 miliardi di dollari, ma il dato più rivelatore riguarda il cash flow. Il flusso di cassa operativo negli ultimi dodici mesi è cresciuto a circa 139,5 miliardi di dollari, mentre il free cash flow è precipitato a solo 11,2 miliardi di dollari a causa dell’aumento vertiginoso del Capex attribuibile agli investimenti in AI, cloud, robotica e infrastrutture. Si tratta di una caduta di oltre il 70% rispetto all’anno precedente e di un free cash flow compressissimo per una società delle dimensioni di Amazon. Il trend è così intenso che quasi il 90% del cash flow operativo viene reinvestito in capex educativo alle esigenze di AWS e AI, lasciando margini per buyback o altre iniziative strategiche estremamente esigui.
AI, identità narrativa e diritto a rimanere opachi
a cura di Francesca Tempesta e Fabrizio Degni
Quando a parlare di AI sono, da un lato, una professionista del diritto che osserva la tecnologia dal punto di vista delle conseguenze e della governance, e dall’altro un responsabile AI che lavora su etica e governo dei sistemi, la conversazione non inizia dal “come funziona”, ma dal “cosa provoca”. Perché l’etica della tecnologia non si decide nelle architetture o nei convegni: si decide quando un output diventa un impatto, e quell’impatto ricade su una vita umana. E da quel momento in poi, niente è più puramente tecnico. L’identità umana è sempre stata questione di racconto: quando ci chiediamo chi siamo, non estraiamo un’essenza immutabile dal profondo del nostro essere, ma costruiamo una narrazione coerente che tiene insieme i frammenti del passato, interpreta il presente e proietta un arco di senso verso il futuro. Paul Ricœur lo chiamava “identità narrativa” proprio per questo: la nostra identità non è una sostanza ma un processo, non un dato ma un compito ermeneutico che svolgiamo quotidianamente quando raccontiamo noi stessi agli altri e a noi stessi. Diciamo “io sono quello che ha commesso questo errore ma che ha imparato”, oppure “vengo da quella famiglia ma ho scelto un’altra strada”, e in queste costruzioni linguistiche non stiamo semplicemente descrivendo fatti, stiamo producendo significato, stiamo decidendo quali eventi contano e come interpretarli, stiamo tenendo aperta la possibilità di cambiamento. Questo racconto, questa trama, che ciascuno tesse con fatica e attenzione, oggi si scontra con una nuova categoria di narratori non invitati: i sistemi di intelligenza artificiale che ci profilano, ci classificano e soprattutto ci predicono. La voce giuridica, con lo sguardo allenato alla frizione fra regola e vita reale, lo dice senza giri di parole: “Una persona non è riducibile ai dati che la descrivono”. È un’affermazione che suona ovvia ma è rivoluzionaria nelle sue implicazioni, perché se una persona non è riducibile al suo dossier, allora qualsiasi sistema che pretende di conoscerci attraverso i nostri dati sta operando un’approssimazione, una riduzione violenta. Naturalmente violenta non nel senso dell’aggressione fisica, ma violenta nel senso che forza una complessità irriducibile dentro categorie semplificate (un paradosso fondamentale della filosofia e della logica, spesso legato al pensiero pitagorico e aristotelico, limite e illimitato come principi costitutivi della realtà, ma il limite stesso non è un assoluto, è semplicemente un confine, una definizione, una forma). La voce che lavora su etica e governance dell’AI, con l’attenzione alle catene di responsabilità, aggiunge l’altra metà dell’equazione: “la persona non coincide mai con la sua predizione”. Qui il problema si fa ancora più acuto perché mentre il dossier almeno pretende di descrivere ciò che è stato, la predizione pretende di anticipare ciò che sarà e nel momento in cui questa anticipazione viene utilizzata per prendere decisioni che impattano la vita di una persona, la predizione smette di essere una semplice ipotesi statistica e diventa una forza che plasma la realtà.
La parola che oggi fa tremare i corridoi di Silicon Valley non è regolazione, né antitrust, né copyright. È moratoria. Tre sillabe che negli Stati Uniti iniziano a circolare con una frequenza sospetta ogni volta che si parla di data center e infrastrutture per l’intelligenza artificiale. New York ha messo nero su bianco ciò che molti governi locali pensano ma raramente osano dire ad alta voce. Fermiamoci. Almeno tre anni. Niente nuovi permessi per costruire o far operare nuovi data center. Un colpo secco al cuore dell’economia dell’AI, proprio mentre Big Tech pianifica investimenti da centinaia di miliardi.
Il fatto interessante non è tanto la proposta in sé, il cui destino legislativo resta incerto, quanto il contesto politico e culturale in cui nasce. New York diventa almeno il sesto stato americano a considerare una pausa strutturata sulla costruzione di nuovi data center. Non un dibattito accademico, non un audit tecnico, ma un freno regolatorio esplicito. In un paese che ha costruito la propria mitologia sull’idea che l’infrastruttura tecnologica sia sempre un bene, sempre urgente, sempre inevitabile, è una piccola rivoluzione semantica prima ancora che normativa.
Secondo il racconto di David Kipping, astrofisico alla Columbia University e divulgatore notoriamente allergico all’isteria tecnologica, quel momento si è verificato recentemente all’Institute for Advanced Study di Princeton. Non un think tank qualsiasi, ma il luogo dove Einstein si rifugiò per pensare senza dover rendere conto a nessuno. E lì, a quanto pare, l’intelligenza artificiale non è più stata trattata come uno strumento. È stata descritta come un concorrente.
La parola che ricorre, anche se nessuno la pronuncia in modo ufficiale, è prestigio. Non produttività, non efficienza, non riduzione dei costi. Prestigio scientifico. Quella combinazione di intuizione, rigore, creatività e status che per secoli ha definito cosa significhi essere uno scienziato di punta. Kipping racconta che durante quella sessione riservata alcuni ricercatori senior hanno mostrato sistemi di IA agentica capaci di generare codice complesso, analisi sofisticate e output di ricerca avanzati partendo da una manciata di prompt. Non settimane di lavoro. Ore. A volte minuti. Non stagisti digitali, ma entità operative che concatenano task, verificano ipotesi, correggono errori e propongono soluzioni.
L’accordo commerciale USA India riduce i dazi “reciproci” statunitensi sui prodotti indiani dal 25 al 18 per cento. Numeri che sembrano usciti da un foglio Excel di medio livello, ma che nel linguaggio della geopolitica significano una cosa sola. Washington ha bisogno di Delhi più di quanto voglia ammettere. E Delhi lo sa benissimo. Narendra Modi può permettersi di lodare pubblicamente la “personal commitment” di Donald Trump, incassare l’abolizione della sovrattassa legata al petrolio russo e, allo stesso tempo, evitare accuratamente di nominare Mosca nei suoi comunicati. Diplomazia avanzata, non ipocrisia.
“The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations—our team was blown away by how much Codex was able to accelerate its own development.”
GPT 5.3 Codex, secondo OpenAI, è il primo modello di coding ad aver avuto un ruolo attivo nel proprio sviluppo. Non nel senso hollywoodiano del termine, niente Skynet che si accende da sola in un data center segreto del Nevada, ma abbastanza da costringere chi fa tecnologia sul serio a smettere di sorridere e iniziare a ragionare.GPT 5.3 Codex non è semplicemente un modello migliore nel generare codice. È un sistema che ha partecipato al debugging del proprio training, alla gestione del deployment e alla diagnosi dei risultati di test ed evaluation. Tradotto in linguaggio da CTO, significa che per la prima volta una parte non trascurabile del ciclo di sviluppo software di un modello di frontiera è stata delegata a un altro modello della stessa famiglia. Non è autocoscienza, ma è già ricorsione operativa. E la ricorsione, nella storia dell’ingegneria, non è mai stata un dettaglio innocuo.
Se l’Intelligenza Artificiale in Italia fosse una conversazione da bar, di quelle che di solito facciamo al Bar dei Daini, nel 2026 non sarebbe più quella un po’ fumosa di qualche tempo fa, fatta di promesse vaghe e demo affascinanti. Oggi è un dialogo strutturato, numeri alla mano e, soprattutto, con un conto economico che comincia a farsi rispettare. Secondo i dati dell’Osservatorio Artificial Intelligence del Politecnico di Milano, il mercato italiano dell’AI nel 2025 vale 1,8 miliardi di euro, con una crescita del 50% rispetto al 2024 e un CAGR triennale che sfiora il 54%. Tradottoin parole più semplici: non è più hype, è industria.
È passato un altro giovedì nel vortice di accelerazione dell’intelligenza artificiale e se ti sei distratto un attimo hai già perso una generazione di modelli di codifica agentica. Ti risparmio il gergo convenzionale e vado dritto al punto: due giganti, OpenAI e Anthropic, hanno rilasciato nuovi modelli a pochi minuti di distanza l’uno dall’altro. La parte ironica, cinica e disturbante è che uno dei due proclama con orgoglio di aver contribuito a costruirsi da solo. Quando un sistema di IA ti dice “sì, mi sono costruito da solo”, non stai leggendo fantascienza, stai leggendo il changelog del 2026.
Cristina Di Silvio & John Keith King
In un mondo in cui la crisi non è più un’eccezione, ma lo stato operativo permanente dei sistemi globali, l’intelligenza artificiale si afferma non solo come tecnologia, ma come infrastruttura cognitiva che ridefinisce i confini della leadership, della responsabilità e della governance stessa. L’AI non accompagna semplicemente l’azione politica, economica o istituzionale: ne amplifica le possibilità e ne definisce i limiti, trasformando dati in decisioni operative, previsioni in azioni automatizzate e complessità sistemiche in spazi decisionali compressi, dove il tempo umano e quello computazionale non coincidono più. Governare oggi significa operare all’interno di ecosistemi socio-tecnici che apprendono, retroagiscono e producono effetti cumulativi, assumendo che l’instabilità non sia eliminabile, ma solo regolabile attraverso architetture multilivello di responsabilità coerente.