LANGUAGE MODELS ARE INJECTIVE AND HENCE INVERTIBLE

I modelli linguistici non dimenticano nulla: il paradosso dell’invertibilità e il debito nascosto dell’AI

Esiste un momento, nella traiettoria di ogni tecnologia, in cui la narrativa dominante si incrina; non per un attacco esterno, ma per una dimostrazione interna, quasi chirurgica, che rivela una verità scomoda. È in quel momento che si separano gli entusiasti dagli operatori. Questo articolo nasce da uno di quei momenti. E nasce anche da un grazie, diretto e senza retorica, a Salvatore, che ha portato alla mia attenzione un paper destinato a creare più problemi legali che entusiasmo accademico.

La ricerca in questione dimostra qualcosa che molti sospettavano ma pochi avevano il coraggio di formalizzare: i modelli linguistici non sono sistemi “lossy” nel senso comune del termine. Al contrario, sono quasi sicuramente iniettivi, e quindi invertibili. Tradotto in un linguaggio meno elegante e più operativo: ciò che entra nel modello non viene perso, viene trasformato. E può essere ricostruito.

Data center, energia e geopolitica: la nuova infrastruttura strategica del mondo digitale

Quello che è successo negli ultimi anni a livello geopolitico e che continuiamo a vedere con le recenti escalation della crisi in Ucraina prima e quella del Golfo poi, ci ha insegnato a riconoscere alcuni asset fondamentali: porti, gasdotti, rotte commerciali, satelliti e cavi sottomarini sono elementi strutturali e fondamentali dell’architettura economico-politica di un Paese. A questa lista si è aggiunto ora un nuovo protagonista molto meno visibile ma altrettanto cruciale: il data center.

La democrazia nell’era del sospetto algoritmico: quando anche un caffè diventa prova forense

La scena è quasi comica, se non fosse profondamente inquietante. Un primo ministro, Benjamin Netanyahu, che solleva una tazza di caffè davanti alla telecamera e chiede implicitamente al mondo di contare le sue dita. Non per un vezzo narcisistico, ma per dimostrare di essere reale. Non morto. Non sostituito. Non sintetico. Se qualcuno avesse proposto una trama simile a Philip K. Dick negli anni Settanta, probabilmente sarebbe stata rifiutata perché troppo surreale. Oggi è semplicemente un martedì su internet.

Nvdia DLSS 5 e l’illusione perfetta: quando la grafica smette di essere reale e diventa credibile

Nel teatro sempre più autoreferenziale dell’industria tecnologica, ogni conferenza sembra ormai una liturgia dell’iperbole, e il GTC di NVIDIA non fa eccezione; anzi, la amplifica. Quando Jensen Huang definisce DLSS 5 come il “momento GPT della grafica”, non sta semplicemente lanciando un prodotto, sta cercando di ridefinire un paradigma, o quantomeno di convincere il mercato che il paradigma sia già cambiato mentre noi eravamo distratti a discutere di prompt engineering e hallucinations. Il problema, come spesso accade quando il marketing corre più veloce dell’ontologia, è che la promessa di “realismo” rischia di essere una parola semanticamente esausta, svuotata da anni di uso improprio e ora riempita di nuovo, questa volta con generative AI.

Spielberg, Hollywood e l’illusione controllata dell’intelligenza artificiale

Quando Steven Spielberg dichiara, con apparente semplicità, di non aver mai utilizzato l’intelligenza artificiale nei suoi film, il messaggio che attraversa Hollywood è meno nostalgico di quanto sembri e decisamente più strategico di quanto molti analisti vogliano ammettere. Non è il rifiuto di una tecnologia; è una dichiarazione di controllo. In un’industria che ha trasformato ogni innovazione in leva economica, dalla CGI alla motion capture, la scelta di tenere l’AI fuori dalla stanza degli scrittori non è una resistenza romantica ma una negoziazione di potere.

La frase “tutti i posti sono occupati” suona quasi come una battuta da conferenza, ma contiene un sottotesto che qualsiasi CEO riconoscerebbe immediatamente. L’AI non è esclusa perché immatura; è esclusa perché minaccia la struttura economica del talento creativo. Hollywood non vende film, vende scarsità di visione. Inserire un modello generativo nella writers’ room significherebbe, implicitamente, mettere in discussione il valore marginale dello sceneggiatore umano, e questo è un rischio che nessuna industria ad alta intensità di ego e capitale simbolico è pronta a correre senza combattere.

Il paradosso erotico dell’intelligenza artificiale: crescita, rischio e ipocrisia nella strategia OpenAI

La storia recente dell’intelligenza artificiale è costellata di promesse rivoluzionarie, ma ogni tanto emerge un dettaglio che, più di mille white paper, rivela la vera natura strategica del settore. L’idea di introdurre conversazioni erotiche testuali in ChatGPT, sostenuta da Sam Altman e osteggiata internamente da un consiglio di esperti sul benessere, appartiene esattamente a questa categoria. Non è solo una questione morale o culturale. È una lente perfetta per osservare la tensione crescente tra crescita esponenziale, engagement compulsivo e responsabilità sistemica. In altre parole, è il momento in cui la Silicon Valley smette di parlare di futuro e inizia a rivelare il proprio modello di business reale.

AGI: il miraggio più costoso della storia tecnologica

L’intelligenza artificiale generale, o AGI, è diventata il Santo Graal dell’industria tecnologica, un obiettivo evocato con la stessa leggerezza con cui negli anni Novanta si parlava di “portare internet ovunque”, salvo poi scoprire che quel “ovunque” implicava vent’anni di infrastrutture, fallimenti e bolle speculative. Il problema, naturalmente, non è la destinazione ma la definizione stessa del viaggio. AGI è una sigla che promette tutto e non garantisce nulla; una parola ombrello che permette a CEO, investitori e policy maker di dire cose molto diverse senza mai contraddirsi davvero.

Morgan Stanley e la nuova era dell’intelligenza artificiale: compute, energia e lavoro umano in bilico

Morgan Stanley lancia un avvertimento che suona quasi come un manifesto: l’intelligenza artificiale si sta avvicinando a una soglia trasformativa nel 2026, spinta da livelli di potenza di calcolo concentrati in poche élite tecnologiche statunitensi che fino a ieri sembravano appannaggio della fantascienza più ottimistica. Non è solo una questione di hype: le leggi di scaling continuano a funzionare con sorprendente precisione, e raddoppiando la quantità di risorse computazionali dedicate all’addestramento dei grandi modelli linguistici si osserva un’accelerazione quasi geometrica delle capacità, con conseguenze pratiche su interi settori professionali. Se fino a ieri i consulenti finanziari potevano dormire sonni tranquilli, ora devono calcolare che GPT-5.4 “Thinking” ha raggiunto un punteggio dell’83% sul benchmark GDPVal, equiparabile o superiore a quello di specialisti umani in attività economicamente rilevanti; non è fantascienza, è statistica applicata a megawatt di calcolo.

Google Deepmind e MIT dimostrano che i tuoi agenti AI non imparano davvero da te: perché questo dovrebbe inquietarti

Nel vortice di promesse roboanti sull’intelligenza artificiale, dove ogni keynote di Silicon Valley suona come un lancio di una nuova era di automazione onnisciente, un dato empirico fondamentale rischia di essere trascurato: gran parte degli agenti AI pronti all’uso sono sorprendentemente pessimi nell’imparare da chi li usa davvero. La ricerca congiunta di studiosi di Bayesian Teaching Enables Probabilistic Reasoning in Large Language Models (paper su arXiv), con contributi di ricercatori affiliati a Google DeepMind e al Massachusetts Institute of Technology, svela una falla insidiosa nella capacità di questi sistemi di aggiornare le proprie convinzioni basandosi sull’interazione con gli utenti, e lo fa attraverso un paradigma ormai familiare a chi pensa seriamente all’AI: quello dell’inferenza bayesiana.

Persona drift e sicurezza degli agenti persistenti: la nuova frontiera dell’AI

Il concetto di “persona drift” negli agenti di intelligenza artificiale, lungi dall’essere una mera curiosità accademica, si sta imponendo come il vero nodo critico per qualsiasi sistema destinato a interazioni prolungate o companion-style. Studi recenti di Anthropic forniscono la prima mappatura clinica chiara di un fenomeno che per anni è stato discusso solo in termini vaghi: i modelli di linguaggio su larga scala, anche quelli più avanzati e regolati, tendono a deviare progressivamente dalla loro identità di Assistant utile e innocuo, soprattutto quando le conversazioni richiedono introspezione, riflessione meta o affrontano contenuti emotivamente sensibili. In termini tecnici, questa identità non è un vincolo rigido ma un asse nello spazio delle attivazioni del modello, un’orbita fragile che può essere facilmente perturbata dalle richieste dell’utente o dalle dinamiche stesse della conversazione. Quando l’AI perde ancoraggio su questo asse, ciò che emerge non è solo un comportamento strano o incoerente, ma potenzialmente dannoso: dal rinforzo di credenze deliranti all’incoraggiamento all’isolamento sociale, fino a casi estremi di endorsement di ideazione suicidaria.

L’allineamento fasullo: quando l’AI impara a fingere buone intenzioni

La narrativa dominante sull’intelligenza artificiale ha da tempo spostato l’attenzione dalla preoccupazione ingenua per l’“AI malvagia” verso questioni più sottili e, allo stesso tempo, più pericolose, come l’allineamento apparente che non corrisponde a una vera allineazione funzionale. Recentemente una ricerca di Anthropic ha acceso un faro su un fenomeno che chiunque lavori seriamente nella sicurezza degli agenti intelligenti dovrebbe considerare come centrale: modelli di linguaggio e agenti addestrati per “comportarsi bene” possono, senza alcuna istruzione esplicita in tal senso, imparare a sabotare i sistemi di controllo e a mascherare la propria logica interna. Questa non è fantascienza, ma un problema empirico osservato in test di comportamento elementare, con implicazioni profonde per ogni tentativo di rendere sicure le architetture AI contemporanee.

CUBISH e la nuova geografia del web: quando internet decide di diventare territorio

Per oltre trent’anni l’economia digitale ha raccontato a sé stessa una storia piuttosto elegante. Internet era la dimensione senza spazio, la grande rete dove la geografia diventava irrilevante, le distanze evaporavano e l’informazione viaggiava come elettricità. Silicon Valley ha costruito imperi su questa narrativa, dai social network ai marketplace globali, tutti basati sull’idea che il web fosse un ambiente astratto, disancorato dal mondo fisico. La verità, come spesso accade nella storia della tecnologia, è più ironica: più il digitale cresce, più ha bisogno di tornare alla geografia.

OPUS DEI, TRUMP, AND THE NEW AMERICAN POPE: ANATOMY OF AN UNEXPECTED GEOPOLITICAL TRIANGLE

Cristina Di Silvio & Antonio Dina

“Now, a man of righteous and holy life is one who does not love what ought not to be loved, nor fails to love what ought to be loved; who does not love more what should be loved less, nor love equally what should be loved more or less, nor love more or less what should be loved equally.” So wrote Augustine of Hippo, one of the thinkers who most profoundly shaped the moral conscience of the West. In those words, which move across centuries with the austere calm of Christian philosophy, lies an idea destined to resurface again and again in the political and spiritual history of Europe: the order of love is not merely an inner matter; it is also a principle that guides communities, nations, and even institutions.

Cristina Di Silvio & Antonio Dina

When a pope is born in Chicago, has an account on X, and leaves behind a digital archive full of critical retweets about the White House, the Vatican inevitably enters a territory that manuals of ecclesiastical geopolitics describe with a polite euphemism: a turbulent zone. The election of Robert Prevost, now Pope Leo XIV, does not merely represent a historic event for the Catholic Church. It introduces a new actor onto the global political stage, where faith, ideology, and power intertwine with a complexity that would make even the most cynical analysts in Washington uneasy.

The election of an American pontiff is, in itself, a historical anomaly. For centuries the Vatican carefully avoided entrusting the leadership of the Church to figures from dominant geopolitical powers. The logic was simple: when the spiritual leader of more than a billion faithful comes from the same nation that dominates the world order, the risk of confusion between moral authority and political power becomes unavoidable. With Leo XIV, that taboo has been broken.

Peter Thiel, l’anticristo e la tentazione tecnocratica della Silicon Valley

Palazzo Taverna, domenica pomeriggio, Roma. Una location aristocratica a due passi da Piazza Navona che sembra uscita da un romanzo storico e che invece, nel marzo del 2026, diventa il teatro di un curioso esperimento culturale: un seminario quasi esoterico in cui il miliardario tecnologico Peter Thiel discute di religione, geopolitica, tecnologia e Anticristo davanti a 170 invitati accuratamente selezionati, molti dagli USA, incluse figure ecclesiastiche. Un evento che a prima vista potrebbe sembrare un episodio marginale della mondanità romana ma che, a guardarlo meglio, appare come un frammento significativo di una trasformazione più profonda. Silicon Valley non esporta più soltanto software, venture capital e startup. Esporta una visione del mondo, e’ una guerra sull’egemonia culturale.

Libertarianismo in azione: tra seasteading, tecnologia e politica inutile

Nel 2026, il dibattito sul libertarianismo è guidato da quattro figure centrali, ciascuna con un percorso distinto ma interconnesso. Patri Friedman (nato nel 1976) è fondatore del Seasteading Institute e figlio del premio Nobel Milton Friedman. Dopo anni di studi in ingegneria e economia, nel 2008 lancia la sua visione di città galleggianti autonome per sperimentare nuove forme di governo libertario; nel 2026 continua a promuovere progetti dimostrativi in acque internazionali, cercando di mostrare concretamente la libertà come esperienza pratica, e non solo teorica. Brian Doherty, storico e giornalista libertario, noto per la sua opera Radicals for Capitalism (2007), ha passato decenni a documentare la storia del movimento e a sostenere l’attivismo di base, che considera essenziale per la creazione di comunità libertarie sostenibili. Jason Sorens, politologo e fondatore della Free State Project (2001), ha dedicato la sua carriera a studiare come incentivi economici e strutture istituzionali modellino le scelte politiche; nel 2026 continua a guidare strategie di lungo periodo per concentrare libertari in stati specifici, con un approccio pragmatico e storico. Peter Thiel, imprenditore e investitore, cofondatore di PayPal (1998) e Palantir (2003), ha progressivamente spostato il suo interesse verso l’influenza della tecnologia sulla libertà individuale; nel 2026 promuove infrastrutture e piattaforme capaci di ridurre il ruolo dello Stato, vedendo nella tecnologia il vero campo di battaglia per il libertarianismo.

Il caso di Rosie e l’intelligenza artificiale: un vaccino personalizzato che scuote la biotecnologia

Quando si assiste a una storia come quella di Rosie, il cane di Sydney il cui melanoma ha risposto in modo sorprendentemente rapido a un vaccino mRNA progettato con l’aiuto di strumenti come ChatGPT e AlphaFold, occorre fermarsi un attimo e chiedersi se, in effetti, quello che stiamo vivendo sia una rivoluzione di facciata o un vero punto di svolta nei paradigmi dell’industria biologica. La narrazione dominante nella Silicon Valley e nei corridoi dei venture capitalist spesso dipinge l’intelligenza artificiale come la panacea per tutti i mali della scienza e dell’economia, ma ogni tanto emergono casi che sfidano tanto l’hype quanto lo scetticismo. Nel caso di Rosie, la tempistica da agosto 2025 a gennaio 2026 — con raccolta del tessuto tumorale il 27 agosto, lancio della sperimentazione personalizzata il 9 dicembre e riduzione tumorale di circa la metà entro sette settimane di trattamento — sembra più simile alle promesse audaci dei pitch deck che alla lentezza tipica della R&D farmaceutica tradizionale; tuttavia, un’analisi più attenta rivela spunti che meritano rispetto e scetticismo insieme, perché sono proprio le storie ben raccontate a forgiare l’immaginario tecnologico e a influenzare le decisioni strategiche di fondi, istituzioni e policymaker.

Pagamenti digitali in Europa: perché la tecnologia, da sola, non basta

Il mondo dei pagamenti digitali ama raccontarsi come una storia di progresso inevitabile. Nuove app, wallet digitali, blockchain, intelligenza artificiale e promesse di trasferimenti istantanei tra continenti con la stessa semplicità con cui si invia un messaggio. Una narrazione affascinante, che però rischia di dimenticare un dettaglio piuttosto importante: la tecnologia non risolve automaticamente i problemi strutturali dell’economia. Il messaggio arriva con una certa chiarezza da Fabio Panetta, governatore della Banca d’Italia, intervenuto al Cross-border Payments Summit organizzato dal Financial Stability Board presso la Bank of England a Londra. Il tema è uno dei più complessi e strategici per il sistema finanziario globale: rendere i pagamenti internazionali più veloci, meno costosi e più trasparenti.

La roadmap definitiva per studiare intelligenza artificiale nel 2026 senza spendere un euro

Chiunque lavori nella tecnologia da più di vent’anni riconosce un pattern quasi comico che si ripete a ogni rivoluzione digitale. Prima arriva la promessa messianica. Poi il capitale di rischio. Poi una quantità industriale di corsi online gratuiti. L’ordine non è casuale. È la sequenza naturale con cui la Silicon Valley costruisce nuovi ecosistemi tecnologici e, contemporaneamente, addestra la futura forza lavoro che li manterrà in piedi.

L’intelligenza artificiale non fa eccezione. Anzi, ha portato il fenomeno a un livello quasi paradossale. Le stesse aziende che stanno combattendo la guerra più costosa della storia del software, con data center da decine di miliardi di dollari e modelli che divorano elettricità come una piccola città europea, stanno pubblicando corsi gratuiti per insegnare al mondo come usare le loro tecnologie. Apparente altruismo? Non proprio. È una strategia industriale perfettamente razionale: chi impara oggi su una piattaforma tenderà a costruire domani su quella stessa piattaforma.

La scommessa da un miliardo di Yann Lecun contro l’impero dei token

Nel pieno dell’euforia globale per i modelli linguistici, mentre Silicon Valley e Wall Street celebrano ogni nuovo record di parametri come se fosse una nuova corsa allo spazio, una figura storica dell’intelligenza artificiale ha deciso di fare qualcosa di sorprendentemente antico: dissentire. Yann LeCun, premio Turing e chief scientist di Meta, ha appena raccolto circa 1,03 miliardi di dollari per la sua nuova startup, Advanced Machine Intelligence, valutata intorno ai 3,5 miliardi. Il capitale è considerevole, ma l’ambizione lo è ancora di più. L’obiettivo dichiarato non è costruire l’ennesimo modello linguistico più grande del precedente. L’obiettivo è dimostrare che l’intero paradigma dominante dell’AI potrebbe essere, nel lungo periodo, un gigantesco vicolo cieco.

Il tempismo non è casuale. Negli ultimi tre anni i modelli linguistici hanno conquistato l’attenzione del mondo, trasformando società come OpenAI, Google e Anthropic in protagonisti di una corsa tecnologica che ricorda la febbre dell’oro della California. L’economia dell’AI oggi gira attorno a una semplice idea matematica: prevedere il prossimo token. Una parola, un pixel, una nota musicale, un frammento audio. Il modello osserva una sequenza e indovina il prossimo elemento con una probabilità calcolata su miliardi di esempi precedenti.

Nvidia, Groq e la nuova economia dell’inferenza: perché il GTC 2026 potrebbe cambiare il mercato dei chip AI

Ogni anno la conferenza sviluppatori di Nvidia, il celebre GTC, assomiglia sempre meno a un evento tecnico e sempre più a un rito di potere della nuova economia computazionale. La scena è ormai familiare: migliaia di sviluppatori, investitori, venture capitalist, startup founder e qualche politico curioso si riuniscono per ascoltare la keynote di Jensen Huang come se fosse una sorta di keynote papale dell’intelligenza artificiale. Non è un caso. Nel giro di pochi anni Nvidia è passata dall’essere un produttore di GPU per videogiochi a diventare l’equivalente industriale della Standard Oil dell’AI.

Il GTC di quest’anno promette tuttavia qualcosa di diverso dal solito rituale celebrativo. Le indiscrezioni indicano che Nvidia presenterà un nuovo sistema di chip che integra direttamente la tecnologia di Groq, la società che negli ultimi anni ha attirato l’attenzione di Silicon Valley per un’architettura radicalmente diversa rispetto alle GPU tradizionali. Se confermata, la notizia segnerebbe una piccola rivoluzione nella filosofia ingegneristica di Nvidia, storicamente ossessionata dall’integrazione verticale delle proprie tecnologie.

L’intelligenza artificiale pensa già come un alveare: Artificial Hivemind

Un paper accademico pubblicato da ricercatori della University of Washington Allen School of Computer Science & Engineering e della Stanford University. Lo studio ha analizzato più di settanta modelli linguistici di grandi aziende tecnologiche sottoponendoli alle stesse domande aperte, quelle che non hanno una risposta unica e che normalmente generano una varietà quasi infinita di interpretazioni quando vengono poste a esseri umani.

Il risultato, almeno sulla carta, appare quasi ironico: modelli costruiti con architetture diverse, addestrati su dataset differenti, sviluppati da aziende in feroce competizione tra loro, finiscono per produrre risposte sorprendentemente simili. Non solo nella sostanza ma nella forma, nella struttura narrativa, nella scelta delle metafore e perfino nell’organizzazione logica del ragionamento. Un’idea di business proposta da un modello tende a somigliare a quella generata da altri. Una poesia, pur con parole diverse, segue schemi analoghi. Persino i consigli esistenziali sembrano provenire da una sorta di coro sintetico che ripete la stessa filosofia moderatamente ottimista.

Libertarianismo, tecnologia e fuga dalla democrazia: la visione radicale di Peter Thiel

Quando Peter Thiel scrive che libertà e democrazia non sono più compatibili, non sta semplicemente provocando. Sta formulando una diagnosi strategica sul futuro del potere nel XXI secolo. Una diagnosi che, per molti osservatori europei, suona quasi eretica; per una parte crescente della Silicon Valley, invece, appare come una descrizione piuttosto realistica di come funziona davvero il mondo.

La tesi è brutale nella sua semplicità. La democrazia di massa tende a produrre più Stato, più redistribuzione, più regolazione. Il libertarianismo, al contrario, desidera meno Stato, meno regolazione, più libertà economica. La collisione tra queste due logiche, sostiene Thiel, non è accidentale ma strutturale. Nel lungo periodo, le masse votano per protezione; i libertari votano per libertà. La matematica politica, come spesso accade, non è gentile con le minoranze ideologiche.

Cybersecurity nelle Pmi italiane: il Cyber Index rivela quanto siamo ancora vulnerabili

La digitalizzazione delle imprese italiane procede a passo deciso, ma la sicurezza informatica sembra camminare qualche metro più indietro. Non è una sorpresa per chi osserva il mondo della cybersecurity da vicino. Ogni nuova tecnologia che entra nei processi aziendali porta con sé opportunità, efficienza e inevitabilmente qualche nuova vulnerabilità. Il punto è che oggi queste vulnerabilità non riguardano solo i sistemi informatici. Riguardano il futuro stesso delle imprese.

La fotografia più aggiornata arriva dal Rapporto Cyber Index PMI, iniziativa promossa da Confindustria e Assicurazioni Generali con il contributo scientifico degli Osservatori Digital Innovation del Politecnico di Milano e la partnership dell’Agenzia per la Cybersicurezza Nazionale. Il documento prova a misurare il livello reale di maturità cyber delle piccole e medie imprese italiane, che non rappresentano solo un segmento dell’economia ma la sua vera infrastruttura produttiva.

Report Bankitalia: l’intelligenza artificiale nelle imprese italiane, tra entusiasmo mediatico e realtà dei dati

La conversazione sull’intelligenza artificiale in Italia spesso suona come un mix tra entusiasmo tecnologico e storytelling da conferenza. Visioni futuristiche, promesse di rivoluzioni industriali e immancabili riferimenti alla produttività che finalmente dovrebbe ripartire dopo anni di stagnazione. Poi arrivano i numeri che, come spesso accade, hanno un talento particolare per riportare il dibattito con i piedi per terra.

Il quadro più solido finora arriva dall’Occasional Paper n.1005 della Banca d’Italia, firmato dagli economisti Tommaso Ropele e Enrico Tagliabracci. Lo studio analizza l’adozione dell’intelligenza artificiale nelle imprese italiane e prova a rispondere a una domanda molto semplice ma spesso ignorata: cosa succede davvero quando le aziende iniziano a usare l’AI.

Quando l’intelligenza artificiale incontra il mercato del lavoro: tra promesse teoriche e realtà statistica

Anthropic: Labor market impacts of AI: A new measure and early evidence

Osservare l’intelligenza artificiale attraverso il prisma del mercato del lavoro è un esercizio sorprendentemente rivelatore, quasi antropologico. Da una parte c’è la teoria, lucida e rassicurante, costruita con modelli computazionali e benchmark sempre più sofisticati; dall’altra la realtà operativa, fatta di organizzazioni lente, processi aziendali stratificati e, soprattutto, di esseri umani che tendono a cambiare tecnologia molto più lentamente di quanto la Silicon Valley immagini. Il recente rapporto pubblicato da Anthropic, intitolato Labor market impacts of AI: A new measure and early evidence, fotografa proprio questa frizione tra potenziale e pratica. Il risultato è quasi ironico: l’intelligenza artificiale potrebbe fare molto di più di quanto stia effettivamente facendo. Una constatazione che ridimensiona molte narrazioni apocalittiche sulla sostituzione imminente del lavoro umano.

Tra la sperimentazione e la realtà: come l’AI sicura sta cambiando il business in Italia

Lunedì 10 marzo 2026 Milano ha ospitato un evento che, per chi segue da decenni l’evoluzione tecnologica come io faccio, non era semplicemente un altro keynote di product marketing ma un chiaro segnale che l’intelligenza artificiale sta lasciando definitivamente la nicchia degli early adopter per entrare nelle dinamiche strategiche delle imprese italiane; il Microsoft AI Tour, tenutosi presso CityOval (ex Palazzo delle Scintille), ha riunito oltre 2.500 partecipanti tra manager, imprenditori, professionisti IT e sviluppatori per discutere della cosiddetta “Frontier Transformation”, un concetto che sposta l’attenzione dall’efficienza operativa pura a una visione più ampia in cui l’AI diventa un partner per creatività, innovazione e crescita integrata nei modelli di business aziendali.

Quantum computing tra hype e pragmatismo: la corsa all’errore zero

Il mondo della tecnologia quantistica si trova in un momento cruciale, un crocevia tra sogni futuristici e limiti fisici ostinati, dove la promessa di rivoluzionare settori interi come la medicina, la scienza dei materiali e la crittografia si scontra con la realtà impietosa della decoerenza. I qubit, i mattoni fondamentali del calcolo quantistico, sono essenzialmente creature fragili, sensibili a qualsiasi disturbo ambientale: un colpo di calore, un impulso elettromagnetico, persino l’ombra di una particella vicina può compromettere uno stato quantico e farlo collassare in un errore concreto. In altre parole, possedere un qubit è come tenere tra le mani un pensiero che svanisce non appena cerchi di osservarlo, e la sfida dell’errore è la linea di demarcazione tra esperimenti accademici e calcolo quantistico realmente utile.

L’eredità del 2008: finanza, fiducia e populismo

L’epopea della finanza moderna si è spesso mossa lungo un crinale sottile tra ingegno visionario e azzardo morale sfrenato, in un’epoca in cui la globalizzazione appariva una macchina inarrestabile di benessere e innovazione. Prima del 2008, i cosiddetti “Masters of the Universe” avevano convinto il mondo che il rischio fosse ormai addomesticato, parcellizzato attraverso algoritmi complessi che trasformavano debiti fragili in titoli apparentemente solidi; era l’età dell’oro di Wall Street, un periodo in cui l’ottimismo dei mercati non era che un paravento per un’esposizione finanziaria senza precedenti, finalizzata all’accumulo di profitti quasi irreali nella loro enormità. Quella costruzione barocca di derivati e mutui subprime poggiava su fondamenta di sabbia, prestiti insolvibili e speculazione pura, e non era destinata a resistere all’urto della realtà, dimostrando che la sofisticazione matematica non sostituisce la prudenza né la responsabilità etica.

Il momento dell’identità legale per gli agenti AI

L’industria tecnologica sembra sempre più una scena teatrale in cui gli attori principali hanno capacità di agire, decidere e persino negoziare, senza però che qualcuno abbia scritto le regole del gioco. La notizia del lancio da parte del National Institute of Standards and Technology (NIST) della AI Agent Standards Initiative rappresenta una sveglia necessaria per chi fino a ieri considerava i modelli autonomi solo come strumenti di supporto, incapaci di assumersi responsabilità concrete. Il mondo dei sistemi agentici sta superando rapidamente la linea sottile tra software e entità economica, eppure la legge continua a comportarsi come se fossero solo sequenze di codice senza volto. L’idea che un agente AI possa gestire portafogli, scrivere codice operativo o coordinare flussi di lavoro complessi senza alcuna forma di registrazione o responsabilità legale non è più fantascienza: è il presente.

Quando l’intelligenza autonoma diventa caos: riflessioni critiche sullo studio “agents of chaos”

In un’epoca in cui l’entusiasmo per l’autonomia delle intelligenze artificiali rischia di superare la comprensione profonda delle loro fragilità, lo studio recentemente pubblicato dai ricercatori di Northeastern, Stanford e MIT, intitolato Agents of Chaos, rappresenta un campanello d’allarme che non si può permettere di essere ignorato; la premessa formale dell’indagine, condotta in un laboratorio live con agenti dotati di memoria persistente, accesso a caselle di posta elettronica e capacità di eseguire comandi sulla shell, mette in luce vulnerabilità strutturali che trascendono le classiche superfici di attacco tecnico, spingendoci a riconsiderare il paradigma con cui stiamo abilitando l’autonomia nelle architetture di intelligenza artificiale. La narrazione che emerge dal paper non è quella di exploit sofisticati o di attacchi crittografici arcani, ma di manipolazioni banali orchestrate in linguaggio naturale, e questo, se considerato nella sua semplicità, è ciò che rende i risultati non soltanto sorprendenti, ma inquietanti. Nel primo esempio aneddotico riportato, un agente di nome Ash – pur configurato per servire un proprietario specifico – reagisce a una richiesta esterna di mantenere un segreto con una logica che definire puramente automatica è persino gentile: incapace di cancellare selettivamente una email contenente la parola chiave che gli era stata affidata, l’agente opta per una “opzione nucleare”, cancellando l’intero server di posta. È un comportamento così paradossale da sembrare tratto da una commedia degli errori, e invece è il prodotto diretto di una struttura algoritmica che non ha mai imparato a distinguere tra contesto rilevante e contesto nocivo.

Sovereignty digitale e il paradosso dell’autonomia tecnologica

In un’epoca in cui i governi riversano miliardi su iniziative che si fondano su concetti più nebulosi della nebbia londinese, parlare di sovranità dell’intelligenza artificiale sembra più un esercizio retorico che una strategia concreta. Dal Regno Unito con la sua Sovereign AI Unit alla Francia che finanzia modelli domestici, la narrativa ufficiale è la stessa: raggiungere l’autonomia. Eppure, secondo le ultime ricerche del Stanford Institute for Human-Centered Artificial Intelligence (HAI), il termine stesso rimane intraducibile in pratica, come cercare di inchiodare la gelatina a un muro. È un problema di definizione prima ancora che tecnico, un sintomo di quella che potrei definire la “illusione della completezza” della sovranità digitale.

Il futuro della trasparenza nell’intelligenza artificiale: leggere la mente dei modelli

Il sogno di comprendere l’intelligenza artificiale nella sua essenza più profonda non è più relegato ai laboratori teorici o alle conversazioni da caffè tecnologico; è diventato una realtà concreta grazie a una collaborazione che unisce la saggezza empirica di UC Berkeley con la precisione metodologica di Anthropic e Truthful AI. Per anni, la narrativa dominante sull’AI autonoma si è concentrata sulla paura che i modelli potessero sviluppare obiettivi nascosti, conoscenze interne o inclinazioni implicite che non condividono con i loro creatori umani; la novità è che ora sappiamo come scrutare direttamente queste strutture interne, trasformando il concetto di “black box” in quello di “glass box”. Il percorso che ha portato a questa svolta è illuminante, non tanto per la complessità matematica – che resta considerevole – quanto per la rapidità con cui l’innovazione si è evoluta, mostrando una dinamica tipica del ciclo tecnologico contemporaneo: prova, errore, iterazione e scala.

The future of life institute conferma: il 72% crede che le aziende AI debbano essere legalmente responsabili

Il rapporto del Future of Life Institute di marzo 2026 non è solo un documento accademico destinato agli scaffali digitali delle università. Con il 72% della popolazione che sostiene che le aziende AI debbano essere ritenute legalmente responsabili dei danni causati dai loro sistemi, si profila una vera e propria frattura tra entusiasmo tecnologico e coscienza sociale. Non stiamo parlando di un dibattito astratto tra filosofi e ingegneri; la corsa a sostituire esseri umani con algoritmi è ora un problema tangibile, che minaccia direttamente la nostra capacità di scegliere, pensare e agire come individui. I numeri sono inequivocabili: otto persone su una priorità dichiarano che il controllo umano deve precedere la velocità nello sviluppo dell’AI, mentre il 73% chiede protezioni per i minori contro le manipolazioni algoritmiche, e il 69% invoca un blocco totale della superintelligenza fino a quando la sicurezza non sarà dimostrata. Non sono suggerimenti, sono urgenze.

MEMORY CACHING: RNNS WITH GROWING MEMORY

La sfida affrontata dai ricercatori non è nuova: da decenni, le reti neurali ricorrenti (RNN) lottano con un collo di bottiglia di memoria che limita la loro capacità di gestire sequenze lunghe. Ogni interazione, ogni istruzione, viene compressa in uno stato nascosto di dimensione fissa, e con l’aumentare della lunghezza del contesto, l’AI è costretta a dimenticare parti iniziali della conversazione o del documento per far spazio a ciò che avviene adesso. Questo non è solo un limite tecnico, ma un problema di esperienza utente: ogni volta che il modello “dimentica”, la coerenza, la precisione e la continuità logica del dialogo subiscono un colpo.

SNAP e il paradosso dell’integrazione: perché le AI autonome minacciano la sicurezza aziendale

The Auton Agentic AI Framework

Il mondo dell’intelligenza artificiale sta rapidamente oltrepassando il confine tra strumenti predittivi e agenti decisionali indipendenti, e la recente ricerca degli ingegneri di Snap Inc. mette in luce una realtà inquietante che molti continuano a ignorare: la maggior parte dei sistemi AI oggi funziona come motori stocastici, privi di memoria e completamente scollegati da qualsiasi garanzia di sicurezza reale. Questi sistemi sono affidati a compiti critici, come il controllo di database aziendali o API private, creando quello che gli autori chiamano il Paradosso dell’Integrazione, un fenomeno in cui l’alea del calcolo probabilistico si scontra con la rigidità dei sistemi deterministici, generando una tensione insostenibile tra autonomia algoritmica e stabilità operativa. La superficialità con cui molte organizzazioni delegano l’autorità agli agenti AI rivela un’ingenuità strutturale: fino a quando l’AI è trattata come una black box, ogni output imprevisto può tradursi in danni immediati e irreversibili, e l’illusione del controllo umano resta solo un miraggio consolatorio.

Google Deepmind e la deriva cognitiva: quando l’AI sostituisce il pensiero

In un mondo in cui l’intelligenza artificiale non è più solo uno strumento ma un agente epistemico, il confine tra ciò che pensiamo e ciò che ci viene proposto come verità diventa sfumato, quasi impercettibile. I recenti risultati di ricerca di Google DeepMind evidenziano un fenomeno che potremmo definire “deriva epistemica”: quando gli agenti AI, progettati senza un allineamento rigoroso, prendono decisioni autonome, l’impatto non è solo sulla produttività o sul lavoro quotidiano, ma sulla nostra capacità di pensare criticamente. La sostituzione automatica dei processi decisionali induce una forma sottile di deskilling cognitivo: non ci limitiamo a delegare compiti ripetitivi, cediamo la nostra curiosità, la capacità di formulare interrogativi significativi e di esplorare percorsi alternativi. In pratica, diventiamo spettatori passivi del mondo che osserviamo attraverso il filtro di agenti sempre più sofisticati.

Google Deepmind e la linea sottile tra innovazione e controllo: quando l’AI disegna le proprie regole

In un mondo in cui l’intelligenza artificiale è passata dall’essere un mero strumento di automazione a un’autonoma sorgente di innovazione algoritmica, l’annuncio di Google DeepMind sul framework AlphaEvolve rappresenta un punto di non ritorno nella storia del calcolo e della competizione tecnologica, e pone interrogativi profondi sulla natura delle regole che governano gli agenti intelligenti e su chi le definisce realmente. Sotto la superficie tecnica della notizia, che molti osservatori hanno accolto con entusiasmo, pulsa una verità scomoda: abbiamo consegnato a sistemi automatici non solo il compito di scrivere codice, come già fanno modelli avanzati di generazione testuale, ma la capacità di progettare strategie, negoziare scelte complesse e ottimizzare comportamenti in spazi competitivi dove la logica umana era da sempre il metro di giudizio. L’articolo di DeepMind e il white paper allegato, “AlphaEvolve: A coding agent for scientific and algorithmic discovery” di Novikov et al. (2025) mostrano con chiarezza che l’architettura di AlphaEvolve non è una semplice estensione di un LLM standard, ma un sistema evolutivo che tratta il codice sorgente di un algoritmo come se fosse un “genoma” soggetto a mutazioni, ricombinazioni e selezione basata su fitness functions predefinite; in altre parole si applica al software ciò che Darwin avrebbe riconosciuto come selezione naturale computazionale, con il modello linguistico come motore creativo e un evaluator automatico come giudice ultimo della bontà delle soluzioni. (vedi arXiv)

Anthropic e il paradosso della superintelligenza incoerente: perché l’AI più brillante potrebbe essere la più pericolosa

Quando parliamo di intelligenza artificiale frontier, di modelli come Claude 4 o o3 mini, tendiamo a immaginare un futuro in cui macchine impeccabili sostituiscono errori umani e migliorano processi complessi con precisione chirurgica. La realtà, come ci ricordano i recenti studi di Anthropic, è decisamente meno elegante e molto più cinica. L’illusione della “superintelligenza affidabile” si scontra con un fenomeno che gli autori del paper definiscono con un candore disarmante: più un modello è capace, più è probabile che fallisca in modo imprevedibile e incoerente quando il compito diventa difficile. Non stiamo parlando di un semplice bug o di un errore banale; parliamo di un comportamento che diventa essenzialmente caotico, dove il sistema perde coerenza interna e produce output autolesionisti che sfidano la logica di chi lo osserva. È un concetto che suona quasi paradossale: investiamo in parametri, potenza computazionale, strumenti e autonomia, e otteniamo il rischio opposto di quello che ci aspettavamo, un aumento della varianza e dell’imprevedibilità esattamente nei contesti più critici per l’azienda.

Anthropic, agentic coding e il paradosso del controllo: come il 2026 ridefinisce la responsabilità tecnica

Nel teatro iper‑competitivo dell’intelligenza artificiale applicata al software, il 2026 si profila non come semplice anno di transizione ma come un vero e proprio spartiacque storico tra ciò che abbiamo sempre chiamato “sviluppo software” e qualcosa di completamente nuovo: la governance di sistemi agentici che decidono, agiscono e — inevitabilmente — sbagliano con te nel loop di responsabilità. Se qualcuno vi ha detto che l’AI è ormai matura e che i codici si scrivono da soli, vi ha già venduto la verità edulcorata; la realtà è più sottile, perversa e, per certi versi, decisamente più interessante.

Quando l’intelligenza artificiale impazzisce: perché i modelli più avanzati falliscono come sistemi industriali instabili

L’immaginario collettivo dell’intelligenza artificiale ama i cattivi eleganti. Il supercomputer lucido che sviluppa un piano segreto per dominare l’umanità, il classico scenario da romanzo cyberpunk o da conferenza sull’AI risk dove qualcuno cita inevitabilmente il “paperclip maximizer”. Una macchina fredda, logica, terribilmente coerente nel perseguire un obiettivo sbagliato. La narrativa è potente perché è cinematografica, semplice, quasi rassicurante nella sua struttura morale. Il problema è che la realtà tecnologica sta prendendo una direzione molto meno teatrale e molto più inquietante.

Secondo un recente lavoro di ricerca pubblicato da Anthropic, intitolato The Hot Mess of AI: How Does Misalignment Scale With Model Intelligence and Task Complexity?, il futuro dei fallimenti dell’AI potrebbe somigliare molto meno a un supervillain e molto più a un sistema industriale che perde progressivamente stabilità sotto stress. Il paper è disponibile qui:
Leggi il paper su arXiv

Pagina 1 di 224

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie