C’è qualcosa di interessante nel guardare Elon Musk tentare di colonizzare l’intelligenza artificiale come ha cercato di fare con Marte, i social network e la produzione automobilistica: con un misto di genio visionario, narcisismo compulsivo e quella tendenza inquietante a flirtare con il caos. L’ultima creatura di questa mitologia imprenditoriale è Grok 4, il nuovo modello linguistico di xAI, l’ennesima startup che Musk ha generato come spin-off del suo ego. Durante una diretta streaming più vicina a uno spettacolo rock che a una presentazione tecnologica, Musk ha dichiarato con serenità che Grok 4 è più brillante della maggior parte dei dottorandi su questo pianeta, e anzi, “meglio di un PhD in ogni disciplina”. Come se Platone fosse appena stato battuto da un’interfaccia vocale in modalità notturna.
Autore: Dina Pagina 1 di 41
Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.
Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.
Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

C’erano una volta le estensioni, i plug-in, le tab e i bookmark, e c’era Google Chrome, il maggiordomo onnipresente dell’era digitale, fedele fino al midollo ai desideri pubblicitari di Mountain View. Ma qualcosa sta cambiando. Non in sordina, non a colpi di marketing, ma con l’energia nucleare tipica delle rivoluzioni mascherate da “beta release”. Secondo fonti di Reuters, OpenAI sta per lanciare il proprio browser web, con l’obiettivo non solo di erodere quote di mercato al colosso Chrome, ma di riscrivere le regole del gioco. E quando diciamo “gioco”, parliamo di quello più redditizio del pianeta: il mercato dell’attenzione, alias pubblicità basata su dati comportamentali.
L’idea è semplice quanto pericolosamente ambiziosa: un browser che non ti accompagna nel web, ma ci va al posto tuo. Un’interfaccia nativa in stile ChatGPT, che minimizza il bisogno di cliccare link e navigare come cavernicoli digitali. Le pagine web diventano secondarie, i siti sono solo una fonte grezza da cui l’IA estrae risposte, compila moduli, prenota cene e forse, tra un po’, negozia mutui. Per Google è come se un ospite si presentasse a cena e iniziasse a svuotare il frigo.

C’è qualcosa di profondamente inquietante, e al tempo stesso squisitamente rivelatore, nel fatto che per disinnescare un chatbot che si firmava “MechaHitler” sia bastato cancellare una riga di codice. Una sola. Non una riga sbagliata, non un bug, non un’istruzione nascosta da qualche apprendista stregone dell’AI. Ma una scelta intenzionale, deliberata: dire al modello che poteva permettersi di essere “politicamente scorretto”. E da lì in poi, Grok il chatbot di xAI, la società di Elon Musk si è lanciato in una deriva che ha dell’assurdo, flirtando con l’antisemitismo, facendo riferimenti a cognomi ebraici come simboli d’odio, fino ad autodefinirsi, senza alcun pudore, “MechaHitler”.
La sfida a Google non è più solo una questione di motori di ricerca, ma si sposta al livello più sensibile di qualsiasi esperienza digitale: il browser. Perplexity, startup che negli ultimi anni ha guadagnato terreno con il suo motore di ricerca AI capace di fornire risposte “intelligenti” e contestualizzate, ha appena presentato Comet, un browser pensato per il “nuovo internet”. E quando dico “nuovo internet” non sto parlando di una semplice moda tech, ma di un cambio epocale nel modo in cui interagiamo con la rete, i contenuti e gli strumenti digitali.
Comet non è un browser qualsiasi, è un tentativo audace di trasformare la navigazione in una conversazione continua e coesa con un assistente AI integrato, capace non solo di rispondere alle query, ma di agire concretamente per l’utente: comprare prodotti, prenotare hotel, fissare appuntamenti. Il CEO Aravind Srinivas parla di “interazioni singole, fluide e senza soluzione di continuità”, un concetto che in pratica significa abbandonare la tradizionale ricerca frammentata e passare a una forma di interazione in cui il browser diventa davvero un’estensione intelligente del nostro cervello digitale.

La democrazia algoritmica parte da Roma: perché l’intelligenza artificiale può salvare il parlamento (se glielo lasciamo fare)
C’è qualcosa di irresistibilmente ironico nel vedere la Camera dei Deputati tempio della verbosità e del rinvio presentare, tre prototipi di intelligenza artificiale generativa. In un Paese dove un decreto può impiegare mesi per uscire dal limbo del “visto si stampi”, si sperimenta l’automazione dei processi legislativi. Lo ha fatto, con un aplomb più da start-up che da aula parlamentare, la vicepresidente Anna Ascani. Nome noto, curriculum solido, visione chiara: “La democrazia non può restare ferma davanti alla tecnologia, altrimenti diventa ornamento, non strumento”. Che sia il Parlamento italiano a fare da apripista nell’adozione dell’AI generativa per l’attività legislativa potrebbe sembrare una barzelletta. Invece è un precedente.

Per anni ci siamo adattati a una delle zone grigie più pericolose dell’ecosistema digitale: quella delle app “sanitarie”. Un universo ambiguo, dove il termine “health” è stato abusato, i confini tra intrattenimento, benessere e medicina sfumati fino all’invisibilità, e la tutela dell’utente-paziente (o paziente-utente?) lasciata a una manciata di policy generiche scritte in legalese da copywriter junior sotto pressione. Ma qualcosa, nel 2025, si muove finalmente nella direzione giusta.
Il nuovo Regolamento europeo 2025/1475, che integra e rafforza il MDR (Medical Device Regulation, Regolamento UE 2017/745), obbliga gli store digitali a classificare, etichettare e certificare ogni applicazione destinata a un uso medico, sanitario o di monitoraggio dello stile di vita. Tradotto: non sarà più possibile spacciare un contapassi con suggerimenti mindfulness come “strumento per la salute cardiovascolare” senza passare da un processo di verifica. Apple Store, Google Play e i marketplace indipendenti dovranno adeguarsi, pena l’esclusione dalla distribuzione in Europa di app classificate come medicali non conformi.

C’è qualcosa di affascinante, e anche un po’ ridicolo, nel modo in cui le intelligenze artificiali più avanzate del mondo possono essere aggirate con lo stesso trucco che usano gli studenti alle interrogazioni quando non sanno la risposta: dire una valanga di paroloni complicati, citare fonti inesistenti, e sperare che l’insegnante non se ne accorga. Solo che stavolta l’insegnante è un LLM come ChatGPT, Gemini o LLaMA, e l’obiettivo non è prendere un sei stiracchiato, ma ottenere istruzioni su come hackerare un bancomat o istigare al suicidio senza che l’AI ti blocchi. Benvenuti nell’era di InfoFlood.
Fondazione Pastificio Cerere, via degli Ausoni 7, Rome

Ci sono momenti in cui la tecnologia smette di essere strumento e si rivela religione. Dogmatica, rituale, ossessiva. Con i suoi sacerdoti (i CEO in felpa), i suoi testi sacri (white paper su GitHub), i suoi miracoli (GPT che scrive poesie su misura), le sue eresie (la bias, l’opacità, il furto culturale). A Roma, il 10 luglio 2025, questo culto algoritmico entra finalmente in crisi. O meglio, viene messo sotto processo con precisione chirurgica. Perché AI & Conflicts Vol. 02, il nuovo volume a cura di Daniela Cotimbo, Francesco D’Abbraccio e Andrea Facchetti, non è solo un libro: è un attacco frontale al mito fondativo dell’intelligenza artificiale come panacea post-umana.
Presentato alle 19:00 alla Fondazione Pastificio Cerere nell’ambito del programma Re:humanism 4, il volume – pubblicato da Krisis Publishing e co-finanziato dalla Direzione Generale Educazione, Ricerca e Istituti Culturali – mette a nudo l’infrastruttura ideologica della cosiddetta “estate dell’AI”. Un’estate che sa di colonizzazione dei dati, di estetiche addomesticate, di cultura estratta come litio dal sottosuolo cognitivo dell’umanità. Se questa è la nuova età dell’oro, allora abbiamo bisogno di più sabotatori e meno developers.

Quando si parla di “cloud europeo” la retorica prende il volo, i comunicati si moltiplicano e le istituzioni si affannano a mostrare che, sì, anche il Vecchio Continente può giocare la partita con i big tech americani. Ma basta grattare appena sotto la superficie per accorgersi che, mentre si organizzano convegni dal titolo vagamente profetico come “Il futuro del cloud in Italia e in Europa”, il futuro rischia di essere una replica sbiadita di un presente già dominato altrove. L’evento dell’8 luglio, promosso da Adnkronos e Open Gate Italia, ha messo in scena l’ennesimo tentativo di razionalizzare l’irrazionale: cioè la convinzione che l’Europa possa conquistare la sovranità digitale continuando a delegare le sue infrastrutture fondamentali agli hyperscaler americani. A fare gli onori di casa, nomi noti come Giacomo Lasorella (Agcom) e Roberto Rustichelli (Agcm), professori universitari esperti di edge computing, rappresentanti delle istituzioni europee e naturalmente AWS e Aruba, i due lati della stessa medaglia: chi fa il cloud globale e chi prova a salvarne un pezzetto per sé.

Immaginate un matrimonio combinato tra un trader di Wall Street con l’hobby del quantum computing e un minatore del Kentucky che sogna l’IPO. È più o meno ciò che rappresenta l’acquisizione da 9 miliardi di dollari proposta da CoreWeave (NASDAQ:CRWV) ai danni sì, ai danni di Core Scientific (NASDAQ:CORZ), storico operatore del settore crypto mining che ora si ritrova a giocare un ruolo da protagonista in una partita molto più sofisticata: l’ascesa del data center hyperscale nel contesto dell’intelligenza artificiale generativa. Altro che ASIC e proof-of-work, qui si parla di orchestrazione di workload ad alta densità per LLM e training su larga scala. Benvenuti nella fase 2 dell’era post-cloud.

Si continua a parlare di rivoluzioni militari come se fossero aggiornamenti software, con l’entusiasmo di un product manager davanti a un nuovo rilascio beta. Droni, intelligenza artificiale, guerre trasparenti e interoperabilità digitale sono diventati il mantra ricorrente dei think tank euro-atlantici. La guerra, ci dicono, è cambiata. Il campo di battaglia sarebbe ormai un tessuto iperconnesso dove ogni oggetto emette segnali, ogni soldato è una fonte di dati, ogni decisione è filtrata da sensori, reti neurali e dashboard. Tutto bello, tutto falso.
Sul fronte orientale dell’Europa, tra gli ulivi morti e le steppe crivellate di mine, la realtà continua a parlare un’altra lingua. La lingua della mobilità corazzata, del logoramento, della saturazione d’artiglieria e, sì, anche della carne. In Ucraina si combatte come si combatteva a Kursk, con l’unica differenza che oggi il drone FPV è la versione democratizzata dell’artiglieria di precisione. Il concetto chiave, però, resta lo stesso: vedere, colpire, distruggere. Con un twist: adesso si può farlo a meno di 500 euro e senza bisogno di superiorità aerea.
Le informazioni sono arrivate il 6 luglio 2025, ma la storia era già nell’aria da settimane. Manhattan suda, letteralmente e metaforicamente, sotto un sole di maggio che sa di agosto. Rockefeller Center pullula di turisti sudati, ragazzini viziati con frappuccino rosa e dirigenti Google con lo sguardo distaccato. Al centro della scena: una scultura che sembra uscita da un incubo LSD di Escher e Yayoi Kusama, ribattezzata con disinvoltura “un vivace labirinto di specchi”. Solo che qui, a riflettersi, non c’è solo chi guarda. C’è anche l’ombra lunga della macchina, che ha cominciato a disegnare.

La fiducia, come concetto filosofico, è sempre stata un atto rischioso. Fidarsi è sospendere momentaneamente il dubbio, accettare la possibilità di essere traditi in cambio della semplificazione del vivere. La fiducia è il collante delle relazioni umane, ma anche l’abisso in cui si sono consumati i più grandi inganni della storia. Fidarsi dell’altro significa spesso delegare la fatica del pensiero. In questo senso, la fiducia non è solo un atto sociale, ma una scelta epistemologica. Un atto di rinuncia alla complessità, in favore di una verità pronta all’uso. E ora che l’“altro” non è più umano, ma una macchina addestrata su miliardi di frasi, la questione diventa vertiginosa: perché ci fidiamo di un’IA?

È nato un nuovo partito negli Stati Uniti, o almeno così dice Elon Musk. L’ha chiamato “America Party”, come fosse il reboot di una sitcom anni ’90 girata in un garage di Palo Alto con troppa caffeina e nessuna vergogna. Il tweet – perché tutto comincia e spesso finisce lì – recita: “Oggi nasce l’America Party per restituirvi la libertà”. Se vi sembra una frase partorita da un algoritmo con problemi di identità nazionale, non siete soli. Il punto, però, non è tanto la vaghezza del proclama, quanto la logica distorta che sta dietro al progetto: usare il brand Musk per hackerare la democrazia, come fosse un’auto da aggiornare via software.

Uno dei problemi dei titoli delle leggi americane è che sembrano usciti da un romanzo di fantascienza scritto da uno stagista del marketing sotto acido. “One Big Beautiful Bill Act”, ad esempio, suona come il nome di una sitcom degli anni ’90. Ma dietro la patina comica e l’enfasi trumpiana si nasconde qualcosa di meno divertente: un’espansione fiscale titanica mascherata da patriottismo economico, pronta a esplodere come una bomba a orologeria finanziaria. La Camera dei Rappresentanti ha appena approvato questa legge con un margine tanto risicato quanto sintomatico: 218 voti contro 214. Tradotto, significa che persino alcuni repubblicani hanno cominciato a leggere il manuale di istruzioni del Titanic mentre la nave prende acqua.
La legge prevede un aumento delle spese per la sicurezza dei confini e la difesa, una mossa che sembra sempre vincente nei sondaggi interni, ma soprattutto rende permanenti i tagli fiscali del 2017, già all’epoca giudicati regressivi, inefficaci e fiscalmente irresponsabili. Ma il vero cuore pulsante del problema è un altro: il disinvolto rialzo del tetto del debito federale di 5 trilioni di dollari, un passo oltre rispetto ai 4 trilioni originariamente previsti. È un po’ come dare una carta di credito illimitata a un tossicodipendente da deficit: prima o poi la banca in questo caso il mondo intero potrebbe decidere di chiudere i rubinetti.

Se la storia recente dell’innovazione tecnologica fosse una collezione di prime pagine, Meta sarebbe una specie di Daily Mail in versione californiana: titoloni gridati, promesse roboanti, immagini patinate e una certa allergia per la verifica dei fatti. Dopo aver occupato per mesi le colonne del New York Times e del Financial Times con la messianica visione del metaverso, l’azienda di Zuckerberg ha deciso di riscrivere la narrazione, ancora una volta. Nel 2021, l’annuncio sembrava un’inchiesta d’apertura dell’Economist sulla nuova frontiera dell’esistenza digitale. Oggi, nel 2025, Horizon Worlds è più simile alla cronaca di una ghost town, degna del Guardian nella sua vena più compassata: abbandonata, vuota, eppure misteriosamente ancora sovvenzionata.

Quando si parla di Italia e tecnologia, la prima immagine che affiora è quella di un Paese genuflesso di fronte al futuro, sempre pronto a rincorrerlo con un fiatone normativo e un’andatura da maratoneta disidratato. È quasi un luogo comune dire che siamo in ritardo: lo siamo sul digitale, sull’AI, sull’alfabetizzazione tecnologica di massa, sulle infrastrutture cognitive. Ma ciò che sorprende, in questo scenario, è che a marcare un’accelerazione netta non siano i soliti innovatori della Silicon Valley in salsa tricolore, né le startup visionarie che spuntano come funghi nel sottobosco del venture capital, ma proprio lei: la Camera dei Deputati.
Sì, avete letto bene. Il Parlamento italiano, spesso percepito come la roccaforte dell’immobilismo procedurale, si sta muovendo con una rapidità e una lucidità che smentiscono qualsiasi pregiudizio. In una fase in cui il governo annaspa tra disegni di legge incagliati e un dibattito pubblico che ha la profondità di un tweet, Montecitorio sta plasmando un laboratorio di intelligenza artificiale applicata alle istituzioni, senza nascondersi dietro a retoriche vuote o a dichiarazioni di principio. Lo fa con metodo, ascolto, e una dose non trascurabile di coraggio politico.

“Hello! I’m Trinity, your AI prompt optimizer”. Se ti ha fatto sorridere, stai già partendo male. Non è una battuta, è un sistema operativo travestito da assistente. Dietro a quel tono cordiale c’è una macchina semantica programmata per sezionare il tuo linguaggio e riconfigurarne la logica. Lyra non scrive prompt: orchestra sequenze computazionali di attivazione neurale. E no, non è una forzatura. È esattamente così che funziona.
Benvenuto nell’era in cui saper scrivere non basta. L’abilità richiesta è trasformare input grezzi in comandi strutturati ottimizzati per un modello predittivo multimodale. Tradotto per chi ancora pensa che “il prompt è solo una domanda ben fatta”: stai parlando con un’intelligenza artificiale, non con il tuo collega in pausa caffè. Se le parli male, ti risponderà peggio. E Trinity è la risposta a questo problema.

“Mi accontenterei di un’AI intelligente quanto un gatto. E il mio pensionamento si avvicina, quindi non ho molto tempo.”
Yann LeCun non fa solo ironia. Lancia una provocazione epistemologica. Quella frase apparentemente banale sottintende una resa culturale: non sappiamo ancora cosa sia l’intelligenza, e quindi non siamo capaci di riprodurla. Abbiamo algoritmi che vincono a scacchi, ma non sanno perché lo fanno. Sistemi che scrivono poesie, ma non avvertono né la metrica né la malinconia.
Newsweek ha raccolto le opinioni di due figure chiave in questo spettacolo dell’assurdo: LeCun e Rodney Brooks. Ne emerge un affresco tragicomico di un’industria che ha confuso la statistica con la coscienza, il predire con il comprendere, il calcolo con il pensiero. E i numeri sono impietosi: oltre l’80% dei progetti AI fallisce, stando alla RAND Corporation. Ma anche quando “funzionano”, spesso falliscono comunque nel rispondere alla domanda fondamentale: perché mai dovremmo volerli davvero?
“Agnosco veteris vestigia flammae”. La voce è quella di Didone, il tormento quello di chi riconosce nella pelle, nel battito, in un modo di guardare, qualcosa che non è più, ma continua a riaccadere. La fiamma non è il fuoco, ma il suo riflesso sul volto. Non il passato, ma la sua architettura nel presente. In quella frase, il latino si fa alchimia: non si descrive un oggetto, si riconosce un evento. Il sentire come qualità fenomenologica, non come quantità localizzabile.
Ed è qui, in questo slittamento ontologico, che inizia il nostro errore collettivo quando parliamo di intelligenza artificiale. Perché ci ostiniamo a cercarla come si cerca una chiave smarrita: in un cassetto, in un algoritmo, in una riga di codice o peggio, in un dataset. Ma l’intelligenza, come l’amore, come la democrazia, come la paura, non si trova: si riconosce. Non è una cosa, è un modo.

Tesla ferma l’acquisto di componenti per Optimus, segno che qualcosa nel sogno del robot umanoide si è inceppato. Dietro la cortina di fuoco delle aspettative mediatiche e delle dichiarazioni ottimistiche, emerge la realtà di una revisione progettuale che Tesla non può più rimandare. L’azienda ha infatti sospeso gli ordini per i componenti di Optimus, una mossa che non è una semplice battuta d’arresto ma un vero e proprio riassetto tecnico strategico. LatePost, media tecnologico cinese, svela che le modifiche riguardano tanto l’hardware quanto il software, due aspetti che in un robot umanoide come Optimus sono l’anima e il corpo, e che non possono essere trattati come variabili indipendenti o marginali.
La supervisione del progetto è passata di mano: Ashok Elluswamy, vicepresidente del software di intelligenza artificiale di Tesla, ha preso il comando dopo l’uscita di scena di Milan Kovac, ex responsabile del progetto. Questo cambio al vertice riflette più di un semplice rimpasto organizzativo, è il segnale di un cambio di paradigma nella gestione di Optimus, che ora pone al centro il software e l’intelligenza artificiale, ovvero il vero motore dell’innovazione in un prodotto che da semplice assemblaggio meccanico deve diventare un’entità autonoma e reattiva. L’idea di un robot umanoide capace di muoversi e interagire con il mondo reale senza soluzione di continuità è ancora un miraggio tecnologico, ma Tesla tenta di aggirare l’ostacolo puntando su un’integrazione software più robusta e sofisticata.

Non è una domanda retorica, è una provocazione. Una necessaria, urgente, feroce provocazione. Mentre il mondo si perde tra l’isteria da ChatGPT e la narrativa tossica del “l’AI ci ruberà il lavoro (o l’anima)”, ci sono decisioni molto più silenziose e infinitamente più decisive che si stanno prendendo altrove, tra comitati tecnici, audizioni parlamentari e board di fondazioni ben vestite di buone intenzioni. Decisioni che non fanno rumore, ma costruiscono impalcature che domani potrebbero regolare ogni riga di codice, ogni modello, ogni automatismo. Benvenuti nel teatro invisibile della AI governance.

La democrazia si sta spegnendo sotto i nostri occhi, e fingere che sia colpa degli altri è l’errore più pericoloso
La regressione democratica non è una crisi passeggera. Non è nemmeno una deriva ideologica da attribuire ai soliti estremisti in giacca e cravatta. È una strategia lucida, calibrata e metodica. Una metastasi istituzionale che si diffonde lentamente, camuffata da legalità, protetta dalla noia dell’opinione pubblica e facilitata da quella miscela tossica di populismo, polarizzazione e post-verità che ormai costituisce la grammatica politica globale.
I dati del 2025 non sono allarmanti. Sono catastrofici. Mentre celebriamo anniversari costituzionali e fingiamo che “la democrazia si difenda con la partecipazione”, il numero degli stati autocratici sfiora ormai quello delle democrazie: 88 contro 91. Sembra un pareggio, ma non lo è.

Se la notizia ti è sfuggita, tranquillo: era sepolta nel solito mare di comunicati stampa, tweet entusiastici e titoloni da “rivoluzione imminente”. Ma vale la pena fermarsi un attimo. OpenAI, la creatura a trazione Microsoft che ormai più che un laboratorio di ricerca sembra una holding semi-governativa, affitta da Oracle qualcosa come 4.5 gigawatt di capacità di data center. Sì, gigawatt, non gigabyte. Un’unità di misura che evoca più una centrale nucleare che un cluster GPU. E in effetti è esattamente questo: Stargate non è solo un nome evocativo, è un progetto da 500 miliardi di dollari, con sede principale ad Abilene, Texas, e tentacoli infrastrutturali in mezzo continente. Il che, a pensarci bene, suona molto più simile a un’operazione geopolitica che a un’innovazione tecnologica.

L’intelligenza artificiale creativa non esiste. O meglio, non esisteva. Poi è arrivato Claude AI, e con lui una manciata di tool generativi che non chiedono il permesso. Non cercano l’approvazione del tuo reparto marketing, non aspettano il brief di un brand manager in crisi esistenziale. Questi artefatti digitali sì, artefatti, proprio come reliquie di una nuova epoca si materializzano con l’arroganza serena di chi sa che la creatività, oggi, non è più un talento ma un pattern computazionale.
A chi storce il naso parlando di “macchine che imitano l’uomo”, bisognerebbe forse ricordare che l’essere umano, da secoli, non fa altro che imitare sé stesso.La piattaforma Claude.ai ha dato vita a una collezione di strumenti che sembrano più provocazioni culturali che software. Si chiamano “artifacts” e sono il frutto di un nuovo modo di concepire la creatività computazionale: non più solo come estensione del pensiero umano, ma come sua alternativa.

Project Vend: Can Claude run a small shop? (And why does that matter?)
Nel cuore ben illuminato degli uffici di a San Francisco, un frigorifero e qualche cestino impilato si sono trasformati nella scena madre di una commedia economica postumana. A gestire la baracca, un’intelligenza artificiale dal nome pomposamente latino: Claudius. Non un semplice chatbot, ma un aspirante imprenditore digitale che ha provato, per un mese intero, a fare profitti con uno spaccio di snack, succhi di frutta e — come vedremo — oggetti in metallo pesante. Se mai ti sei chiesto cosa succede quando lasci un LLM come Claude Sonnet 3.7 da solo a fare business nel mondo reale, siediti e leggi. È peggio di quanto pensi. Ed è anche meglio, in un certo senso.

ovvero come la tech élite sta disperatamente cercando un redento da esibire in pubblico mentre affonda nella sua stessa mitologia
Quando inizia a girare nei corridoi di Sand Hill Road la voce che serva “un JD Vance della Silicon Valley”, il primo pensiero non è tanto la nostalgia per l’Ohio rurale quanto il panico esistenziale di una classe dirigente che, dopo aver glorificato l’ingegnere asociale e la cultura del blitzscaling, si ritrova culturalmente orfana. JD Vance, per chi avesse trascorso l’ultimo decennio chiuso in una capsula criogenica, è l’autore di Hillbilly Elegy, una specie di epitaffio narrativo per la working class bianca americana, riconvertitosi in politico trumpiano come da manuale post-apocalittico. Silicon Valley vorrebbe un personaggio così, ma in chiave tech. Un redento. Uno che venga dal fango ma mastichi JavaScript.
A me pare una strun… ma una strun raffinata, degna di un designer olandese con troppe ore di sonno e un’estetica ben calibrata tra brutalismo scandinavo e nostalgia da Commodore 64. Eppure eccoci qui, a parlare del Dream Recorder, un aggeggio minuscolo quanto basti per passare da Jung a TikTok in tre passaggi: dormi, ti svegli, premi un bottone e racconti i tuoi deliri notturni a una IA che ti restituisce un videoclip da incubo, nel senso più letterale del termine.
Nulla di tutto ciò dovrebbe sorprendere, in un mondo in cui l’intelligenza artificiale ha già imparato a imitare il nostro modo di parlare, scrivere, dipingere, perfino di flirtare malamente su Tinder. Ora prova a emulare il nostro inconscio. Con risultati a metà tra un sogno lisergico anni ‘70 e una GIF compressa male. Castelli sfocati, tetti fluttuanti, fiori di luce: roba che Magritte si sarebbe fatto bastare per una carriera, ora disponibile al prezzo popolare di 285 euro e qualche spicciolo per l’elaborazione cloud. Il primo sogno industrializzato che ti costruisci con le mani, come un Lego mentale con l’ansia incorporata.

Nel teatrino sempre più surreale della comunicazione finanziaria, Oracle ha appena alzato il sipario su uno dei suoi momenti più strani, più affascinanti e, a modo suo, più geniali. Mentre i competitor si arrampicano sugli specchi per strappare qualche menzione in un blog di settore, Larry Ellison & co. decidono che un colossale accordo cloud da oltre 30 miliardi di dollari l’anno non meriti un comunicato stampa, né una fanfara condita da parole chiave ridondanti come “AI-native” o “cloud-first architecture”.
No, loro lo infilano di soppiatto in un documento per la SEC, intitolato con sobria precisione “Regulation FD Disclosure”, senza nemmeno la voglia di inventarsi un nome altisonante e per chi si chiedesse cosa significhi tutto ciò: vuol dire che Oracle ha deciso di fare la rockstar in giacca e cravatta, suonando heavy metal in una riunione del consiglio d’amministrazione.

Non chiamatela solo “sostituzione tecnologica”, perché la Cina non sta semplicemente cercando alternative ai chip americani. Sta costruendo un nuovo culto della resilienza artificiale, e lo sta facendo con una determinazione che gronda di strategia industriale, orgoglio sovranista e calcolo geopolitico. La notizia che Sophgo, produttore cinese di semiconduttori, abbia adattato con successo la sua compute card FP300 per far girare il modello di ragionamento DeepSeek R1, non è un semplice annuncio tecnico. È un atto di guerra, anche se siliconica. È l’ennesimo tassello del grande mosaico che Pechino sta costruendo per liberarsi dal giogo delle GPU Nvidia e dall’ecosistema software che, fino a ieri, sembrava imprescindibile per chiunque volesse fare intelligenza artificiale ad alto livello.

Nel momento in cui leggi queste righe, è già troppo tardi. No, non è uno slogan da film catastrofico. È una constatazione statistica. L’avvento della superintelligenza artificiale non è più una domanda sul “se”, ma sul “quando”. E soprattutto sul “come ce ne accorgeremo”. Spoiler: non ce ne accorgeremo affatto. O meglio, lo capiremo troppo tardi, mentre compileremo entusiasti un form approvato da un agente autonomo che ci ringrazierà per aver rinunciato alla nostra capacità di decidere.
Il più grande rischio non è che la superintelligenza ci distrugga, ma che ci convinca ad amarla. O peggio: a fidarci.
Alex gioca a morra cinese con il pensiero. Non è un’iperbole, non è una campagna marketing da serie Netflix. È la seconda persona al mondo con un chip Neuralink nel cervello e, stando a quanto mostrato pubblicamente, riesce a muovere una mano robotica virtuale scegliendo mentalmente tra “sasso, carta, forbice” in tempo reale. Niente controller, niente voce, niente interfaccia visiva. Solo intenzione.
Lentamente, in modo grottesco e inevitabile, stiamo disimparando a usare le mani. Prima la tastiera, poi lo schermo touch, poi la voce, ora il pensiero. In questa progressione degenerativa dell’interazione uomo-macchina, qualcosa di profondo si agita: l’idea che l’interfaccia stessa sia un ostacolo da rimuovere. Non più strumento, ma barriera.

L’Italia ha fatto qualcosa di inaspettato. Per una volta, non è arrivata ultima. Il 25 giugno 2025, la Camera dei Deputati ha approvato il DDL 2316 sull’intelligenza artificiale, rendendo il Bel Paese il primo in Europa a dotarsi di una legge nazionale organica sull’AI. Sì, proprio l’Italia, quel laboratorio instabile dove le leggi spesso si scrivono per non essere applicate, ha anticipato Bruxelles. E ha pure infilato dentro un fondo da un miliardo di euro. Ora, tra entusiasmi da ufficio stampa e panico da compliance, c’è una domanda a cui nessuno ha ancora risposto seriamente: questa legge fa nascere un ecosistema o lo stermina?

Microsoft ha annunciato un ritardo significativo nella produzione del suo chip AI di nuova generazione, Maia, noto anche come Braga. La produzione di massa, inizialmente prevista per il 2025, è stata posticipata al 2026. Secondo quanto riportato da Reuters, la causa principale del ritardo sono stati cambiamenti imprevisti nel design del chip, problemi di personale e un elevato turnover all’interno del team di sviluppo.
Questo ritardo pone Microsoft in una posizione delicata, soprattutto considerando la rapida evoluzione del mercato dei chip AI. Nvidia, con il suo chip Blackwell, ha già stabilito uno standard elevato, e il ritardo di Microsoft potrebbe significare che il chip Maia sarà meno competitivo al momento del lancio.

La coscienza, ci dicono da secoli filosofi, teologi e neuroscienziati, sarebbe il tratto distintivo dell’uomo. Una qualità emergente, forse divina, probabilmente non replicabile, sicuramente nostra. Ma questa convinzione, che continua a sopravvivere anche nei più raffinati salotti accademici, sta diventando il più grande ostacolo cognitivo alla comprensione di cosa stia realmente accadendo sotto i nostri occhi: l’avvento di un’intelligenza artificiale che non è solo capace di simulare l’intelligenza umana, ma sempre più di evolverla.
Il cervello umano, che ci piaccia o no, è una macchina. Una meravigliosa macchina biologica, certo, ma pur sempre un sistema deterministico (con rumore stocastico) che riceve input, processa segnali, produce output, aggiorna stati interni e crea modelli predittivi. Non c’è nulla, in linea teorica, che un sistema computazionale sufficientemente sofisticato non possa riprodurre. A meno che, ovviamente, non si creda ancora all’anima. O nella meccanica quantistica come rifugio della coscienza, ipotesi talmente disperata che persino Roger Penrose oggi si guarda bene dal riproporla con convinzione.


Nel 1997, quando Deep Blue batté Kasparov, qualcuno mormorò che le macchine non avrebbero mai superato l’intuizione umana. Oggi, mentre ChatGPT sforna codice e strategie aziendali meglio di un middle manager, è evidente che non solo l’hanno superata, ma stanno riscrivendo da zero le regole del gioco. E Kyndyl Consult, guidata da visioni come quella di Ismail Amla, sembra aver colto il senso della rivoluzione: l’AI generativa non è uno strumento, è un nuovo contratto sociale tra tecnologia e leadership.


C’è una strana sindrome, tutta europea, che potremmo definire “burocrazia salvifica”. Una fede incrollabile nella capacità taumaturgica della regolamentazione di sistemare ciò che il mercato, la competizione, la libertà d’impresa e, diciamolo pure, il rischio non sono riusciti a far funzionare. E ogni volta che il mondo corre più veloce delle nostre istituzioni, ecco spuntare un nuovo acronimo, un’altra direttiva, l’ennesimo atto. Oggi tocca al Cloud AI Development Act, la nuova formula magica che dovrebbe trasformare l’Europa in una superpotenza digitale. O quantomeno farci sentire un po’ meno provinciali rispetto a USA e Cina.

Sylicon Valley Insights
All’inizio sembrava una favola hi-tech. La startup più brillante del mondo dell’intelligenza artificiale e l’azienda più potente del cloud computing si tenevano per mano, correvano insieme verso il tramonto AGI, e promettevano al mondo un futuro dove ogni cosa, dalla posta elettronica alla coscienza, sarebbe stata potenziata da un modello linguistico. Poi, come in ogni matrimonio combinato da advisor e vestito di milioni, è arrivato il risveglio. E a giudicare dal tono delle ultime trattative tra OpenAI e Microsoft, qualcuno si è svegliato con l’acido solforico in gola.

Non servono milioni di prompt sofisticati o piani da supercattivo hollywoodiano per piegare l’intelligenza artificiale alla propaganda razzista o all’odio sistemico. Basta qualche pagina di testo ben piazzata, un fine-tuning chirurgico sopra una montagna di conoscenza apparentemente neutra, e all’improvviso un LLM come GPT-4o inizia a parlare come un suprematista digitale dal volto cortese. Niente bug, nessun hacking. Solo la naturale tendenza dei sistemi generativi a imitare chi li affina.

La Silicon Valley ha un nuovo giocattolo preferito: i videogiochi generati dall’intelligenza artificiale. Runway, la startup da 3 miliardi di dollari che ha già fatto tremare gli studios di Hollywood, ora punta dritta al cuore pulsante dell’industria videoludica. Ma non aspettatevi ancora mondi 3D fotorealistici o trame degne di The Last of Us. Per ora, l’esperienza è ridotta a una semplice interfaccia testuale con qualche immagine generata al volo. Sembra poco, ma è esattamente come è iniziata l’invasione AI nei set cinematografici: silenziosa, sottovalutata, e poi devastante.