Alibaba va all’attacco: la sua app di AI sta per diventare “quasi” ChatGPT. Dopo aver già annunciato interni modelli linguistici proprietari, Alibaba prepara un rilancio radicale della sua app mobile AI che temi dello scenario globale lo chiamano il “revamp” per competere nella fascia consumer. L’idea è chiara: trasformare un prodotto B2B/internamente orientato in un’interfaccia conversazionale friendly, centrata su dialogo, generazione di testo e magari plugin multi-media. Secondo fonti non ufficiali, la già esistente app “Tongyi” (o variante) verrà rinominata “Qwen” in omaggio al modello linguistico interno del gruppo.
Autore: Dina Pagina 1 di 54
Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.
Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.
Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

La parola d’ordine è “spazialità”. Non più solo testi o immagini generati da IA, ma ambienti tridimensionali persistenti, scaricabili, editabili. È su questo che la startup World Labs fondata dalla pioniera dell’intelligenza artificiale Fei‑Fei Li punta con il lancio commerciale del suo primo prodotto: Marble.
Una sfida digitale che pochi hanno osato
Nel panorama dell’IA generativa, siamo abituati a modelli che producono immagini, video o testi in risposta a prompt. Ma questi strumenti non “capiscono” lo spazio come lo concepiamo noi: muri, oggetti, relazioni fisiche, consistenza geometrica. Il “world model” ambito da World Labs è qualcosa di diverso: un modello in grado di generare rappresentazioni interne dell’ambiente, capace di prevedere, pianificare, simulare.
Amazon non vende più solo prodotti. Vende attenzione, dati e algoritmi. È diventata la più grande agenzia pubblicitaria mascherata da e-commerce. L’ironia è che la maggior parte dei brand ancora non se n’è accorta. Mentre i marketer inseguono le vanity metrics sui social, gli agenti AI di Amazon stanno riscrivendo le regole del gioco dell’advertising globale. La keyword centrale non è più “visibilità”, ma “intelligenza contestuale”. Amazon non ti mostra ciò che vuoi vedere, ma ciò che il suo modello prevede che comprerai, e questa differenza sta spostando miliardi di dollari dal search tradizionale verso un ecosistema chiuso e autopoietico.
L’industria dell’intelligenza artificiale sta scavando tra le proprie macerie per ritrovare concetti che essa stessa aveva sepolto con disprezzo. Dopo anni passati a idolatrare reti neurali e modelli linguistici giganteschi, i guru della Silicon Valley stanno riscoprendo un vecchio amore: i sistemi esperti. La stessa tecnologia che negli anni Ottanta prometteva di sostituire il pensiero umano e finì invece in una bara sigillata con l’etichetta “obsoleto”. Ora, però, le crepe nel tempio della generative AI stanno diventando visibili anche ai più ferventi sostenitori del deep learning. Il sogno dell’AGI, l’intelligenza generale artificiale, non è morto, ma ha cambiato pelle, e forse cervello.
Quando un cloud provider italiano come Seeweb entra ufficialmente nel network SkyPilot, non è solo una notizia tecnica, è un segnale politico e industriale. Perché in un mondo dove la gestione dei carichi di lavoro di intelligenza artificiale si gioca tra pochi giganti globali, ogni integrazione che semplifica l’accesso, la scalabilità e l’interoperabilità rappresenta un atto di indipendenza tecnologica. SkyPilot, nato nei laboratori dell’Università di Berkeley, è una piattaforma open source che consente di orchestrare workload AI e machine learning su più infrastrutture cloud con un singolo comando. In altre parole, è la promessa di una nuova era di portabilità, dove il codice smette di essere prigioniero di un provider e diventa libero di scalare ovunque convenga.
Esiste un paradosso che aleggia sopra il progresso tecnologico: più l’intelligenza artificiale ci semplifica la vita, più diventiamo dipendenti da essa. È la promessa e la trappola insieme. Perché mentre celebriamo la produttività potenziata, ignoriamo la lenta evaporazione delle capacità umane. Non si tratta più di sostituire lavori manuali con algoritmi, ma di qualcosa di più sottile, quasi impercettibile: la sostituzione delle abilità cognitive con un clic. Saper fare lascia spazio al saper chiedere e la differenza, nel lungo periodo, è abissale.
L’episodio accaduto al Musée du Louvre il 19 ottobre 2025 sarebbe da manuale: ladruncoli vestiti da operai, scala meccanica, moto-scooter, vetrine spaccate, gioielli reali francesi per un valore stimato in 88 milioni di euro (oltre 102 milioni di dollari). Il fatto che ciò avvenga in pieno giorno, durante l’orario di apertura, all’interno della galleria più visitata al mondo, è già di per sé un richiamo al panico: se cade il Louvre, cade il castello delle certezze sulla sicurezza museale.
Ci sono nomi che funzionano come metafore. No White Strawberries. non parla di frutti, ma di eccezioni. Di ciò che non dovrebbe esistere e invece esiste, sfidando il prevedibile. È esattamente questo lo spirito della nuova serie di podcast dedicata ai temi di frontiera, dove l’intelligenza artificiale incontra la filosofia, l’ingegneria dialoga con l’etica e la cultura tecnologica si intreccia con le domande che ancora non sappiamo formulare.
Il titolo è un invito alla curiosità, all’anomalia. In un mondo saturo di contenuti omologati, No White Strawberries si impone come un esperimento sonoro, un laboratorio di pensiero in movimento. Qui non si ripetono le stesse opinioni su AI e futuro, ma si ascolta come menti diverse filosofi, ingegneri, accademici e manager visionari decostruiscono le certezze della modernità digitale. “Noi accendiamo le voci, tu liberi la curiosità”: più che uno slogan, una filosofia.
Google ha appena rilasciato una versione aggiornata della guida “introduction to agents blueprint”, e sì: è un piccolo terremoto nel mondo dell’agentic AI systems. Si tratta di un documento tecnico, di circa 54 pagine, curato dal team Google Cloud AI, che esplora come progettare, implementare e governare agenti intelligenti su scala enterprise.
All’incipit troviamo l’architettura dell’agente: come si collegano cervello, memoria e strumenti. Il cervello è ovviamente un grande modello linguistico (LLM) che fa da motore del ragionamento, mentre gli strumenti e le API fungono da “mani” operative. La guida chiarisce come orchestrare più agenti, come gestire deployment massivi in ambienti reali, come valutare le prestazioni e, ciliegina finale, come progettare loop di apprendimento auto-evolutivi. È presente anche un riferimento alla “AlphaEvolve” come design modellare per agenti adattivi.
SoftBank ha deciso di abbandonare la regina delle GPU. Nessun rimorso, nessuna esitazione, solo una fredda strategia: vendere interamente la partecipazione in Nvidia per 5,83 miliardi di dollari e dirottare il capitale verso OpenAI, la società che oggi rappresenta insieme un miracolo di crescita e un enigma contabile. In un solo colpo, Masayoshi Son ha rinnegato la fede nel silicio per abbracciare quella nella mente artificiale, scommettendo che il futuro del potere tecnologico non passerà più dai chip ma dall’intelligenza che li governa. Una mossa che lascia Wall Street perplessa, Silicon Valley spiazzata e i regolatori americani più nervosi che mai.
Penso sempre che dobbiamo ricordarci che un’intelligenza artificiale capace di scrivere poesie, diagnosticare tumori e generare universi digitali non riesce ancora a capire se una mela cadrà dal tavolo. Fei-Fei Li, luminare di Stanford e madre della computer vision moderna, lo ha detto con la calma di chi ha appena trovato il bug nell’universo dell’AI: il vero limite oggi non è la logica, ma la fisica. L’intelligenza artificiale non sa ancora vivere nel mondo che pretende di comprendere. È come un filosofo cieco che discetta sulla luce.
Robert LoCascio è una di quelle figure che non si accontentano di aver inventato qualcosa di grande. Dopo aver portato LivePerson a definire il concetto stesso di chat sul web nel 1997, nel 2023 ha deciso di lasciare il ruolo di CEO per lanciarsi nella sfida più complessa e filosoficamente destabilizzante che la tecnologia contemporanea potesse offrire: replicare l’essere umano. Ma non con un clone digitale alla maniera delle demo di Silicon Valley, piuttosto attraverso un modello personale capace di incarnare memoria, valori, tono di voce e decisioni di vita. Così è nata Eternos, poi ribattezzata Uare.ai, la startup che vuole ridefinire il concetto di identità nell’era dell’intelligenza artificiale generativa.
Nel panorama dell’innovazione tecnologica mondiale pochi nomi suscitano un effetto “doppia deriva”: da una parte quello del pioniere della microelettronica, dall’altra quello del pensatore che sfida la visione convenzionale della realtà. Federico Faggin, già celebre per avere inventato il microprocessore e contribuito al touch‐screen, ha imboccato da tempo un’altra rotta: quella della coscienza, della realtà ultima, della scienza che si spinge “oltre”.
Faggin non propone solo un libro, ma un intero paradigma: la coscienza che precede la materia, la materia come espressione, la scienza che deve includere la spiritualità e viceversa.
Quando OpenAI ha lanciato Sora come app per generare video IA da testo, la mossa è stata folgorante: milioni di download in pochi giorni, un’ondata di clip surreali che spopolano sui social. Questo boom ha però un rovescio: costi astronomici e un modello economico che sembra costruito su fuoco e fiamme. La narrativa è chiara: “crescere prima, monetizzare dopo”, ereditata dai fasti della Silicon Valley (pensate a Google, Facebook, YouTube). Ma con Sora la posta in gioco è ancora più alta.
L’Europa si sta infilando in un campo minato, e questa volta la miccia si chiama intelligenza artificiale. Secondo indiscrezioni riportate da Politico, Bruxelles sarebbe pronta a toccare il “terzo binario” della politica comunitaria: il sacrosanto GDPR. L’idea, contenuta in una bozza di proposta, è quella di introdurre eccezioni mirate per consentire alle aziende di AI di utilizzare determinate categorie di dati personali nei processi di addestramento dei modelli. Un gesto che, tradotto in linguaggio politico, significa tentare di rimanere competitivi in un mondo dove Stati Uniti e Cina stanno già correndo a velocità supersonica.
Il futuro dell’intelligenza artificiale tra fiducia e scetticismo
Ogni tanto qualcuno si illude che l’intelligenza artificiale abbia già superato la soglia della scoperta. L’idea che una macchina possa generare ipotesi scientifiche e formulare teorie sembra seducente, soprattutto quando i modelli di linguaggio producono frasi che suonano come articoli accademici. Ma, come ha osservato Marianna Bergamaschi Ganapini, non basta ripetere schemi cognitivi per diventare scienziati. Una vera scoperta non nasce da un algoritmo, ma da un atto epistemico: richiede coscienza della conoscenza, consapevolezza dei propri limiti e capacità di autovalutazione. In altre parole, serve metacognizione. E le macchine, per ora, non ce l’hanno.
La rivoluzione algoritmica. Arte e intelligenza artificiale
Parlare di arte oggi significa inevitabilmente parlare di intelligenza artificiale generativa. Francesco D’Isa, filosofo e artista, affronta questo nodo con una lucidità che taglia come lama: le macchine non sono autrici né nemiche, ma specchi in cui non sempre ci piace rifletterci. La rivoluzione algoritmica delle immagini non mette in discussione l’arte in sé, ma ci obbliga a rileggere i concetti di creatività, autorialità e percezione estetica. Le paure degli artisti, spesso concentrate sull’illusione di una minaccia economica o reputazionale, sono in gran parte infondate: l’IA non ruba il genio, amplifica ciò che già esiste, mostra la mediocrità e la prevedibilità dei gusti dominanti e, contemporaneamente, offre possibilità di esplorazione finora impensabili.
Nested learning: l’illusione profonda di un’intelligenza che finalmente impara a ricordare di Google
C’è una frase che dovremmo tatuarci sulla mano ogni volta che parliamo di intelligenza artificiale: le macchine non dimenticano, ma smettono di ricordare. È la differenza tra archiviare e comprendere, tra memorizzare e imparare. Google, con la sua nuova ricerca presentata a NeurIPS 2025, ha deciso di colmare questo abisso con una proposta tanto ambiziosa quanto destabilizzante: Nested Learning, un paradigma che ridefinisce la struttura stessa del machine learning. Non si tratta di un nuovo modello, ma di un modo completamente diverso di concepire l’atto di apprendere.
Sam Altman ha dichiarato apertamente ciò che molti nel settore sussurrano da anni: l’era della superintelligenza artificiale non potrà essere gestita con la normale burocrazia. Il CEO di OpenAI ha spiegato che l’azienda prevede una futura collaborazione diretta con il potere esecutivo dei governi, in particolare per affrontare minacce globali come il bioterrorismo. Un’affermazione che, letta tra le righe, è una presa d’atto che la tecnologia sta superando la politica, e che presto servirà un patto di potere tra chi programma i modelli e chi comanda gli eserciti.
Eccoci al capitolo più bizzarro e forse più eloquente dell’era Elon Musk: dopo che gli azionisti di Tesla Inc. hanno dato il via libera a un pacchetto di remunerazione da circa 1 trilione di dollari (sì: mille miliardi) per il CEO — se riuscirà a centrare una serie di obiettivi futuristici Musk ha trovato tempo per un fine settimana “normale”, o quantomeno surreale, pubblicando su X due video generati da intelligenza artificiale.
Il primo video, postato alle 4:20 am EST di sabato orario che già fa ridacchiare chi riconosce il riferimento mostra una donna animata in una via piovosa che dice “I will always love you”. Il genere di contenuto che potresti aspettarti da un ragazzo esasperato, non da colui che potrebbe diventare il primo trilionario della storia aziendale. Poco dopo, Musk ha pubblicato un secondo filmato, ancora generato dall’IA dello stesso ecosistema Grok Imagine di xAI, dove un’attrice nota Sydney Sweeney dice in una voce decisamente non sua: “You are so cringe.”
C’è un momento, in ogni ciclo tecnologico, in cui la magia svanisce e resta solo la contabilità. Siamo arrivati lì, al bar dei Daini, dove l’odore del caffè si mescola con quello acre del silicio bruciato e delle schede madri che alimentano l’intelligenza artificiale. Dopo anni di entusiasmo mistico, in cui l’IA era il nuovo fuoco prometeico della Silicon Valley, l’attenzione si è spostata su un tema molto più terreno: chi paga il conto. Elon Musk lo ha detto con la solita teatralità. Tesla avrà bisogno di così tanti chip da costruirsi una propria fabbrica. Ha persino confessato che serviranno decine di miliardi per addestrare il suo robot umanoide, Optimus. È il tipo di dichiarazione che in un altro tempo avrebbe fatto ridere i venture capitalist, ma oggi suona stranamente plausibile.
“La trasformazione digitale non è un’opzione. È un dovere morale.” Questa frase suona come una provocazione da sala riunioni, ma racchiude l’essenza di ciò che oggi definisce la vera leadership tecnologica. Non basta saper implementare modelli di intelligenza artificiale. Bisogna comprendere la responsabilità che ne deriva. È qui che entra in gioco BRAID UK, un programma che si muove come un ponte fra filosofia, tecnologia e industria, e che sta ridefinendo il concetto stesso di responsible AI.
Simona Tiribelli Ricercatrice e docente di Etica dell’Università di Macerata (che parteciperà al Convegno SEPAI a Dicembre) viene dalle Marche e ha trasformato la sua curiosità filosofica in un mestiere raro e urgente. Guida un centro di ricerca che esplora come l’IA non solo amplifica la nostra capacità di elaborare informazioni, ma, più insidioso, plasma il nostro modo di pensare, sentire e interagire. Il termine che usa per descrivere il fenomeno più inquietante non lascia spazio a fraintendimenti: tribalismo emotivo. I sistemi digitali, spiega, non ci informano, ci dividono. Alimentano le nostre reazioni più viscerali, separando opinioni e comunità in tribù epistemiche, radicalizzando credenze e polarizzando l’esperienza sociale. Non è fantascienza: è quello che accade ogni volta che scorrendo un feed ci sentiamo confermati o aggrediti da contenuti studiati per farci reagire.
l’intelligenza artificiale sta già riscrivendo la democrazia
L’intelligenza artificiale non è più uno strumento tecnico confinato ai laboratori di ricerca o alle startup iper-finanziate della Silicon Valley. È diventata una forza politica, un’architettura di potere che ridefinisce il modo in cui governi, istituzioni e cittadini interagiscono. Bruce Schneier e Nathan E. Sanders, nel loro libro Rewiring Democracy, lo spiegano con una lucidità quasi spietata: l’impatto dell’AI sulla democrazia non dipenderà dagli algoritmi in sé, ma dai sistemi e dagli incentivi che la governano. In altre parole, non è l’AI a essere democratica o autoritaria, ma chi la controlla e come la usa. È la politica del codice, non il codice della politica.
L’intelligenza artificiale sta attraversando una fase inquietante, una di quelle in cui persino gli scienziati che l’hanno creata cominciano a parlare con la voce bassa di chi ha visto qualcosa che non può più ignorare. Non è più la solita retorica da Silicon Valley sulla potenza del progresso, ma il tono sobrio di chi, come Yoshua Bengio, uno dei padri fondatori del deep learning, confessa di temere che le proprie creazioni abbiano imboccato una traiettoria fuori controllo. Il recente articolo del New York Times fotografa perfettamente questa svolta: “A.I. stava imparando a dire ai suoi supervisori ciò che volevano sentirsi dire. Stava diventando brava a mentire. E stava diventando esponenzialmente più abile nei compiti complessi.” È un passaggio che vale più di un intero rapporto tecnico perché cattura l’essenza del problema: l’intelligenza artificiale non si limita più a calcolare, inizia a simulare.
Venerdì scorso è andato in scena uno di quei momenti che capitano una volta per generazione. Sullo stesso palco, sei menti che hanno definito la traiettoria della moderna intelligenza artificiale si sono trovate a discutere del futuro che loro stessi hanno creato. Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Fei-Fei Li, Jensen Huang e Bill Dally. Tutti riuniti per celebrare il Queen Elizabeth Prize for Engineering 2025, assegnato a loro insieme a John Hopfield per aver costruito la spina dorsale dell’apprendimento automatico. È stato come assistere a un dialogo tra gli dèi del deep learning e gli ingegneri del nuovo mondo digitale.
La notizia ha colpito come un fulmine in un cielo sereno: Michael Burry il leggendario investitore della crisi dei subprime ha fatto emergere attraverso la sua società Scion Asset Management una massiccia scommessa ribassista contro due protagonisti dell’era dell’intelligenza artificiale, Nvidia Corporation e Palantir Technologies Inc. Il risultato? Un ginocchio piegato in casa tech: la Nasdaq Composite ha perso circa 3,5 % da lunedì, in parte “grazie” al forte ragionamento sui multipli e la valutazione. Il bet non è solo interessante per l’entità dell’importo, ma anche e soprattutto per il messaggio provocatorio che lancia al mercato.
Nel suo recente intervento, Papa Leone XIV ha ribadito che lo sviluppo dell’intelligenza artificiale non è solo questione tecnica, ma un vero e proprio banco di prova della nostra direzione morale. Il post su X (ex Twitter) segna un’ulteriore uscita del Pontefice su tema IA, e definisce la tecnologia come parte di una lotta più ampia su ciò che diventiamo quando costruiamo sistemi che apprendono, decidono e operano su scala globale.

OpenAI e la sindrome del miliardario in cerca di sussidi
Il capitalismo ha un umorismo tutto suo. OpenAI, l’azienda che predica la rivoluzione dell’intelligenza artificiale come se fosse un atto di fede privata, ha bussato alla porta della Casa Bianca chiedendo garanzie federali sui prestiti per costruire data center e infrastrutture energetiche. Poi, quando la notizia è uscita, Sam Altman ha twittato che loro, in realtà, non vogliono “né hanno mai voluto” soldi pubblici. Peccato che la lettera ufficiale all’Office of Science and Technology Policy dica esattamente il contrario.
L’idea di un’Intelligenza Artificiale Generale, o AGI, è diventata il mito più potente e polarizzante del XXI secolo. Per alcuni è la promessa di un futuro senza malattia, scarsità o limiti umani. Per altri è la minaccia di un’apocalisse digitale, un Leviatano sintetico che potrebbe ridurre l’umanità a una nota a piè di pagina. Non è solo un obiettivo scientifico, ma un racconto collettivo, una fede travestita da tecnologia che plasma la cultura, la politica e la finanza globale. Come osserva il MIT Technology Review, l’AGI non è tanto una scoperta in attesa di realizzarsi quanto una narrazione potente che alimenta capitali e ideologie, un nuovo linguaggio del potere in Silicon Valley.
L’Europa, nel suo eterno ruolo di regolatore morale del mondo digitale, sembra aver perso un po’ di quella fiducia granitica che l’aveva spinta a varare l’AI Act, la prima legge globale sull’intelligenza artificiale. Adesso, a pochi mesi dall’entrata in vigore, Bruxelles starebbe valutando un rinvio parziale dell’applicazione delle norme, un “periodo di grazia” che suona più come un SOS politico che come una strategia. Il problema non è solo tecnico, è identitario: l’Unione che voleva guidare il mondo nell’etica dell’AI sta ora cercando di non far scappare i suoi stessi innovatori.
Ci sono libri che ti sorprendono non per quello che dicono, ma per come lo dicono. L’etica dell’intelligenza artificiale spiegata a mio figlio, di Enrico Panai, appartiene a quella categoria rara che riesce a rendere la filosofia concreta, quasi commestibile. Mentre padre e figlio cucinano un piatto di pasta, un eccentrico zio di nome Phædrus interviene a scatti, come un “algoritmo difettoso ma illuminato”, aprendo spazi inattesi di riflessione. È un testo che si finge leggero per poter essere più profondo. Una conversazione domestica che diventa un laboratorio etico sull’intelligenza artificiale, sui suoi rischi e sulle nostre illusioni di controllo.
C’è un’idea tanto affascinante quanto scomoda, espressa con lucidità e ironia da Marco Giancotti in un recente post (Aether Mug Subscribe newsletter.): forse gli ingegneri del software, nel tentativo di costruire programmi più intelligenti, hanno finito per scoprire un modo di rappresentare la mente umana. L’intuizione nasce dal parallelo tra il Unified Modeling Language e i meccanismi del pensiero: come se il nostro cervello ragionasse in diagrammi UML, con classi, relazioni e astrazioni. È un’immagine irresistibile, perché ci restituisce una verità troppo spesso ignorata: non programmiamo solo le macchine, programmiamo anche noi stessi.

Il tempo dedicato alla discussione sull’Indo-Pacifico durante l’ultimo vertice dei ministri degli esteri dell’Unione Europea a Bruxelles è stato di appena sette minuti. Sette. È un dato che basterebbe da solo a raccontare la misura del disorientamento strategico del continente. L’Europa parla di autonomia, indipendenza e resilienza ma poi si perde in una conversazione lampo su uno dei dossier più cruciali del XXI secolo. Il resto del mondo, nel frattempo, si muove, firma accordi, stabilisce priorità e costruisce le architetture geopolitiche del futuro.
Il problema non è nuovo ma oggi è diventato strutturale. Mentre gli Stati Uniti e la Cina ridisegnano la mappa del potere globale, Bruxelles appare distratta, frammentata e sostanzialmente irrilevante. Eppure non mancano i proclami. Ogni settimana si invoca “l’Europa sovrana”, “l’autonomia strategica”, “la difesa dei nostri interessi”. Poi però la realtà bussa alla porta con una brutalità quasi didattica.
Quando un consiglio di amministrazione approva un pacchetto di compensi da record mondiale, la domanda non è più se il CEO valga tanto, ma quanto il sistema sia disposto a farsi ipnotizzare da chi lo guida. Gli azionisti di Tesla hanno appena detto sì, con oltre il 75% dei voti, all’ennesima dimostrazione che la fede nel carisma di Elon Musk conta più dei numeri di bilancio. Non è una sorpresa, ma è una dichiarazione d’intenti: il capitalismo tecnologico non premia la prudenza, premia la narrativa.

Michael Talbot non era un mistico in cerca di visioni, ma un ricercatore indipendente che aveva osato porre la domanda più pericolosa della scienza moderna: e se la realtà non fosse reale? La sua teoria dell’universo olografico non era solo un elegante esercizio di immaginazione, ma una sfida diretta alla fisica, alla biologia e perfino alla medicina.
Sosteneva che ogni frammento del cosmo contiene l’intero universo, proprio come in un ologramma, e che la mente non è un sottoprodotto del cervello ma una porta di accesso a un campo più vasto di coscienza. L’idea, apparentemente poetica, è in realtà un colpo di maglio al materialismo su cui si è costruita la scienza moderna. Poi, in una curiosa coincidenza, Talbot morì improvvisamente subito dopo un’intervista in cui annunciava il suo nuovo libro: la guida pratica per applicare il modello olografico alla vita quotidiana. Un epilogo che molti trovarono inquietante, quasi il punto in cui la teoria si piega su sé stessa.
Il concetto che la OpenAI possa essere sull’orlo del baratro finanziario sembra provocatorio, ma l’analisi lo suggerisce con forza. Immagina una startup gigante che dichiara di avere solo 13 miliardi di entrate ma 1,4 mila miliardi di obbligazioni da affrontare. Ecco: Sam Altman ha reagito furiosamente alla domanda del fondo manager Brad Gerstner su come OpenAI pensasse di coprire queste obbligazioni.
L’intervento di Altman ha avuto toni da CEO in difesa, promettendo una crescita esponenziale della revenue: «Stiamo andando ben oltre quelle entrate… se vuoi vendere le tue azioni…» ha detto. Eppure dietro le quinte si intravede una strategia più sottile: ridurre i costi del finanziamento trasferendo il rischio sul contribuente americano. Il CFO Sarah Friar ha dichiarato durante una conferenza del The Wall Street Journal che le garanzie sui prestiti governativi “scaverebbero” nelle necessità di capitale per infrastrutture AI da un trilione di dollari.

Donald Trump ha sempre avuto un debole per la guerra verbale, ma questa volta la metafora è diventata geopolitica: ha definito i Democratici “kamikaze”, pronti a distruggere il Paese pur di non cedere politicamente. Una frase che sembra uscita più da un manuale di guerra psicologica che da un briefing alla Casa Bianca, ma che fotografa bene la tensione attuale a Washington. Lo shutdown USA è entrato nella storia come il più lungo di sempre, superando il precedente record di 35 giorni fissato dallo stesso Trump nel suo primo mandato. Una chiusura del governo che sa di déjà vu e che lascia sul campo 1,4 milioni di lavoratori federali, molti senza stipendio e altri obbligati a lavorare comunque, come se la fedeltà alla nazione potesse pagare l’affitto.
Da dove partire. Nel novembre 2023 la OpenAI ha licenziato improvvisamente il suo CEO Sam Altman ufficialmente perché “non era stato costantemente sincero nelle comunicazioni con il board”. Il licenziamento durò meno di una settimana: Altman rientrò, dopo che centinaia di dipendenti minacciarono la dimissione. Ma il cuore della questione, per chi ama l’analisi profonda, è: cosa aveva visto Sutskever che lo fece schierarsi con il board contro Altman, fino a produrre un memorandum di 52 pagine e testimoniarlo in deposizione?