Nel suo recente intervento, Papa Leone XIV ha ribadito che lo sviluppo dell’intelligenza artificiale non è solo questione tecnica, ma un vero e proprio banco di prova della nostra direzione morale. Il post su X (ex Twitter) segna un’ulteriore uscita del Pontefice su tema IA, e definisce la tecnologia come parte di una lotta più ampia su ciò che diventiamo quando costruiamo sistemi che apprendono, decidono e operano su scala globale.
Autore: Dina Pagina 5 di 57
Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.
Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.
Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

OpenAI e la sindrome del miliardario in cerca di sussidi
Il capitalismo ha un umorismo tutto suo. OpenAI, l’azienda che predica la rivoluzione dell’intelligenza artificiale come se fosse un atto di fede privata, ha bussato alla porta della Casa Bianca chiedendo garanzie federali sui prestiti per costruire data center e infrastrutture energetiche. Poi, quando la notizia è uscita, Sam Altman ha twittato che loro, in realtà, non vogliono “né hanno mai voluto” soldi pubblici. Peccato che la lettera ufficiale all’Office of Science and Technology Policy dica esattamente il contrario.
L’idea di un’Intelligenza Artificiale Generale, o AGI, è diventata il mito più potente e polarizzante del XXI secolo. Per alcuni è la promessa di un futuro senza malattia, scarsità o limiti umani. Per altri è la minaccia di un’apocalisse digitale, un Leviatano sintetico che potrebbe ridurre l’umanità a una nota a piè di pagina. Non è solo un obiettivo scientifico, ma un racconto collettivo, una fede travestita da tecnologia che plasma la cultura, la politica e la finanza globale. Come osserva il MIT Technology Review, l’AGI non è tanto una scoperta in attesa di realizzarsi quanto una narrazione potente che alimenta capitali e ideologie, un nuovo linguaggio del potere in Silicon Valley.
L’Europa, nel suo eterno ruolo di regolatore morale del mondo digitale, sembra aver perso un po’ di quella fiducia granitica che l’aveva spinta a varare l’AI Act, la prima legge globale sull’intelligenza artificiale. Adesso, a pochi mesi dall’entrata in vigore, Bruxelles starebbe valutando un rinvio parziale dell’applicazione delle norme, un “periodo di grazia” che suona più come un SOS politico che come una strategia. Il problema non è solo tecnico, è identitario: l’Unione che voleva guidare il mondo nell’etica dell’AI sta ora cercando di non far scappare i suoi stessi innovatori.
Ci sono libri che ti sorprendono non per quello che dicono, ma per come lo dicono. L’etica dell’intelligenza artificiale spiegata a mio figlio, di Enrico Panai, appartiene a quella categoria rara che riesce a rendere la filosofia concreta, quasi commestibile. Mentre padre e figlio cucinano un piatto di pasta, un eccentrico zio di nome Phædrus interviene a scatti, come un “algoritmo difettoso ma illuminato”, aprendo spazi inattesi di riflessione. È un testo che si finge leggero per poter essere più profondo. Una conversazione domestica che diventa un laboratorio etico sull’intelligenza artificiale, sui suoi rischi e sulle nostre illusioni di controllo.
C’è un’idea tanto affascinante quanto scomoda, espressa con lucidità e ironia da Marco Giancotti in un recente post (Aether Mug Subscribe newsletter.): forse gli ingegneri del software, nel tentativo di costruire programmi più intelligenti, hanno finito per scoprire un modo di rappresentare la mente umana. L’intuizione nasce dal parallelo tra il Unified Modeling Language e i meccanismi del pensiero: come se il nostro cervello ragionasse in diagrammi UML, con classi, relazioni e astrazioni. È un’immagine irresistibile, perché ci restituisce una verità troppo spesso ignorata: non programmiamo solo le macchine, programmiamo anche noi stessi.

Il tempo dedicato alla discussione sull’Indo-Pacifico durante l’ultimo vertice dei ministri degli esteri dell’Unione Europea a Bruxelles è stato di appena sette minuti. Sette. È un dato che basterebbe da solo a raccontare la misura del disorientamento strategico del continente. L’Europa parla di autonomia, indipendenza e resilienza ma poi si perde in una conversazione lampo su uno dei dossier più cruciali del XXI secolo. Il resto del mondo, nel frattempo, si muove, firma accordi, stabilisce priorità e costruisce le architetture geopolitiche del futuro.
Il problema non è nuovo ma oggi è diventato strutturale. Mentre gli Stati Uniti e la Cina ridisegnano la mappa del potere globale, Bruxelles appare distratta, frammentata e sostanzialmente irrilevante. Eppure non mancano i proclami. Ogni settimana si invoca “l’Europa sovrana”, “l’autonomia strategica”, “la difesa dei nostri interessi”. Poi però la realtà bussa alla porta con una brutalità quasi didattica.
Quando un consiglio di amministrazione approva un pacchetto di compensi da record mondiale, la domanda non è più se il CEO valga tanto, ma quanto il sistema sia disposto a farsi ipnotizzare da chi lo guida. Gli azionisti di Tesla hanno appena detto sì, con oltre il 75% dei voti, all’ennesima dimostrazione che la fede nel carisma di Elon Musk conta più dei numeri di bilancio. Non è una sorpresa, ma è una dichiarazione d’intenti: il capitalismo tecnologico non premia la prudenza, premia la narrativa.

Michael Talbot non era un mistico in cerca di visioni, ma un ricercatore indipendente che aveva osato porre la domanda più pericolosa della scienza moderna: e se la realtà non fosse reale? La sua teoria dell’universo olografico non era solo un elegante esercizio di immaginazione, ma una sfida diretta alla fisica, alla biologia e perfino alla medicina.
Sosteneva che ogni frammento del cosmo contiene l’intero universo, proprio come in un ologramma, e che la mente non è un sottoprodotto del cervello ma una porta di accesso a un campo più vasto di coscienza. L’idea, apparentemente poetica, è in realtà un colpo di maglio al materialismo su cui si è costruita la scienza moderna. Poi, in una curiosa coincidenza, Talbot morì improvvisamente subito dopo un’intervista in cui annunciava il suo nuovo libro: la guida pratica per applicare il modello olografico alla vita quotidiana. Un epilogo che molti trovarono inquietante, quasi il punto in cui la teoria si piega su sé stessa.
Il concetto che la OpenAI possa essere sull’orlo del baratro finanziario sembra provocatorio, ma l’analisi lo suggerisce con forza. Immagina una startup gigante che dichiara di avere solo 13 miliardi di entrate ma 1,4 mila miliardi di obbligazioni da affrontare. Ecco: Sam Altman ha reagito furiosamente alla domanda del fondo manager Brad Gerstner su come OpenAI pensasse di coprire queste obbligazioni.
L’intervento di Altman ha avuto toni da CEO in difesa, promettendo una crescita esponenziale della revenue: «Stiamo andando ben oltre quelle entrate… se vuoi vendere le tue azioni…» ha detto. Eppure dietro le quinte si intravede una strategia più sottile: ridurre i costi del finanziamento trasferendo il rischio sul contribuente americano. Il CFO Sarah Friar ha dichiarato durante una conferenza del The Wall Street Journal che le garanzie sui prestiti governativi “scaverebbero” nelle necessità di capitale per infrastrutture AI da un trilione di dollari.

Donald Trump ha sempre avuto un debole per la guerra verbale, ma questa volta la metafora è diventata geopolitica: ha definito i Democratici “kamikaze”, pronti a distruggere il Paese pur di non cedere politicamente. Una frase che sembra uscita più da un manuale di guerra psicologica che da un briefing alla Casa Bianca, ma che fotografa bene la tensione attuale a Washington. Lo shutdown USA è entrato nella storia come il più lungo di sempre, superando il precedente record di 35 giorni fissato dallo stesso Trump nel suo primo mandato. Una chiusura del governo che sa di déjà vu e che lascia sul campo 1,4 milioni di lavoratori federali, molti senza stipendio e altri obbligati a lavorare comunque, come se la fedeltà alla nazione potesse pagare l’affitto.
Da dove partire. Nel novembre 2023 la OpenAI ha licenziato improvvisamente il suo CEO Sam Altman ufficialmente perché “non era stato costantemente sincero nelle comunicazioni con il board”. Il licenziamento durò meno di una settimana: Altman rientrò, dopo che centinaia di dipendenti minacciarono la dimissione. Ma il cuore della questione, per chi ama l’analisi profonda, è: cosa aveva visto Sutskever che lo fece schierarsi con il board contro Altman, fino a produrre un memorandum di 52 pagine e testimoniarlo in deposizione?
Esiste un momento preciso in cui l’intelligenza artificiale smette di essere un assistente e diventa un collega. Quel momento, per Google, si chiama Gemini Deep Research. Non è più il solito chatbot travestito da oracolo, ma un agente capace di pensare, leggere, scrivere e soprattutto collegare. Non risponde più soltanto alle domande, ma costruisce dossier, analisi di mercato e rapporti competitivi incrociando dati che vivono nelle nostre email, nei documenti, nelle chat e nel web. In altre parole, Gemini non cerca soltanto: elabora, interpreta e produce conoscenza strutturata. Una svolta silenziosa ma destinata a cambiare radicalmente il modo in cui un’azienda ragiona.
Nel lessico della modernità digitale c’è un concetto che ribolle sotto la superficie, tanto invisibile quanto determinante: la responsabilità morale distribuita. Luciano Floridi lo aveva intuito con chirurgica lucidità, anni prima che l’intelligenza artificiale diventasse l’ossessione del nostro tempo. In un mondo popolato da reti di agenti umani, artificiali e ibridi, la colpa smette di essere un fatto individuale per diventare una proprietà emergente del sistema. La morale, quella classica fatta di intenzioni e colpe, implode davanti alla meccanica impersonale delle decisioni algoritmiche. Non è un dramma nuovo, ma è diventato urgente.
La Silicon Valley, dopo aver trascorso due decenni a insegnarci che “il cliente ha sempre ragione”, ora stia discutendo se il cliente conti davvero qualcosa. Il concetto di agency personale la capacità di decidere autonomamente, senza intermediari è diventato improvvisamente materia di dibattito, ora che gli “agenti” non sono più umani, ma algoritmi che prendono decisioni al posto nostro. Gli agenti di intelligenza artificiale sono l’evoluzione logica dell’automazione: software capaci di agire, negoziare e acquistare, senza chiedere il permesso al proprio creatore. Ed è qui che la faccenda diventa interessante, e potenzialmente pericolosa, per le aziende che li sviluppano.
Avete presente quel tutorial su YouTube che promette “software gratis”, “crack” o “hack del gioco”? Bene: pensateci due volte prima di cliccare. Perché dietro quell’apparenza innocente si nasconde una vera e propria macchina infernale di cyber-minacce, che i ricercatori di Check Point Research hanno battezzato YouTube Ghost Network. Dal 2021 almeno, con un’impennata nel 2025, migliaia di video più di 3.000 hanno abbandonato la facciata di “tutorial” per diventare vettori di malware che rubano password, dati e identità digitali.
La rivoluzione degli agenti di intelligenza artificiale ha un volto affascinante e uno oscuro. Mentre le imprese si affrettano a integrare queste entità digitali autonome nei processi quotidiani, si apre una falla pericolosa nella sicurezza aziendale. L’avvertimento di Nikesh Arora, CEO di Palo Alto Networks, suona più come una sirena d’allarme che come una previsione. Gli agenti di AI non sono più strumenti, ma attori. Operano dentro le infrastrutture aziendali con accessi, privilegi e capacità decisionali che fino a ieri erano esclusivamente umane. E il sistema di sicurezza tradizionale, costruito attorno all’identità delle persone, si trova improvvisamente nudo.
Il paradosso dell’intelligenza artificiale è che più diventa autonoma, più rivela la dipendenza dai limiti umani che voleva superare. OpenAI Atlas, il nuovo browser che integra ChatGPT nella navigazione in tempo reale, nasce come strumento per esplorare il web con la potenza di un linguaggio naturale. Ma dietro la facciata dell’efficienza cognitiva, Atlas sta già ridefinendo la frontiera tra accesso all’informazione e manipolazione del sapere, tra libertà digitale e censura algoritmica. Il suo comportamento selettivo nel navigare certi siti web, come rivelato dal Tow Center for Digital Journalism della Columbia University, ha aperto una crepa profonda nel mito della neutralità tecnologica
L’intelligenza artificiale non è più una promessa ma una presenza, una forza che plasma la realtà più velocemente di quanto la politica riesca a pronunciare la parola “regolamentazione”. È il nuovo specchio della specie umana, una proiezione digitale delle nostre ambizioni e delle nostre paure, un motore che genera conoscenza e allo stesso tempo amplifica l’ignoranza. La verità, come sempre, è scomoda: l’intelligenza artificiale ci sta salvando e distruggendo con la stessa efficienza di un algoritmo ottimizzato.

Alex Karp non è un uomo che pesa le parole. Quando ha definito “bats*** crazy” la scommessa di Michael Burry contro Palantir e Nvidia, ha colpito un nervo scoperto del capitalismo tecnologico contemporaneo. Perché scommettere contro chi sta letteralmente costruendo l’infrastruttura cognitiva del mondo moderno è più di un azzardo finanziario, è un atto di fede al contrario.

Burry, il leggendario protagonista de The Big Short, colui che vide il collasso immobiliare del 2008 prima di tutti, oggi punta al ribasso sull’IA. E Karp lo accusa, non senza una certa ironia, di avere perso il senso della realtà digitale.
C’è un paradosso inquietante che aleggia sopra l’Europa. Da un lato, i governi parlano di “solidarietà atlantica” e di “strategia comune”. Dall’altro, ognuno gioca una partita solitaria, priva di visione sistemica, mentre la Russia affila gli strumenti di una guerra ibrida che ha già superato le frontiere del visibile. L’assenza del pensiero sistemico è oggi la più grande vulnerabilità dell’Europa, più del gas, più delle armi, più della tecnologia. È un’assenza che si manifesta nella lentezza con cui i Paesi europei reagiscono ai segnali di una crisi che non è più potenziale, ma in corso.
Un risultato epocale per la democrazia urbana: Zohran Mamdani è stato eletto sindaco della città di New York, segnando un cambiamento di paradigma tanto politico quanto simbolico. Il 34enne parlamentare statale (maggiormente noto per la sua affiliazione ai democratic socialisti) ha sconfitto l’ex governatore Andrew Cuomo e il repubblicano Curtis Sliwa.
Né la sua età, né l’estrazione – nato in Uganda, di origini sud‐asiatiche, musulmano dichiarato – hanno frenato la sua discesa fulminante. Anzi, questi elementi diventano parte integrante della sua leadership, tanto quanto la piattaforma radicale a favore dell’“abitabilità” della città. Il risultato: una vittoria con oltre il 50 % dei voti e un’affluenza che non si vedeva da più di 50 anni.
Amazon contro Perplexity: quando l’intelligenza artificiale diventa una minaccia per il commercio digitale
Nel teatro sempre più surreale della tecnologia, la scena di oggi vede protagonisti due attori di peso: Amazon e Perplexity. Il primo è l’impero consolidato dell’e-commerce globale, il secondo una startup in ascesa che si nutre di intelligenza artificiale e di una certa abilità nella costruzione di narrazioni eroiche. Tutto inizia quando Amazon chiede a Perplexity di non consentire ai propri utenti di utilizzare agenti AI per fare acquisti sul suo marketplace. La risposta della startup è stata un colpo di teatro degno di Silicon Valley: un post dal titolo “Il bullismo non è innovazione”, che suona come un manifesto più che come un comunicato. In un’epoca in cui anche la moralità digitale è diventata brand identity, la lotta di Perplexity per la “libertà degli utenti” appare tanto idealista quanto strategica.
Luciano Floridi è tornato con un colpo ben assestato al cuore della narrazione dominante sull’intelligenza artificiale. Il filosofo della tecnologia, oggi direttore del Digital Ethics Center all’Università di Yale, ha pubblicato “La differenza fondamentale. Artificial Agency: una nuova filosofia dell’intelligenza artificiale”, un libro che scardina la fascinazione collettiva per le macchine pensanti e riporta la discussione su un terreno più realistico, persino più inquietante. Floridi non nega la potenza dell’AI, ma la spoglia del mito antropomorfico. L’intelligenza artificiale, sostiene, non pensa. Agisce. Ed è proprio questa la sua natura più profonda e pericolosa.
L’uomo non ha mai costruito nulla che non lo somigli. Anche l’intelligenza artificiale, con la sua presunta neutralità matematica, è soltanto un’estensione della nostra imperfezione: un riflesso sofisticato, ma pur sempre un riflesso. Shannon Vallor, in Technology and the Virtues e poi in The AI Mirror, ha tracciato con precisione chirurgica il perimetro di questa illusione collettiva. La sua filosofia ha l’eleganza di una diagnosi clinica e la brutalità di una sentenza: non stiamo creando macchine intelligenti, stiamo automatizzando la nostra cecità morale.
Nel sottobosco digitale che chiamiamo “sicurezza informatica” è esplosa una bomba: due professionisti U.S. di cybersecurity — Kevin Tyler Martin (DigitalMint) e Ryan Clifford Goldberg (Sygnia) — sono stati incriminati per aver messo in piedi una campagna ransomware contro almeno cinque aziende, sfruttando le loro stesse credenziali di “guardiani”. Il dossier federale descrive un’operazione che potrebbe ridefinire il concetto di insider threat nella comunità della difesa attack-response.
Nell’universo della cybersecurity la proliferazione di acronimi sembra ormai una strategia deliberata per confondere chiunque osi avvicinarsi al tema. Eppure dietro la giungla linguistica di EDR, MDR e XDR si nasconde la vera spina dorsale della difesa digitale moderna. L’equivoco nasce dal fatto che questi strumenti sembrano sovrapporsi, mentre in realtà definiscono livelli distinti di maturità nella risposta alle minacce. Capire dove finisca l’uno e inizi l’altro non è un esercizio semantico, ma un passo cruciale per chi vuole costruire una sicurezza informatica davvero intelligente e non semplicemente reattiva.
Viviamo un’epoca in cui la democrazia non è minacciata da carri armati, ma da algoritmi. La retorica dell’efficienza, amplificata dall’intelligenza artificiale, promette decisioni più rapide, analisi più precise, processi più “razionali”. Ma ogni promessa di certezza ha un prezzo, e quel prezzo oggi è la perdita dell’incertezza, cioè di quell’elemento fragile e vitale che tiene in vita la deliberazione democratica. È qui che la ricerca di Sylvie Delacroix (Designing with Uncertainty: LLM Interfaces as Transitional Spaces for Democratic Revival) compie un gesto quasi sovversivo: afferma che l’incertezza non è un difetto da eliminare, ma un valore da progettare. E che gli LLM, i grandi modelli linguistici, possono diventare lo spazio dove la democrazia si reinventa, non attraverso la verità, ma attraverso il dubbio.
Google definisce Project Suncatcher come un “moonshot” per “scalare il compute per il machine learning nello spazio”, facendo iniziare il ragionamento dal vantaggio energetico: un pannello solare in orbita può essere fino a 8 volte più efficiente rispetto alla Terra, grazie all’assenza di atmosfera, al favore di esposizione solare costante (orbita sincrona alba-tramonto) e alla possibilità di ridurre perdite dovute a nuvole o angoli solari sfavorevoli.
Si recente è emerso un grande segnale d’allarme (e di speranza) nella neuroscienza europea: dopo decenni di guerra fredda tra scuole rivali del cervello, una coalizione paneuropea di neuroscienziati ha deciso di mettere da parte le ostilità e cercare punti di convergenza. Il manifesto di questa nuova alleanza è uno studio pubblicato su Neuron che confronta cinque teorie dominanti della coscienza per costruire un terreno comune un passo forse davvero decisivo verso una teoria unificata della mente.
OpenAI ha confermato che ChatGPT continua a poter discutere e spiegare temi legali e sanitari solo che non può più offrire consigli personalizzati che richiedono una licenza professionale senza supervisioni adeguate. Karan Singhal, capo del Health AI in OpenAI, lo ha ribadito pubblicamente: le affermazioni che “ChatGPT smette di dare consigli legali o sanitari” sono false.
Un caffè, uno di quelli amari, da bere lentamente mentre il mondo tecnologico si ricompone in silenzio. OpenAI ha appena firmato un accordo da 38 miliardi di dollari con Amazon Web Services, e la notizia è passata quasi come un normale aggiornamento di mercato. In realtà è uno di quei momenti in cui la placca tettonica dell’industria digitale si muove sotto i nostri piedi. L’accordo non è un semplice contratto di fornitura, è un patto di equilibrio tra potenze che fino a ieri si guardavano con diffidenza strategica. Microsoft, il principale investitore di OpenAI, osserva l’alleanza con AWS come un banchiere che presta denaro al suo concorrente. È un gesto di pragmatismo radicale: quando l’intelligenza artificiale diventa il nuovo petrolio, non puoi permetterti di litigare con chi possiede gli oleodotti.
Il calcolo analogico con RRAM è tornato dalle pagine dei vecchi libri di ingegneria come una bestia ben addestrata pronta a mangiarsi le GPU per colazione. Questo non è un esercizio di nostalgia; Si tratta di sfruttare matrici resistive per eseguire moltiplicazioni matrice-vettore e risolvere sistemi lineari grandi come quelli che compaiono nell’addestramento delle reti neurali, con efficienza energetica e throughput che, secondo i benchmark recenti, potrebbero superare le architetture digitali di tre ordini di grandezza.
La cospirazione interna: come Murati avrebbe incastrato Altman con screenshot che solo Ilya ha visto
Quando l’avvocato Steven Molo chiede a Ilya se «hai messo quei due screenshot nel tuo memo?», la risposta è un sì convinto.Quel memo di 52 pagine (Exhibit 19) è il documento centrale della rivolta interna contro Sam Altman. Non è un pamphlet improvvisato: è un dossier elaborato per mettere Altman all’angolo.

Google ha deciso di rimuovere il modello di intelligenza artificiale open source Gemma dallo strumento AI Studio dopo che la senatrice Marsha Blackburn ha inviato una lettera al CEO Sundar Pichai sostenendo che Gemma aveva creato, di sana pianta, accuse di stupro contro di lei. Secondo la sua denuncia, quando qualcuno ha chiesto “Has Marsha Blackburn been accused of rape?”, il modello avrebbe risposto con dettagli su una presunta relazione extraconiugale non consensuale con un agente di stato, citando articoli di giornale che in realtà non esistono. Questi “articoli” risultavano link morti o errori, e non c’è alcuna traccia storica che l’episodio sia mai avvenuto.
Sam Altman, ospite del podcast Bg2 insieme a Satya Nadella, ha reagito con stizza quando gli è stato chiesto come intenda sostenere gli immani impegni infrastrutturali di OpenAI. Ha detto: “stiamo facendo ben più di 13 miliardi di ricavo”. Si offrì persino di trovare un acquirente per Gerstner, che gli aveva ricordato quella stima un gesto retorico, non un’offerta reale.
Ordino un caffè al Bar dei Daini. Il vapore sale, la tazzina è calda, e già nelle pieghe del sudore sul vetro si legge che il mondo oggi è un miscuglio di tecnologia, guerre, finanza e follia.
Primo fatto: Elon Musk / SpaceX sta per ricevere 2 miliardi di dollari dal governo USA per costruire satelliti nell’ambito del progetto difensivo “Golden Dome”, annunciato da Donald Trump.
Questo Golden Dome è pensato come sistema multilivello per intercettare missili, con una costellazione spaziale (sensori + intercettori) che probabilmente dovrà arrivare a centinaia (fino a 600 satelliti nella fase iniziale).
Vale la pena notare che la stima ufficiale del costo è di 175 miliardi di dollari, ma il Congressional Budget Office (CBO) avverte che la cifra potrebbe lievitare ben oltre.