Nei giorni in cui i media sembrano concentrarsi su altri fronti, la notizia dell’arresto della giudice di Milwaukee, accusata di aver aiutato un immigrato irregolare a sfuggire alla giustizia, passa quasi inosservata. Ma a mettere questa vicenda al centro dell’attenzione è stato il direttore dell’FBI, Kash Patel, una figura che non lascia indifferenti, tanto per le sue posizioni politiche quanto per la sua carriera.

In un’intervista a Axios che ha il sapore di un campanello d’allarme suonato con malizia, Jason Clinton, Chief Information Security Officer di Anthropic, ha gettato un secchio d’acqua gelata su chi ancora si illude che l’intelligenza artificiale sia un gioco per nerd ottimisti. Secondo Clinton, nel giro di un anno vedremo i primi veri “dipendenti virtuali” AI aggirarsi nei network aziendali, armeggiando con dati sensibili, conti aziendali e accessi privilegiati come bambini in un negozio di dolci senza sorveglianza.

Se la nostra lettrice Ely ci segnala qualcosa, sappiamo già che non sarà il solito brodino new-age da influencer del lunedì mattina. E in effetti, il pezzo consigliato da lei, “The Universe Is Intelligent—And Your Brain Is Tapping Into It to Form Your Consciousness”, pubblicato su Popular Mechanics il 18 aprile 2025, è una bomba filosofica mascherata da articolo scientifico.
Secondo Douglas Youvan, Ph.D. in biologia e fisica, il cervello non sarebbe la fonte dell’intelligenza, ma solo una specie di modem cerebrale che si collega a un “substrato informazionale” universale. Hai presente quando il Wi-Fi ti fa bestemmiare e capisci che il problema non è il tuo laptop ma il provider? Ecco, applicalo alla coscienza. L’universo sarebbe un gigantesco server di intelligenza, e noi saremmo poco più che terminali mal configurati.

Dal genio visionario di los alamos ai diffusion model: l’arte computazionale come profezia delle intelligenze artificiali
Nel 2025 parliamo ossessivamente di modelli di diffusione, intelligenze artificiali capaci di generare immagini partendo dal rumore, algoritmi che trasformano pixel casuali in scene iperrealistiche degne di fotografi umani. Eppure, se ci fermassimo un attimo a scavare nella genealogia di questa rivoluzione visiva, scopriremmo che tutto è iniziato molto prima. Non con Google, non con OpenAI. Ma con uomini come Melvin Lewis Prueitt, fisico teorico di provincia, che dalla remota cittadina di Wickes arrivò ai laboratori di Los Alamos per trasformare funzioni matematiche in arte visiva, usando calcolatori come pennelli e coordinate cartesiane come pigmenti.
È sempre divertente quando la realtà supera il teatro. A quanto pare, solo sei giorni dopo che la Cina ha annunciato l’introduzione obbligatoria dell’educazione all’intelligenza artificiale a partire dai sei anni, gli Stati Uniti hanno deciso di non restare indietro. Ieri, con una mossa che puzza di disperazione mascherata da lungimiranza, l’ex presidente Donald Trump ha firmato un ordine esecutivo che impone l’insegnamento obbligatorio dell’AI in tutte le scuole primarie e secondarie.

Se ti chiedessi: “Compreresti un robot domestico, sapendo che viene guidato da un assistente umano nelle Filippine?”, la risposta istintiva sarebbe un misto di fascinazione e orrore. E sarebbe perfettamente normale. Perché in un mondo sempre più schizofrenico tra innovazione accelerata e rispetto umano in caduta libera, la nuova moda delle startup come Prosper è quella di unire outsourcing e robotica in un cocktail che sa di Black Mirror, ma con il sorriso corporate sulle labbra.

Partiamo dal presupposto che chiunque oggi osi ancora dire “non ho tempo” probabilmente non ha mai seriamente messo ChatGPT alla prova. Qui entriamo in un territorio interessante, quasi magico, dove la produttività schizza come una Tesla in modalità Plaid. E ovviamente, come ogni cosa magica, serve la formula giusta. Ti porto quindi nel mondo dei 10 prompt che, se usati bene, ti faranno sembrare un esercito di consulenti iperattivi pronti a servire il tuo impero personale. Nessun elenco sterile, solo pragmatismo velenoso e visione da CEO navigato.
Iniziamo con l’arte della scrittura di proposte commerciali, uno dei mestieri più noiosi dell’universo conosciuto. Fino a ieri, sudavi sette camicie per mettere insieme un documento decente che spiegasse il tuo prodotto o servizio a un potenziale cliente zombificato da altre cento proposte uguali. Ora basta inserire un prompt preciso su ChatGPT: “Crea una proposta professionale per [servizio/prodotto] destinata a [pubblico target], con introduzione, proposta di valore e dettagli sui prezzi.” Voilà, in meno tempo di quello che ci metti ad aprire un file Word, hai in mano un documento vendibile.

Quantum watch and its intrinsic proof of accuracy
Se siete arrivati fin qui senza cambiare pagina, allora forse avete abbastanza fegato per affrontare la verità: in laboratorio, sulle spalle di Helio innocente, abbiamo visto nascere un nuovo modo di misurare il tempo. Non con ingranaggi, non con cristalli vibranti, e nemmeno con gli orologi atomici che vi fanno sentire moderni, ma con l’intelligenza ruvida e brutale della meccanica quantistica. Si chiama quantum watch, e non conta un bel niente: non batte secondi, non somma oscillazioni, non segue il ritmo di un pendolo o di una frequenza standard. No. Questo bastardo crea impronte, impronte di tempo che sono così uniche da diventare una carta d’identità temporale.
Il cuore sporco di questo esperimento pulsa intorno a pacchetti d’onda Rydberg estremamente complessi, costruiti eccitando stati energetici alti dell’elio. A differenza dei soliti noiosi stati singoli, un pacchetto d’onda multi-stato si comporta come una rissa da bar quantistica: interferenze, battiti, caos apparente che però, sotto il velo della casualità, nasconde una struttura precisa, ossessivamente determinata. Questo caos ordinato permette di tracciare il tempo trascorso dall’eccitazione iniziale con una precisione che fa impallidire i vostri Rolex.

Se hai sempre pensato che l’intelligenza artificiale di oggi assomigliasse a un ragazzino viziato che impara solo ripetendo a pappagallo quello che sente dagli umani, allora David Silver e Rich Sutton sono qui per dirti che il tempo delle coccole è finito. Il loro saggio “Welcome to the Era of Experience” suona come il manifesto di una rivoluzione: l’era dei dati umani è arrivata al capolinea e il futuro appartiene agli agenti che imparano da soli, esperendo il mondo come se fossero piccoli esploratori ribelli.
Finora l’AI ha camminato tenuta per mano. Supervised learning, fine-tuning con dati umani, reinforcement learning da feedback umano: tutto questo ha costruito sistemi brillanti ma fondamentalmente dipendenti. Non appena l’ambiente cambia, questi modelli mostrano la fragilità tipica di chi ha solo imparato a memoria senza mai capire davvero il gioco.

Se pensavate che l’atmosfera di un funerale papale fosse immune dai giochi di potere, vi sbagliavate di grosso. A San Pietro, sabato, nel silenzio imponente della basilica, Donald Trump e Volodymyr Zelensky si sono incontrati brevemente ma intensamente, tra gli sguardi severi dei santi e il peso di un conflitto che non accenna a spegnersi. Non un tête-à-tête qualunque, ma il primo incontro diretto dopo l’accesissimo scontro alla Casa Bianca, quella pièce teatrale che aveva lasciato intendere quanto poco zucchero ci fosse rimasto nei rapporti bilaterali.
Zelensky ha parlato di “un cessate il fuoco incondizionato”, come chi chiede una tregua mentre l’altra parte sta già caricato il fucile. “Speriamo in risultati”, ha detto con quell’ottimismo forzato da leader di un Paese in fiamme. I media ucraini si sono affrettati a diffondere foto di Trump e Zelensky seduti faccia a faccia, entrambi protesi in avanti, in quell’atteggiamento che conosciamo bene: il corpo che dice “ti ascolto” e la mente che urla “quanto manca alla fine di questa farsa?”. Sullo sfondo, come a ricordare l’ineluttabilità di tutto, la bara semplice di legno di Papa Francesco.

Papa Francesco è riuscito, persino da morto, a realizzare il suo sogno più grande: mettere insieme l’umanità tutta, dai migranti disperati ai capi di Stato più cinici, davanti a una bara di legno semplice e una parola incisa: Franciscus. Altro che cerimonia sobria. Sabato a San Pietro è andata in scena una rappresentazione globale che ha mischiato spiritualità, diplomazia, ambizione e ipocrisia, in un groviglio che solo il Vaticano sa orchestrare con tanta arte antica.
Circa 250.000 fedeli hanno invaso Piazza San Pietro mentre le autorità contavano almeno altre 200.000 anime riversate lungo via della Conciliazione, in uno dei raduni più oceanici della storia recente. Il feretro, posato su un vecchio papamobile modificato, ha percorso i 4 km che separano il cuore della cristianità dalla Basilica di Santa Maria Maggiore, accolto da applausi, lacrime e cori di “Papa Francesco” scanditi in decine di lingue. In quel pezzo di strada, il mondo intero sembrava finalmente d’accordo su qualcosa: la gratitudine verso un uomo che aveva fatto della periferia la sua casa.

Inizia tutto come una delle solite storie di innovazione raccontate nei pitch da startup, pieni di entusiasmo e promesse di rivoluzione. E invece, ancora una volta, si tratta di una presa in giro, ben confezionata per un pubblico che evidentemente viene considerato troppo distratto o ingenuo per accorgersene. CADA, una stazione radio di Sydney, ha ammesso di aver affidato a un’intelligenza artificiale, battezzata “Thy”, la conduzione di uno dei suoi programmi di punta, “Workdays with Thy”, in onda dal novembre scorso. Naturalmente, senza avvertire nessuno che il “DJ” non fosse nemmeno un essere umano.
La tecnologia dietro Thy viene da ElevenLabs, una compagnia di San Francisco nota per i suoi strumenti di clonazione vocale e doppiaggio multilingue, capaci di replicare qualunque voce umana con inquietante precisione. Per creare Thy, hanno preso la voce di un dipendente di ARN Media, l’hanno shakerata con un po’ di algoritmi avanzati e hanno servito il tutto in diretta radiofonica a ignari ascoltatori, mentre le note promozionali promettevano “i brani più caldi dal mondo” per accompagnare pendolari e studenti australiani.

Nel mare magnum di buzzword e promesse roboanti su intelligenze artificiali miracolose, c’è una verità brutale che raramente viene sussurrata nei corridoi dorati delle startup e degli incubatori di unicorni: la parte più sottovalutata nello sviluppo di AI è conoscere davvero le strutture dati. Senza questo mattoncino di base, puoi anche avere il miglior modello del mondo, il cloud più costoso e una pipeline MLOps degna di un film cyberpunk: tutto crollerà come un castello di carte in una giornata ventosa a Chicago.
Capire come i dati sono organizzati, memorizzati e recuperati non è un vezzo accademico da nerd occhialuti chiusi in qualche scantinato, è la differenza tra un sistema AI scalabile e una montagna fumante di bug ingestibili. Ed è esattamente per questo che ogni maledetta app, da ChatGPT fino alla Tesla che cerca disperatamente di non investire il tuo gatto, usa strutture dati pensate, ottimizzate e brutalmente efficienti.

Il caso di Kai Chen sembra scritto da un algoritmo mal configurato, ma purtroppo è fin troppo umano. Ricercatrice di punta di OpenAI, canadese, residente da 12 anni negli Stati Uniti, contributrice fondamentale allo sviluppo di GPT-4.5, è stata sbattuta fuori dal paese dopo il rifiuto della sua green card. Motivo? Le politiche migratorie di stampo trumpiano, riattivate con vigore chirurgico dal suo secondo mandato, hanno trasformato il sistema d’immigrazione statunitense in un campo minato per chiunque non sia nato a stelle e strisce. Neppure i cervelli più brillanti ne escono indenni.
Quello di Chen non è un caso isolato, ma un sintomo. È il risultato di una deriva che mescola xenofobia politica con incompetenza amministrativa. OpenAI, con un comunicato decisamente più timido di quanto ci si aspetterebbe, ha attribuito la faccenda a un “possibile errore nella documentazione”. La classica toppa peggiore del buco. Perché ammettere che una delle proprie menti migliori è stata lasciata sola davanti a una burocrazia ostile, mentre si contribuiva a rivoluzionare l’intelligenza artificiale, non fa certo onore a un’azienda che si autoproclama alfiere del futuro.

Google ha deciso di rimettere mano a Gmail su mobile, e come spesso accade, lo fa senza chiedere il permesso. Se sei un utente Android o iOS, preparati a trovarti un’interfaccia diversa, nuove trovate “intelligenti” e, ovviamente, una sottile ma inevitabile pressione a usare di più la loro AI. Gli aggiornamenti sono in rollout globale sia per gli account Workspace sia per quelli personali, quindi non sperare di scamparla.
Partiamo dal pezzo forte: i possessori di tablet Android e dei cosiddetti foldable (per chi ancora ci crede) riceveranno un’interfaccia Gmail finalmente quasi adulta. In modalità landscape ora puoi spostare liberamente il divisorio tra la lista delle email e la conversazione aperta. Vuoi vedere solo le email? Trascina tutto a sinistra. Vuoi vedere solo il contenuto? Spingi il divisore a destra. È un concetto di base talmente semplice che quasi ti chiedi come abbiano fatto a non implementarlo prima. Ah già, volevano tenere alto il tasso di frustrazione utente. A scanso di equivoci, l’animazione ufficiale che mostra il tutto in azione è una tristezza avvilente, ma se sei curioso, puoi dare un’occhiata qui.

ByteDance, la famigerata casa madre di TikTok, sembra aver trovato il suo nuovo Eldorado a sud dell’equatore. Secondo quanto rivelato da tre fonti confidenziali a Reuters, il colosso cinese sta seriamente valutando un investimento colossale in un data center da 300 megawatt nel porto di Pecem, nello stato brasiliano del Ceara, sfruttando l’abbondante energia eolica che soffia costante sulla costa nord-orientale del paese. Per intenderci, parliamo di un progetto che potrebbe arrivare a un assorbimento di energia di quasi un gigawatt se il piano dovesse proseguire oltre la prima fase. Per fare un paragone, è come alimentare più o meno 750.000 case contemporaneamente, senza contare la sete insaziabile dei server affamati di dati.
Nel pieno stile “meglio abbondare”, ByteDance non si muove da sola: sarebbe in trattative con Casa dos Ventos, uno dei principali produttori di energia rinnovabile del Brasile, per sviluppare il mega impianto. La scelta di Pecem, va detto, non è casuale. Il porto vanta una posizione strategica con la presenza di stazioni di atterraggio di cavi sottomarini, quelli che trasportano i dati attraverso gli oceani a velocità indecenti. Oltre ai cavi, c’è una concentrazione significativa di impianti di energia pulita. Insomma, tutto perfetto, se non fosse che il gestore nazionale della rete elettrica brasiliana, ONS, ha inizialmente negato la connessione alla rete per il progetto, temendo che simili colossi energivori potessero far saltare il sistema come un vecchio fusibile in una casa anni ‘50.

Se ti dicessi che il mastodontico apparato militare americano, quello da trilioni di dollari di budget annuo, dipende dalle miniere cinesi come un tossico dal suo spacciatore di fiducia? No, non è una provocazione da bar sport geopolitico, è il cuore nero di uno studio appena rilasciato da Govini, società specializzata nell’analisi delle catene di approvvigionamento della Difesa. Un’analisi che fotografa senza pietà una verità tanto scomoda quanto letale per la narrativa a stelle e strisce: il 78% dei sistemi d’arma del Pentagono è potenzialmente ostaggio della politica mineraria di Pechino.
La radiografia effettuata da Govini non lascia margine a ottimismo: parliamo di circa 80.000 componenti bellici che incorporano metalli come antimonio, gallio, germanio, tungsteno e tellurio. Cinque piccoli elementi chimici, sconosciuti ai più, che nella mani giuste (o sbagliate) diventano l’ossatura invisibile di radar, missili, droni, blindati, sistemi di difesa nucleare. E guarda caso, la produzione globale di questi metalli è dominata quasi integralmente dalla Cina.

Non bastava qualche chitarrina stonata generata dall’intelligenza artificiale per mettere a soqquadro il già fragile ecosistema musicale, no. Google DeepMind ha deciso di alzare il volume (e l’asticella) presentando il suo nuovo prodigio: Lyria 2. Un upgrade spietato e chirurgico del suo Music AI Sandbox, pensato non per i soliti nerd da cameretta, ma per produttori, musicisti e cantautori professionisti che, guarda caso, cominciano a capire che l’IA non è più un giocattolo, ma un concorrente diretto sul mercato creativo.
Questa nuova versione di Lyria non si limita a generare canzoncine ascoltabili solo dopo sei gin tonic. Produce audio di qualità da studio, pensato per integrarsi senza cuciture in flussi di lavoro professionali. Parliamo di un salto quantico nella qualità dell’output: suoni puliti, dinamica curata, senso della struttura musicale… insomma, roba che non ti aspetteresti mai da una macchina, e invece eccoci qui a constatare che forse il chitarrista hipster del tuo gruppo può essere sostituito da un prompt di testo ben scritto.

La pubblicità e lo shopping online sono stati per trent’anni il lubrificante che ha fatto girare gli ingranaggi della macchina di Internet. Non solo l’hanno sostenuta, ma l’hanno drogata a tal punto che oggi è impensabile navigare senza essere inseguiti da annunci su misura o senza incappare in una tentazione di acquisto al primo scroll. Era solo questione di tempo prima che il matrimonio tra intelligenza artificiale, pubblicità e shopping si trasformasse in una delle più grandi operazioni di monetizzazione mai concepite. E la notizia fresca fresca di questi giorni lo conferma senza lasciare dubbi: OpenAI ha piani piuttosto ambiziosi.
Secondo uno scoop rivelato questa settimana da the Information, OpenAI si aspetta che entro il 2029 i ricavi generati dagli agenti AI e dai prodotti destinati agli utenti gratuiti (sì, anche quelli che adesso si sentono furbi usando ChatGPT senza pagare) contribuiranno per decine di miliardi di dollari al suo fatturato. I dettagli su come intendano mungere la vacca sacra dei “freemium” sono ancora nebulosi, ma due strade sono quasi scontate: pubblicità integrata nelle risposte oppure una percentuale sulle transazioni di acquisto innescate dalle ricerche. Insomma, se ChatGPT ti suggerisce un paio di sneakers “irresistibili” e tu clicchi per comprarle, OpenAI prende la sua fetta della torta, rigorosamente senza sporcare le mani.

Se qualcuno ancora si illudeva che la Cina avesse intenzione di restare a guardare mentre l’Occidente gioca a fare gli apprendisti stregoni dell’intelligenza artificiale, è ora di svegliarsi dal torpore. Xi Jinping, con la solennità tipica di chi ha in mano non solo il telecomando, ma anche la sceneggiatura dell’intero show, ha dichiarato senza giri di parole: la Cina mobiliterà tutte le sue risorse per dominare l’AI, scardinare ogni colletto tecnologico imposto dagli Stati Uniti, e guidare la prossima rivoluzione industriale mondiale.

Nel panorama dell’intelligenza artificiale, la collaborazione tra Amazon Web Services (AWS) e Anthropic ha suscitato notevoli discussioni, The Information, Nicola Grandis di Vitruvian, soprattutto riguardo ai limiti imposti all’utilizzo dei modelli Claude attraverso la piattaforma Bedrock. Queste restrizioni, sebbene giustificate da esigenze tecniche e di sicurezza, stanno sollevando interrogativi sulla libertà operativa degli sviluppatori e sull’effettiva scalabilità delle soluzioni AI offerte.
Uno dei principali punti di attrito riguarda i limiti di richiesta imposti da AWS. Ad esempio, per il modello Claude 3 Opus, il numero massimo di richieste di inferenza al minuto è limitato a 50 per regione supportata. Questo significa che, in scenari ad alta intensità di utilizzo, gli sviluppatori possono facilmente raggiungere questi limiti, ricevendo errori HTTP 429 che indicano un eccesso di richieste. Sebbene AWS consenta di richiedere aumenti di quota attraverso ticket di supporto, l’approvazione dipende dalla capacità disponibile e può richiedere tempo.
La situazione è talmente grottesca che sembra uscita da un episodio di Black Mirror 7, siamo sotto l’influenza ancora della serie, ma è tutto reale. Martin Wolf, una delle firme più rispettate del Financial Times, si ritrova trasformato in testimonial di investimenti truffaldini su Facebook e Instagram, vittima di deepfake pubblicitari che Meta, la presunta avanguardia mondiale dell’AI, non riesce o non vuole fermare. E qui sorge il dilemma: incapacità tecnica o negligenza sistemica?


Nel tempo in cui il codice vale più del comando, dove la guerra si digitalizza e l’etica vacilla davanti all’efficienza algoritmica, Israele pare aver ufficializzato il passaggio dallo stato di guerra a quello di “debug militare“. La notizia, uscita sul New York Times, racconta di come l’esercito israeliano abbia abbracciato senza troppi giri di parole l’uso dell’intelligenza artificiale per identificare, localizzare e colpire target all’interno della Striscia di Gaza. E non si parla di mere ricognizioni o supporto alla logistica: qui si tratta di vere e proprie esecuzioni gestite da modelli predittivi, droni killer e riconoscimento facciale.
Il caso esemplare, riguarda Ibrahim Biari, figura chiave di Hamas e implicato direttamente negli attacchi del 7 ottobre. L’intelligence israeliana avrebbe monitorato le sue chiamate e, attraverso un tool di AI vocale, triangolato una posizione approssimativa. Quella stima, che avrebbe potuto essere un intero quartiere, è bastata per lanciare un raid aereo il 31 ottobre 2023. Risultato? Biari eliminato. Ma insieme a lui oltre 125 civili, secondo Airwars, organizzazione di monitoraggio dei conflitti con sede a Londra.

È ufficiale: Microsoft ha deciso che il tuo PC deve ricordare tutto. Tutto. E con “Recall”, ora lo farà davvero. L’azienda di Redmond ha finalmente lanciato il famigerato sistema di screenshot continui su tutti i Copilot Plus PC, dopo una gestazione degna di un software di sorveglianza militare. Il risultato? Un feature “opt-in” che promette di aiutarti a “riprendere da dove avevi lasciato”, mentre in realtà memorizza ogni singolo pixel della tua vita digitale.
Il principio è semplice e, come sempre con Microsoft, potenzialmente geniale e inquietante in parti uguali. Recall scatta automaticamente degli snapshot dello schermo a intervalli regolari, li indicizza e li rende consultabili attraverso una timeline visuale. Hai letto un documento ma non ricordi come si chiamava? Nessun problema: puoi scrollare indietro nella timeline e trovarlo come fosse una puntata della tua serie preferita. Ti sei dimenticato dov’era quella foto del cane marrone? Basta chiedere “brown dog” e l’AI farà la magia.
C’è un che di Black Mirror in tutto questo.

Microsoft si prepara a rilasciare i risultati finanziari del terzo trimestre dell’esercizio 2025 la prossima settimana, e gli analisti di Evercore ISI hanno già tracciato le loro previsioni sul futuro dell’azienda. Secondo la nota degli analisti, guidati da Kirk Materne, il gigante del software ha la possibilità di “resettare e rimanere competitivo”, ma con aspettative di crescita più contenute per Azure. Questo, come sottolineato, non è un segno di debolezza, ma una strategia per “aggiustare” le aspettative, aumentando le possibilità di una ripresa a lungo termine.

L’idea che OpenAI possa evolversi in una “superbot” o addirittura diventare un nuovo monopolio tecnologico solleva diverse domande cruciali, soprattutto in un contesto dove la crescita e la diversificazione della compagnia, sotto la guida di Sam Altman, sono rapide e incessanti. È uno scenario affascinante, che vede OpenAI non solo dominare il campo dell’intelligenza artificiale, ma anche espandersi in numerosi settori strategici e redditizi. Questo percorso di OpenAI dipinge il quadro di un’azienda decisa a plasmare il futuro, non solo come leader nell’AI, ma come un attore globale in tutto l’ecosistema tecnologico.

La recente pubblicazione del rapporto tecnico relativo a Gemini 2.5 Pro da parte di Google ha sollevato non poche polemiche, soprattutto per la sua scarsità di dettagli utili. Dopo settimane di attesa, il gigante di Mountain View ha finalmente rilasciato un documento che, tuttavia, lascia ancora molti interrogativi sulla sicurezza del suo modello. Come sottolineato da Peter Wildeford in un’intervista a TechCrunch, il rapporto in questione è troppo generico, al punto da risultare quasi inutile per una valutazione accurata della sicurezza del sistema.
L’assenza di dettagli chiave rende impossibile per gli esperti del settore capire se Google stia effettivamente rispettando gli impegni presi, e se stia implementando tutte le necessarie misure di protezione per garantire un utilizzo sicuro di Gemini 2.5 Pro. Il documento pubblicato non fornisce informazioni sufficienti a valutare se il modello sia stato sottoposto a test adeguati, né se le vulnerabilità potenziali siano state analizzate in modo rigoroso. In sostanza, non c’è modo di capire come Google stia affrontando la questione della sicurezza nei suoi modelli AI più recenti, lasciando un alone di opacità che solleva dubbi sulle reali intenzioni dell’azienda.

Un’ulteriore ondata di preoccupazioni ha travolto OpenAI, con una lettera aperta firmata da figure eminenti nel mondo dell’intelligenza artificiale e della giustizia economica che ha suscitato un nuovo dibattito sul futuro dell’azienda e sul suo passaggio a una struttura a scopo di lucro. La missiva, indirizzata ai procuratori generali della California e del Delaware, chiede esplicitamente che la trasformazione di OpenAI da organizzazione non profit a società a scopo di lucro venga bloccata. Tra i firmatari figurano nomi di primissimo piano come Geoffrey Hinton e Stuart Russell, due tra i pionieri della ricerca sull’intelligenza artificiale, nonché Margaret Mitchell, Joseph Stiglitz e un gruppo di ex dipendenti della stessa OpenAI. Una coalizione di voci influenti che, con forza, condanna la deriva verso il profitto che l’azienda starebbe intraprendendo.
L’argomento di questa lettera non è nuovo, ma assume una risonanza ancora più forte data la crescente preoccupazione sul controllo delle tecnologie avanzate in ambito AI. Se finora le critiche si erano limitate a chiedere maggiore trasparenza e una supervisione più rigorosa sul processo di monetizzazione, stavolta il gruppo chiede un blocco totale della transizione, un intervento che vada ben oltre il semplice innalzamento del prezzo delle azioni, ma che preservi l’intento etico originale dell’organizzazione. Non si tratta più solo di preoccupazioni economiche o di marketing, ma di una questione che tocca l’anima stessa di OpenAI: la missione iniziale di servire l’intera umanità, invece di cedere alle pressioni del mercato.

Comments Received in Response To: Request for Information on the Development of an Artificial Intelligence (AI) Action Plan (“Plan”)
La Casa Bianca ha appena scaricato online tutti i 10.068 commenti ricevuti durante la sua richiesta di informazioni per delineare un piano d’azione sull’intelligenza artificiale. Non stiamo parlando di una consultazione tra burocrati in tailleur e cravatta, ma di un autentico sfogo collettivo, una sorta di “confessione pubblica” sul futuro dell’umanità assistita da macchine.
Per chi non ha voglia di farsi una maratona da 10.000+ pareri pubblici (spoiler: nessuno ha voglia), è disponibile una dashboard con i riepiloghi generati da AI. Ironico, vero? L’AI che riassume le lamentele contro l’AI. Una distopia perfettamente autosufficiente.
Ma veniamo al punto. Il sentimento dominante è il disprezzo, con una punta di paranoia tecnofobica. Non si tratta solo di una manciata di boomer inferociti: è un fronte ampio, trasversale, che unisce utenti ordinari, attivisti, professionisti creativi, e pure qualche tecnologo pentito.

Quando Microsoft e la Singapore Academy of Law si mettono insieme per scrivere un manuale di Prompt Engineering per avvocati, non lo fanno per sport. Lo fanno perché hanno capito che l’unico modo per convincere una professione ostinatamente conservatrice a dialogare con l’intelligenza artificiale, è quello di mostrarle che non c’è nulla da temere… e tutto da guadagnare. Il documento in questione non è un trattato teorico né una marketta da vendor: è un compendio tecnico, pratico, e maledettamente necessario su come usare l’IA generativa nel diritto senza fare disastri etici o figuracce professionali. Ecco perché è interessante: perché non parla dell’IA, ma con l’IA. E lo fa con uno stile educato ma pragmatico, come dovrebbe fare ogni buon avvocato.
Nel primo capitolo, gli autori smantellano con eleganza la narrativa ansiogena: l’IA non ruba lavoro, ma tempo sprecato. Il messaggio è chiaro: l’avvocato che usa l’IA non è un fannullone, è un professionista che si libera dalle catene della burocrazia testuale. Revisioni contrattuali, due diligence, ricerche giurisprudenziali… tutte attività dove l’IA non solo non nuoce, ma esalta la qualità umana, perché consente di dedicarsi a ciò che davvero conta: pensare, decidere, consigliare. Non automatizzare l’intelligenza, ma liberarla.

Il mito dell’università americana come cassaforte inespugnabile fatta di venerate biblioteche e mura di sapere eterno si sta progressivamente smaterializzando nel fumo freddo delle svendite forzate. Harvard University, con i suoi mastodontici 53,2 miliardi di dollari di endowment, ha deciso di monetizzare circa 1 miliardo di dollari in partecipazioni in fondi di private equity, secondo quanto riferito da Bloomberg. Il deal è assistito da Jefferies, banca d’affari specializzata nei mercati secondari dei fondi illiquidi. Un’operazione che, tradotta nel linguaggio della finanza reale, suona come una mossa da “chi ha bisogno urgente di liquidità”.
La storia, se fosse narrata da un professore di economia aziendale con un passato da rocker fallito, suonerebbe più o meno così: quando anche l’istituzione accademica più dotata del pianeta inizia a far cassa vendendo asset tipicamente illiquidi, come quote in fondi di private equity, è segno che i tempi sono davvero cambiati. O meglio, stanno cambiando le priorità. E i flussi di cassa.

Il venture capital americano torna a flirtare con la Cina, ma stavolta non si tratta di robot con occhi a mandorla che fanno Tai Chi nei centri commerciali di Shenzhen. Benchmark, il VC che ha avuto il colpo di reni con Uber e Snap prima che diventassero colossi nevrotici da borsa, ha guidato un round di investimento nella startup cinese Butterfly Effect, che nel nome già promette una quantità di caos proporzionale all’entusiasmo suscitato online da Manus, il suo agente AI virale.
La cifra che ha fatto girare la testa ai capitalisti di ventura? Una valutazione di circa 500 milioni di dollari. E non parliamo di una AI che ti racconta fiabe della buonanotte. Manus naviga, clicca, legge, prenota, analizza e probabilmente ha anche un’opinione sulla politica monetaria della Fed. Un assistente che agisce come un umano, ma senza fare pause caffè, e con una velocità che fa sembrare il multitasking umano una scusa corporativa per l’inefficienza.
Dietro questa operazione, come spesso accade, c’è il rumore. Quello creato dal debutto virale dell’agente AI lo scorso marzo. Appena lanciato in beta, Manus ha fatto il giro degli account X (ex Twitter) e Slack delle aziende tech, finendo rapidamente sotto il radar di chi mastica innovazione e ha il portafogli sempre pronto. In una Silicon Valley che sta iniziando a guardare con meno diffidenza e più fame i prodotti AI Made in China, dopo il boom di DeepSeek, Manus è arrivato come una conferma che sì, Pechino sa ancora come spaventare e sedurre allo stesso tempo.

Nel mondo dei colossi, dove ogni movimento strategico ha il peso di un’onda sismica, Apple sta tracciando una nuova rotta: addio (quasi) definitivo alla Cina come fabbrica globale degli iPhone destinati al mercato statunitense. Secondo il Financial Times, la Mela di Cupertino ha intenzione di spostare tutta la produzione degli iPhone venduti negli USA in India entro il 2026, con una prima milestone già nel 2025. Tradotto: oltre 60 milioni di pezzi l’anno, made in Bharat. Il tutto in risposta al deterioramento delle relazioni commerciali tra Washington e Pechino, in un gioco di tariffe, esenzioni temporanee e tensioni da guerra fredda versione 5G.
La mossa di Apple è figlia diretta del rischio di una tariffa del 125% sui prodotti cinesi ventilata da Donald Trump, oggi redivivo sul palcoscenico politico americano. Una misura che avrebbe reso l’importazione di iPhone prodotti in Cina un suicidio economico. Per ora, i telefoni cinesi sono colpiti da un dazio separato del 20%, mentre quelli fabbricati in India godono di una tariffa dimezzata, al 10%, fino a luglio. E se l’accordo commerciale con Nuova Delhi andrà in porto, il vantaggio fiscale potrebbe diventare permanente.

Mentre Tesla attende il placet del Partito per far sfrecciare il suo Full Self-Driving (FSD) sulle strade cinesi, i grandi nomi dell’automotive tedesco e giapponese stanno già firmando accordi a tutta manetta con i campioni nazionali dell’intelligenza artificiale made in China. La scena è il salone dell’auto di Shanghai, ma l’aria è quella di una rivoluzione culturale – questa volta digitale.
Mercedes-Benz sfodera la CLA elettrica a passo lungo, un salotto su ruote pensato per il mercato cinese, con sotto il cofano non solo batterie ma ByteDance. No, non balla su TikTok: il motore qui si chiama Doubao, un Large Language Model sviluppato proprio dal colosso social. L’assistente vocale del veicolo parte in 0,2 secondi letteralmente più veloce di un impiegato pubblico nel timbrare l’uscita. ByteDance promette che l’auto non si limita a capire, ma esegue comandi in tempo reale. Non chiacchiere, ma fatti, nel vero spirito della nuova frontiera LLM.

Se il futuro dell’intelligenza artificiale cinese fosse un’arena di gladiatori, Baidu oggi avrebbe appena sguainato due spade affilate e low-cost. Alla sua conferenza per sviluppatori a Wuhan, Robin Li co-fondatore, CEO e oratore instancabile per oltre un’ora ha presentato Ernie 4.5 Turbo e X1 Turbo, i nuovi modelli AI che promettono una cosa molto semplice e spietatamente capitalistica: fare meglio, spendendo meno.
Non si tratta di evoluzioni minori. Ernie 4.5 Turbo si propone come alternativa multimodale al DeepSeek V3, costando il 40% in meno. X1 Turbo invece si posiziona come killer della R1 di DeepSeek, con un prezzo che è un quarto rispetto al suo concorrente diretto. E Li non lo nasconde: “L’essenza dell’innovazione è abbattere i costi”. Come dire: meno poesia e più margine operativo lordo.

Humble Opionion Il 30 gennaio, Microsoft ha pubblicato su YouTube un elegante spot pubblicitario di un minuto per i suoi nuovi Surface Pro e Surface Laptop. Un video sobrio, levigato, come ci si aspetterebbe da una big tech da trilioni. Ma c’è un dettaglio che, a distanza di quasi tre mesi, è finalmente emerso: buona parte di quello spot è stato creato con intelligenza artificiale generativa. E nessuno se n’è accorto. Nessuno. Neppure i commentatori più attenti, neppure gli utenti nerd con il frame-by-frame sotto mano.
E qui scatta il twist alla “Fight Club”: il primo spot AI di Microsoft non è stato annunciato con fanfare, non è stato accompagnato da comunicati stampa in maiuscoletto. È stato lasciato lì, in pasto all’indifferenza dell’internet, come un test silenzioso, un crash test culturale per vedere se l’occhio umano è ancora in grado di distinguere il vero dal sintetico. Risposta: no.

Comcast ha appena regalato agli investitori una doccia fredda: l’utile netto è sceso del 13% nel primo trimestre, un numero che puzza di vecchio, come i loro decoder. I ricavi sono stati “leggermente inferiori”, una di quelle espressioni corporate che suona come “abbiamo sbattuto contro il muro, ma con stile”. Il punto è che stanno perdendo clienti sia nel ramo TV via cavo che in quello della banda larga, confermando che la disaffezione per la vecchia guardia del telecom sta accelerando. Chi ha ancora voglia di pagare per una TV lineare quando ci sono streaming on demand e connessioni mobili sempre più performanti?

C’è un dettaglio quasi poetico in tutto questo: Motorola, marchio glorioso ma ormai relegato alle retrovie dell’immaginario tech collettivo, si sta ritagliando una seconda vita grazie a ciò che vent’anni fa sarebbe sembrata fantascienza. Non con un nuovo Razr pieghevole, non con una rivoluzione hardware, ma con chatbot a bordo. Il cavallo di Troia non ha più bisogno di ruote: ora ha l’avatar di un assistente AI.
La notizia della partnership tra Perplexity AI e Motorola non è solo una mossa commerciale, è il riflesso di un nuovo paradigma: i produttori di smartphone, costretti da anni a sgomitare in un mercato saturo e privo di vere innovazioni hardware, si stanno reinventando come veicoli di distribuzione per le intelligenze artificiali. E Motorola, che in questo panorama sembrava solo una nota a piè di pagina, diventa improvvisamente un asset strategico.

Rapporto sugli utili del primo trimestre 2025 di Alphabet
- Ricavi: 90,23 miliardi di dollari contro gli 89,12 miliardi di dollari previsti
- Utile per azione: $ 2,81 contro $ 2,01 previsti
Wall Street sta monitorando anche altri numeri del rapporto:
- Ricavi pubblicitari di YouTube : 8,93 miliardi di dollari contro 8,97 miliardi di dollari, secondo StreetAccount
- Fatturato di Google Cloud: 12,26 miliardi di dollari contro 12,27 miliardi di dollari, secondo StreetAccount
- Costi di acquisizione del traffico (TAC) : 13,75 miliardi di dollari contro 13,66 miliardi di dollari, secondo StreetAccount

Nel cuore di un internet che vive di click e apocalissi digitali, un semplice tweet ha risvegliato la vecchia ossessione umana: “cosa ci sta nascondendo l’intelligenza artificiale?”. Tutto è iniziato con una richiesta su X (ex Twitter): “ChatGPT, descrivi il futuro dell’umanità in un modo che neanche la persona più intelligente del mondo possa capire”. La risposta è stata un delirio grafico di simboli, rune, caratteri glitchati e algebra da incubo. Un non-linguaggio che sembrava uscito da un manoscritto alieno o da una blackboard quantistica dopo una serata a base di ketamina.