Brian Eno, l’architetto sonoro che nel 1995 ha dato vita al celebre avvio di Windows, ha deciso di rompere il silenzio. Non con una nuova composizione ambient, ma con un’accusa frontale: Microsoft, la stessa azienda che un tempo gli commissionava suoni per rendere più umana la tecnologia, oggi sarebbe complice di un sistema di oppressione e violenza in Palestina. In un post su Instagram,

Quando plato aveva ipotizzato il mondo delle idee, probabilmente non immaginava che quel concetto potesse tradursi in una “geometria universale” del significato nel regno digitale dei modelli di linguaggio. oggi, con una freschezza quasi disarmante, la ricerca sul machine learning conferma che tutte le intelligenze artificiali linguistiche, indipendentemente da come sono state costruite o addestrate, convergono su una stessa struttura semantica latente, una specie di mappa invisibile che codifica il senso profondo delle parole senza bisogno di leggerle davvero.

In un’epoca in cui la linea tra potere politico e interessi personali si assottiglia fino a scomparire, Donald Trump alza la posta: una cena a porte chiuse nel suo esclusivo golf club fuori Washington per centinaia dei più ricchi investitori del suo memecoin $TRUMP. Non un semplice evento sociale, ma una fusione senza precedenti tra il potere presidenziale e un affare privato che, come minimo, grida “corruzione” a gran voce. Il palcoscenico è la sua proprietà privata, il pubblico esclusivo, e la posta in gioco miliardi di dollari che si muovono dietro le quinte, senza trasparenza.
Non è il solito incontro di lobbyisti o donatori; qui il protagonista è un asset digitale lanciato a tre giorni dall’insediamento di Trump, una mossa che ha gonfiato il suo patrimonio personale di miliardi, mentre gli etici si strappano i capelli. La sua promessa su Truth Social di mantenere l’America “dominante” nelle criptovalute suona più come un manifesto di potere che un impegno politico. Il tutto condito da una scenografia studiata: il leggendario sigillo presidenziale sulla lectern, nonostante la stampa fosse esclusa, e un manipolo di manifestanti sotto la pioggia a protestare contro “la corruzione crypto” e “i re senza corona”.

In un angolo buio delle architetture cloud, là dove le CPU sussurrano segreti e le GPU si trastullano con petabyte di dati, esiste un’entità di cui nessuno parla: l’inference provider. È l’anima silente dei servizi AI, la colonna sonora non registrata del grande spettacolo dell’intelligenza artificiale. Eppure, non troverete articoli in prima pagina, né conferenze che osino mettere sotto i riflettori questi demiurghi dell’inferenza.
Ha dell’assurdo: i modelli di inferenza stanno diventando la linfa vitale di ogni applicazione smart, dall’analisi predittiva al riconoscimento vocale. Eppure, restano in ombra, considerati “commodity” o “eri low level” da marketer in cerca di titoli roboanti. Come se parlare di inference provider fosse banalizzare l’AI, ridurla a una scatola nera senza fascino.

In principio fu Elon. L’elettrico, la disruption, i meme su Twitter (pardon, X), e quella supremazia industriale travestita da culto messianico. Ma il Vangelo secondo Tesla è finito sotto il paraurti di BYD, colosso cinese che nel giro di pochi trimestri è passato dal ruolo di comparsa esotica a dominatore del mercato BEV in Europa. Sì, in Europa. Non in Cina. Non in qualche mercato emergente drogato di sussidi. Nella civilissima, normata, tassatissima Unione Europea. E tutto questo nonostante dazi, diffidenza culturale e un pregiudizio che sa ancora troppo di “Made in PRC = copia economica”.

Apple ci riprova. Dopo il mezzo passo falso del Vision Pro, troppo costoso per essere mainstream e troppo poco “AI” per essere davvero interessante, Cupertino rilancia con un progetto che sa di rivincita sottotraccia ma mira alto: occhiali smart, da lanciare a fine 2025. Niente più caschi da astronauta o visori da cyborg: questa volta il piano è più elegante, più sottile, più… Apple. O almeno così sperano Tim Cook & co., mentre la corsa all’hardware wearable guidato da intelligenza artificiale si fa spietata. La keyword? Smart glasses, ovviamente. Ma sotto la superficie, le vere partite si giocano su AI embedded e wearable computing.
C’era un tempo in cui i CEO delle tech company erano rockstar. Salivano sul palco con il microfono in mano, rollavano slide come se fossero profezie e guidavano aziende con un misto di carisma, follia e visione distopica del futuro. Ora? Ora ci mandano il pupazzo. Letteralmente.
Sembra fantascienza, ma è solo Python. O quasi. In un’epoca in cui ogni singola API sembra volerci chiedere una carta di credito, un gruppo di sviluppatori ha deciso di mandare al diavolo il cloud e riportare l’intelligenza artificiale dove dovrebbe sempre stare: nella tua macchina, nel tuo terminale, sotto il tuo controllo. Zero server, zero streaming, zero dipendenze esotiche. È il trionfo della local-first AI, e sì, gira perfino in tempo reale con la webcam. Offline. Con una leggerezza da far impallidire metà delle startup AI finanziate da Andreessen Horowitz.

La censura digitale non passa più dalle bacheche dei social. Passa dai laboratori. Sì, quelli che certificano se il tuo prossimo smartphone non emette più radiazioni del consentito o se il baby monitor Wi-Fi non si trasforma in una porta d’accesso per hacker di Stato.
La Federal Communications Commission (FCC), in una mossa che sa di decoupling tecnologico al napalm, ha votato all’unanimità per squalificare i laboratori cinesi dal processo di autorizzazione dei dispositivi elettronici destinati al mercato statunitense. Tradotto: niente più bollini di conformità firmati da Pechino per cellulari, telecamere di sorveglianza, router e compagnia connessa.

Claude 4 non è solo un altro modello AI che promette di rivoluzionare il modo in cui lavoriamo. È il tentativo più sofisticato e dichiaratamente “corporate” che Anthropic abbia mai partorito, un Frankenstein ingegneristico con la spina dorsale dritta e il codice Git preconfigurato. La vera notizia, però, non è tanto il modello in sé quanto Claude Code, il nuovo strumento da riga di comando che promette di trasformare qualsiasi sviluppatore in un supervisore pigro ma onnipotente. Sì, perché qui non si parla di prompt da tastierina e arcobaleni generativi: Claude Code si installa nel terminale, esplora repository, modifica file, scrive test, fa il commit su GitHub, e lo fa tutto con una spaventosa disinvoltura. Ma sempre, si badi bene, sotto “la supervisione del developer”, come da manuale delle policy ANSI-compliant.

Certo, quando pensavi di aver visto tutto nel grande circo mediatico del trumpismo, arriva Melania. Voce monotona, sguardo da cyborg in standby, e ora anche… narratrice AI di sé stessa. Ha annunciato, con quella grazia algoritmica che la contraddistingue, che il suo nuovo audiolibro è interamente doppiato da una clonazione vocale realizzata da ElevenLabs. Sì, hai letto bene: la ex First Lady si è fatta sintetizzare la voce. Altro che ghostwriter. Ora ci sono i ghost-voice.
Melania, in un perfetto tempismo da black mirror balneare, ha definito l’intelligenza artificiale “il futuro dell’editoria”. Come darle torto? Basta guardare Audible: oltre 50.000 audiolibri narrati da intelligenze artificiali. E no, non sono esattamente classici della letteratura. Sono in gran parte racconti erotici con titoli tipo Il Barista Bionico mi ha sculacciata nel metaverso. Letteratura 5.0, se vogliamo essere generosi.

L’America ha appena partorito il suo mostro legislativo più distopico, ed è così orgogliosa da metterci un nome da spot pubblicitario anni ‘90: “One Big Beautiful Bill”. Bello? Forse per chi lo ha scritto, votato e sponsorizzato con un sorrisetto di plastica da fondo schiena. Per il resto del paese e per chi guarda da fuori è un colpo di grazia alla sovranità digitale, alla tutela ambientale, ai diritti civili e al buon senso.
Alla Camera, i Repubblicani l’hanno approvato con una maggioranza risicata e l’appoggio inequivocabile del solito fantasma di Mar-a-Lago. Ora tocca al Senato. Ma già si annusa la tensione fra i falchi conservatori che, a tratti, sembrano ancora ricordarsi cos’è il federalismo.

Nel teatrino tragicomico dell’hardware AI, le ultime 48 ore hanno messo in scena una sequenza che avrebbe fatto impallidire perfino uno sceneggiatore HBO: Google chiude il suo I/O tra applausi e occhiali in salsa Gentle Monster, e il giorno dopo Sam Altman e Jony Ive entrano in scena come due rocker alcolici in ritardo di trent’anni. “Hold my beer”, letteralmente. Google ancora parlava di visori e XR, e loro stavano già vendendo l’idea che il futuro non lo indosserai: te lo metterai in tasca o sul tavolo, come un Zippo dal design pornografico.
E qui, caro lettore, non si tratta solo di “gadget”. Qui si gioca con la forma del futuro. E chi detta la forma, controlla la funzione. Quindi, mentre il mondo cerca di convincerti che l’AI deve parlare dalle lenti di un paio di Ray-Ban o dal petto come un badge da buttafuori della Silicon Valley, Altman e Ive sussurrano: e se il device perfetto fosse… invisibile?
La keyword qui è AI hardware. Le collaterali? Form factor e design computazionale. Perché dietro le quinte, ciò che si sta decidendo non è solo come sarà l’aggeggio che useremo tra due anni, ma soprattutto a chi daremo fiducia per lasciar entrare l’intelligenza artificiale nella nostra intimità.
Altman lo ha detto chiaramente (con quella sua aria da guru della LSD microdosata): non è un telefono, non sono occhiali, non si indossa per forza. È un “terzo core device”. E Jony Ive, che di oggetti iconici ne ha partoriti parecchi, non vuole un altro aggeggio da mettersi addosso. Vuole qualcosa che puoi portare con te senza diventare cyborg. Una cosa che ti sta addosso come un portachiavi. Ma che ascolta, vede, capisce.

Karen Hao ha scritto un libro che avrebbe potuto cambiare la narrazione sull’intelligenza artificiale. Ma ha scelto di trasformarlo in un trattato ideologico, con inserti da assemblea studentesca e comparazioni storiche da denuncia ONU. “Empire of AI” è un’opera che parte da un presupposto legittimo l’IA è piena di ombre – e poi cerca di trascinare il lettore in una valle di lacrime dove Altman è un despota, l’AGI un miraggio e OpenAI una multinazionale tossica guidata da una setta di ingegneri psicopatici.

Anthropic ha appena lanciato Claude Opus 4 e Claude Sonnet 4, due modelli AI che dichiarano guerra aperta a GPT-4.1, Gemini 2.5 e a chiunque osi ancora credere che OpenAI sia l’unico dio dell’intelligenza artificiale. Nella Silicon Valley, dove ogni modello è “il più potente di sempre” finché non lo è più, questa volta la faccenda sembra leggermente più seria.
Claude Opus 4 è la punta di diamante: un modello con “capacità di ragionamento ibrido” espressione già abbastanza nebulosa per accendere il BS-detector, ma che suona bene nei boardroom. In test dichiarati da Anthropic, è rimasto operativo, da solo, per sette ore filate. Senza supervisioni, senza panico. Come un dev notturno con troppa caffeina e zero ferie arretrate.

E così, mentre l’americano medio si dibatte tra mutui soffocanti e bollette come cripto-meme, JPMorgan Chase tira fuori altri 7 miliardi di dollari dal cilindro stavolta non per salvare qualche banca zombie o gonfiare bolle immobiliari, ma per erigere una cattedrale nel deserto texano: un campus di data center AI targato OpenAI, parte della criptica ma evocativa iniziativa “Stargate”. Se il nome ti ricorda un film di fantascienza degli anni ’90, non è un caso. Qui non si tratta solo di macchine che pensano, ma di una vera e propria porta dimensionale verso un’economia post-umana.

Quando una società cinese di trading quantitativo decide di entrare nel ring dell’intelligenza artificiale, non si limita a fare da spettatrice. Shanghai Goku Technologies, fondata nel 2015, ha appena buttato sul tavolo un paper destinato a scuotere le fondamenta della ricerca AI globale. Non è un progetto qualunque, ma una proposta che mette in discussione i metodi tradizionali di training, quelli che dominano il mercato e che OpenAI, Microsoft e altre megacorporazioni hanno adottato come oro colato: il fine-tuning supervisionato (SFT) e il reinforcement learning (RL). Goku parla di un framework ibrido adattativo step-wise, chiamato SASR, che sarebbe più efficiente e, soprattutto, più umano nel modo in cui sviluppa capacità di ragionamento.

Stargate UAE: il futuro dell’intelligenza artificiale e della sovranità digitale negli Emirati Arabi
Stargate UAE, il progetto che suona come una saga sci-fi ma è invece una realtà concreta, mette a fuoco il nuovo terreno di gioco per l’intelligenza artificiale: Abu Dhabi. Una potenza da 1 gigawatt di calcolo AI che promette di trasformare il deserto in un centro nevralgico globale per l’innovazione. Ma attenzione, non è solo questione di watt o di server a regime. È una partita a scacchi tra Stati Uniti, Emirati Arabi Uniti, colossi della tecnologia e interessi sovrani che ridefiniscono il concetto di “sovranità digitale”.
Dietro al progetto troviamo G42, la società emiratina d’intelligenza artificiale, che non è proprio un piccolo startup nel garage ma un colosso con in panchina Oracle, NVIDIA, SoftBank e Cisco. Questi nomi non sono solo sponsor di lusso: rappresentano un’alleanza strategica che unisce infrastrutture hardware di ultima generazione, piattaforme cloud ottimizzate per l’AI e soluzioni di sicurezza zero-trust. Il tutto distribuito su un Campus AI da 5 gigawatt, letteralmente un megacentro di potenza computazionale, che nei piani dovrebbe partire dal 2026.

Il dramma cinese del capitalismo globale si ripete, questa volta col solito protagonista: Lenovo. Sì, quel colosso nato da un ministero cinese e trasformato in emblema dell’ibridazione tra burocrazia socialista e profitto a stelle e strisce. Lenovo ha chiuso un anno stellare +21% di fatturato, 69,1 miliardi di dollari, +37% di utile netto, a 1,4 miliardi ma la vera notizia non è nei numeri. La vera notizia è il trauma da dazio.
Immaginate la scena. Ti svegli, stai brindando ai server AI raffreddati ad acqua e all’invasione del mercato con i tuoi AI PC patinati, e poi… arriva Trump sì, ancora lui, come uno spettro che attraversa l’Asia e ti scarica in faccia un dazio del 20%. Secco. Dal 4 marzo. Nessun preavviso, nessuna carezza diplomatica. Risultato: trimestre affondato e titoli giù del 5,4% a Hong Kong.

Quando il CEO di Xiaomi, Lei Jun, si alza sul palco e proclama che lo XRing O1 è “molto potente”, il mondo tecnologico sa che sta per arrivare uno di quei momenti che rimbombano nei laboratori di Cupertino e nelle camere bianche di Taiwan. Lo dice con quella sicurezza che solo chi ha bruciato miliardi di yuan può permettersi. E lo dice proprio mentre mostra un chip che, a detta dei benchmark presentati, avrebbe superato — sì, proprio superato l’A18 Pro di Apple. Hai capito, Tim?
La keyword qui è “chip Xiaomi”, le secondarie obbligate sono “XRing O1” e “processore 3nm”, il tutto incastonato in un contesto che puzza di geopolitica, siliconi e una certa vendetta orientale ben pianificata.

Benvenuti nel nuovo reality dell’e-commerce, dove gli oggetti non solo ti parlano, ma lo fanno con voce sintetica e coscienza da salotto tech. Amazon ha appena tirato fuori dal cilindro una nuova “magia” algoritmica: audio generati da intelligenza artificiale, due host digitali che discutono di un prodotto come se stessero registrando una puntata di un podcast indie su Spotify. Ma invece di intervistare startup founder o musicisti depressi, parlano di frullatori, cuffie a conduzione ossea e oli per il corpo. Perché no.
Siamo nel 2025, e l’esperienza utente non basta più: ora serve anche il teatro. Basta leggere recensioni, ora si può ascoltare un duetto AI che ti racconta le “highlights” del prodotto. Più che shopping, è una seduta spiritica. Due voci digitali evocano il valore percepito di un oggetto mentre scorri lo smartphone. E tutto questo ha un nome nobile: audio generato da AI con estrazione semantica da recensioni utenti e fonti web. In pratica, un digest sonoro del delirio collettivo da 5 stelle.

L’impero degli agenti: perché il CIO del futuro sarà un domatore di IA o un fossile aziendale
C’era una volta il CIO, quello con la cravatta storta alle riunioni del board, chiamato solo quando i server andavano a fuoco o quando c’era da spiegare perché il Wi-Fi non prendeva in sala. Ora, Microsoft gli ha messo in mano una frusta da domatore e l’ha spedito dritto nell’arena delle “Frontier Firm”. Non un’azienda, non una multinazionale, non una startup. Ma una nuova specie organizzativa, alimentata da umani e agenti AI che lavorano fianco a fianco come in una distopia di Asimov fatta a PowerPoint.

Sei pronto per una guerra combattuta da software e sensori invece che da uomini? No? Peccato, perché il Regno Unito ha deciso che è esattamente lì che stiamo andando. Il segretario alla Difesa britannico John Healey, con una dichiarazione dal sapore vagamente apocalittico e una strategia che sembra uscita da un pitch di venture capital del 2015, ha annunciato che l’intelligenza artificiale sarà il cuore pulsante della nuova Strategic Defence Review.
Per capirci: niente più carri armati che impiegano quindici anni per arrivare (ciao, Ajax), ma algoritmi pronti in settimane, magari scritti da contractor che il giorno prima lavoravano su un’app per ordinare sushi. Il keyword principale? Intelligenza artificiale militare. Le keyword collaterali? Difesa britannica, procurement bellico. Il tono? Quello dell’urgenza tecnologica a velocità di guerra.

In un continente dove la burocrazia è più veloce della fibra ottica e l’innovazione spesso si arena tra commi e regolamenti, l’Europa tenta di ritagliarsi uno spazio nel panorama dell’intelligenza artificiale. Mentre Stati Uniti e Cina avanzano a passo spedito, il Vecchio Continente si barcamena tra ambizioni di sovranità digitale e una realtà fatta di frammentazione e ritardi.
Eppure, nonostante tutto, qualcosa si muove. Una nuova generazione di provider di inferenza AI sta emergendo, cercando di offrire soluzioni che rispettino le normative europee e, al contempo, competano con i colossi d’oltreoceano.

L’intelligenza artificiale entra ufficialmente nei corridoi della Bocconi. Non come oggetto di studio, ma come strumento quotidiano per studenti, docenti e staff. Con un accordo strategico firmato con OpenAI, l’università milanese diventa la prima in Italia e una delle prime in Europa a garantire un accesso diffuso e regolato agli strumenti di AI generativa, posizionandosi all’avanguardia nella trasformazione dell’educazione superiore.
Una mossa che non riguarda solo la tecnologia, ma la ridefinizione stessa del ruolo dell’università nel XXI secolo. L’AI, finora percepita come una sfida o una minaccia per l’integrità accademica, viene qui incanalata come motore di innovazione didattica, acceleratore della ricerca e leva strategica per la formazione dei futuri decisori.

La cultura pop non è mai stata così vulnerabile. Quello che per milioni di giovani è intrattenimento quotidiano — una maratona di Naruto, un episodio inedito di Demon Slayer, una full immersion su Netflix — si sta trasformando in terreno di caccia per i cybercriminali. Sfruttando la passione viscerale della Gen Z per anime, serie cult e piattaforme di streaming, gli hacker mascherano malware sotto le mentite spoglie dei contenuti più amati, alimentando un’ondata di attacchi informatici che non conosce precedenti.

Nel nuovo scenario competitivo globale, non è più sufficiente essere solo tecnologicamente avanzati o finanziariamente solidi: le aziende sono chiamate a misurarsi con un paradigma che integra responsabilità ambientale, impatto sociale e governance trasparente. I criteri ESG (Environmental, Social, Governance) si stanno rapidamente trasformando da vincolo normativo a leva strategica di crescita, investimento e innovazione.
Aurora, l’oracolo della Terra: l’AI di Microsoft che prevede il caos climatico prima che ci travolga

Immagina un’intelligenza artificiale che può leggere il futuro del nostro pianeta meglio di qualsiasi sciamano, meteorologo o scienziato armato di modelli fisici e simulazioni ridicolmente lente. Non è una fantasia distopica da film catastrofico, è Aurora, il nuovo mostro di Microsoft addestrato non per giocare a scacchi con il clima, ma per dominarlo.
Sì, domina. Perché quando costruisci un modello da 1,3 miliardi di parametri e lo nutri con più di un milione di ore di dati sul sistema Terra, non stai più parlando di semplice previsione: stai costruendo un oracolo computazionale. E come ogni oracolo, non si limita a osservare: interpreta, simula, anticipa (NATURE).

22 maggio 2025. Bitcoin ha appena superato i 111.000 dollari. E Satoshi Nakamoto, l’entità più misteriosa del XXI secolo, è ora ufficialmente più ricca di Bill Gates, Jensen Huang e Mark Zuckerberg. Il suo patrimonio stimato? Oltre 113 miliardi di dollari, grazie a circa 1,1 milioni di BTC mai mossi dal 2010.
A inizio 2010, il prezzo di 1 BTC era di circa 0,003 dollari sì, un terzo di centesimo. Nel maggio dello stesso anno, con l’ormai mitico Bitcoin Pizza Day (22 maggio 2010), Laszlo Hanyecz pagò 10.000 BTC per due pizze.
Il creatore di Bitcoin, o meglio, il suo fantasma, è salito all’11° posto nella lista dei più ricchi al mondo, superando il CEO di NVIDIA. E tutto questo senza mai mostrare il volto, né pronunciare una parola pubblica dal 2011.
Oggi è anche il Bitcoin Pizza Day, l’anniversario dell’acquisto di due pizze per 10.000 BTC nel 2010 (oggi valgono 330.000 Euro). Una transazione che oggi varrebbe oltre un miliardo di dollari.
Nel frattempo, la comunità cripto continua a celebrare il mito di Satoshi. Recentemente, a Bengaluru, un uomo mascherato ha camminato per le strade impersonando Nakamoto, in occasione del suo presunto 50° compleanno. Un gesto simbolico che sottolinea quanto l’anonimato di Satoshi sia diventato parte integrante del suo fascino.
Nonostante le speculazioni e le indagini, l’identità di Satoshi rimane sconosciuta. E forse è proprio questo mistero a rendere la sua figura così potente. In un mondo ossessionato dalla trasparenza e dall’esposizione, Satoshi ha scelto l’anonimato. E, paradossalmente, è diventato una delle figure più influenti e ricche del nostro tempo.
Mentre Bitcoin continua a crescere e a influenzare l’economia globale, la presenza silenziosa di Satoshi rimane una costante. Un promemoria che, a volte, il potere più grande risiede nell’assenza.

L’idea di un taxi senza conducente che ti porta dove vuoi senza nemmeno dover premere il pedale del gas o stringere il volante è roba da fantascienza? No, è roba da Baidu. Il gigante cinese della ricerca internet, da sempre con un piede nel futuro, ha superato la soglia degli 11 milioni di viaggi con il suo servizio Apollo Go dal 2019. Sì, 11 milioni. Numeri che ti fanno pensare che Elon Musk può pure mettersi comodo e godersi lo spettacolo.
Il robotaxi di Baidu non è solo un prototipo per nerd tecnologici in qualche laboratorio segreto di Pechino. È una macchina con 1.000 veicoli completamente senza conducente operativi in 15 città diverse, non solo in Cina ma anche a Hong Kong, Dubai e Abu Dhabi, con i test appena partiti. 1,4 milioni di corse solo nel primo trimestre del 2025, con un aumento del 75% rispetto all’anno scorso, una crescita che farebbe impallidire molte startup tech più blasonate.

Il paradosso è servito: l’intelligenza artificiale, che oggi scrive poesie, diagnostica tumori e guida auto in autostrada, inciampa su una sillaba. “No”. due lettere che, a quanto pare, rappresentano un ostacolo insormontabile per modelli da miliardi di parametri. Ma non si tratta di una gaffe semantica da bar. È un problema sistemico, profondo, che mina la credibilità dell’AI in settori dove gli errori non sono ammessi. Tipo la sanità. Tipo la giustizia. Tipo la vita vera.
Uno studio appena pubblicato dal MIT, in collaborazione con OpenAI e l’Università di Oxford, mette il dito nella piaga: i modelli linguistici – compresi i grandi protagonisti del mercato come ChatGPT, Gemini di Google e LLaMA di Meta – hanno una comprensione estremamente debole della negazione. Non riescono a processare correttamente frasi come “nessuna frattura” o “non ingrossato”. Tradotto: potrebbero leggere un referto medico negativo e trasformarlo in un allarme. O viceversa. “Non c’è infezione” diventerebbe “c’è infezione”. Un salto logico che potrebbe costare caro.

C’è una differenza sottile, ma fondamentale, tra “sicurezza” e “sorveglianza vestita da comodità”. Microsoft l’ha appena calpestata con gli stivali sporchi di marketing AI. E no, non c’è nessun complotto: c’è solo il solito business model americano, che trasforma ogni tua interazione digitale in un dato monetizzabile, anche quando pensi di parlare al sicuro, magari su Signal.
Benvenuti nell’era in cui anche la memoria è un prodotto, e si chiama Recall: un nuovo “feature” di Windows 11 che, con l’aria innocente di un assistente proattivo, fa esattamente quello che suonerebbe inquietante in qualsiasi bar del mondo scatta screenshot di tutto ciò che fai, ogni 5 secondi, e lo archivia per sempre. Letteralmente. Benvenuti nel futuro secondo Microsoft.

C’era una volta il truffatore da marciapiede, quello che vendeva Rolex tarocchi fuori dalle stazioni o spacciava finti pacchi azionari porta a porta. Oggi è un algoritmo travestito da videoconferenza Zoom. È una voce clonata su WhatsApp che implora un bonifico urgente. È un finto CEO che ti chiama mentre sei in aeroporto. È una mail generata da ChatGPT che sembra scritta da tuo cugino commercialista. Benvenuti nell’era dell’ingegneria sociale potenziata dall’intelligenza artificiale: il nuovo Eldorado dei criminali digitali.
Il vero upgrade del crimine non è nella tecnica, ma nella scala. Prima un truffatore doveva lavorare duro per colpire cento persone. Ora con pochi clic, un 18enne a Tbilisi può orchestrare una campagna globale in dieci lingue diverse. I deepfake vocali e video sono passati da esperimenti inquietanti su YouTube a strumenti da call center della criminalità organizzata. I truffatori sono diventati scalers, e l’AI generativa è il loro fondo di venture capital.

La schizofrenia narrativa di Google ha raggiunto vette degne di un thriller legale. In aula, davanti al Dipartimento di Giustizia degli Stati Uniti, il colosso di Mountain View piange miseria, sostenendo di essere assediato da concorrenti agguerriti come OpenAI e da una nuova generazione di motori di ricerca spinti dall’intelligenza artificiale. Ma, quando si tratta di vendere pubblicità – cioè fare veri soldi – la melodia cambia: improvvisamente Google diventa una potenza inarrestabile, un canale obbligato per chiunque voglia raggiungere un consumatore connesso.
Il problema è che entrambi i racconti non possono essere veri contemporaneamente, a meno che non si accetti l’idea che Big Tech viva in una realtà quantistica, dove può essere monopolista e vittima nello stesso istante, a seconda dell’osservatore.

Sam Altman sta tentando di stabilire un nuovo record mondiale: creare un’azienda tecnologica verticalmente integrata in meno tempo di quanto ci voglia a dire “disruption”. Lo fa con la disinvoltura di chi ha capito che l’intelligenza artificiale non è più solo un software da scaricare, ma un sistema operativo per il mondo reale. E, come ogni sistema operativo degno di questo nome, ha bisogno di un corpo. Un hardware. Magari con un bel design, firmato da un certo Jony Ive.

Nel mondo dell’intelligenza artificiale applicata alla guerra, i cinesi non stanno giocando alla pari. Stanno giocando sporco. E se la notizia che la PLA (People’s Liberation Army) ha finalmente messo nero su bianco le proprie ambizioni anti-AI in un articolo ufficiale sul PLA Daily ti sembra un evento tecnico, sappi che non lo è. È dottrina militare, strategia geopolitica, ma soprattutto un avvertimento digitale con sfumature da Guerra Fredda 2.0. Solo che ora i missili sono algoritmi e i soldati parlano in Python.
Il bersaglio? I tre pilastri che reggono qualsiasi sistema di intelligenza artificiale degno di questo nome: dati, algoritmi, potenza di calcolo. Ed è proprio qui che la Cina vuole colpire. Non frontalmente, ovviamente: sarebbe da ingenui. La nuova guerra si vince sabotando il cervello dell’avversario, non sfondandogli la porta d’ingresso.

Nel teatrino digitale chiamato Google I/O, dove ogni anno si spaccia il futuro come progresso inevitabile, è andato in scena l’ennesimo colpo di mano ai danni dei produttori di contenuti: l’introduzione su larga scala della famigerata AI Mode la nuova interfaccia chatbot-style che sostituisce la ricerca classica con un blob generativo infarcito di “risposte intelligenti”. La parola chiave è: risposte, non link. Tradotto: meno click ai siti, più tempo dentro Google.
Così il motore di ricerca più potente del mondo si trasforma definitivamente in un recinto. Non ti porta più da nessuna parte, ti tiene dentro, ti mastica e poi ti sputa addosso una sintesi addestrata sui contenuti di altri. Magari i tuoi.

Nel sottobosco sempre più affollato dei modelli open-source per la programmazione, ogni settimana nasce un nuovo “game-changer”. Ma stavolta, con Devstral, ci troviamo davanti a qualcosa che non puzza di marketing da incubatore gonfiato. Sviluppato con la complicità o dovremmo dire la complicità tecnologica di All Hands AI, Devstral non è un’altra macchina da completamento codice. È un coding agent model, e sì, c’è una differenza sostanziale.

Paper: You Are What You Eat – AI Alignment Requires Understanding How Data Shapes Structure and Generalisation
L’Intelligenza Artificiale non è magica. È stupida. Stupidamente coerente con quello che le dai in pasto. Per questo chi ancora si ostina a credere che basti un po’ di “fine tuning” o una bella iniezione di RLHF per far diventare un LLM etico, sicuro e conforme alle normative… be’, forse ha confuso un transformer con un prete. O con uno psicologo da salotto.
I modelli non pensano. Non capiscono. Non hanno né coscienza né senno. Ma una cosa la fanno bene: assorbono tutto. E quel “tutto”, se non ha una struttura, se è un blob semi-digerito di dati presi da chissà dove, non produrrà mai qualcosa di allineato, spiegabile o, peggio, conforme. Perché sì, signori: “You are what you eat” non vale solo per le diete keto o per il vostro feed di LinkedIn. Vale per l’AI, e oggi più che mai.