C’era una volta Google. Poi è arrivato Alphabet, un castello di sabbia costruito per tenere insieme motori di ricerca, sogni quantistici e pubblicità da miliardi. Adesso? Si comincia a scricchiolare sotto il peso della stessa creatura che avrebbe dovuto garantire l’immortalità: l’intelligenza artificiale. E quando perfino Wedbush – uno di quei nomi che sussurrano consigli agli orecchi di hedge fund e istituzionali – decide di toglierti dalla sua Best Ideas List, è il segnale che il mercato sente puzza di bruciato, anche se la grigliata è ancora accesa.
Autore: Dina Pagina 4 di 39
Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.
Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Benvenuti nel nuovo circo dell’intelligenza artificiale, dove i numeri sono sempre a dodici zeri, le promesse galleggiano sopra le nuvole, e i capitali reali… quelli si fanno attendere. SoftBank, che già da anni gioca a Risiko con le startup globali, aveva annunciato con enfasi quasi hollywoodiana un investimento da 100 miliardi di dollari per costruire infrastrutture AI negli Stati Uniti. Un piano epocale. Poi è arrivato il “solito imprevisto”: Donald Trump, e le sue tariffe stile Medioevo 4.0.

In un mondo dove l’intelligenza artificiale si vende come miracolo al grammo, il paper “Limitations of GPT-4 for formal mathematics” pubblicato da OpenAI e ambientato nei laboratori aridi della matematica formale, arriva come un’aspra doccia scozzese su chi crede che stiamo per sostituire i matematici con dei transformer addestrati a suon di GPU e caffeina. L’oggetto? L’analisi chirurgica delle performance di GPT-4 nel regno della matematica formale, usando Lean, il sistema di proof assistant sviluppato per togliere il sonno a filosofi e informatici da tastiera.
Ogni volta che faccio una presentazione parto dalla AI timeline e ovviamente arrivo all 11 Maggio quando IBM’s Deep Blue ha sconfitto Garry Kasparov. quel giorno non fu solo una partita di scacchi. Fu il funerale ufficiale dell’arroganza umana nel regno dell’intelligenza strategica. Uno di quei momenti in cui anche il più incallito tecnofobo si rese conto che i circuiti, se ben nutriti di energia e calcoli, potevano battere un genio in carne, ossa e narcisismo. Ma mentre l’Occidente si autocelebrava per aver creato una macchina più intelligente dell’uomo, a Oriente, in silenzio, prendevano appunti.

Il mondo applaude, scommette, si sorprende: un Papa americano. E pure matematico. Ma ciò che davvero dovrebbe far tremare i polsi ai guru della Silicon Valley non è la bandiera a stelle e strisce issata sopra San Pietro. È la parola intelligenza artificiale, pronunciata con tono grave e impastato d’allerta nella sua prima omelia da regnante della Chiesa.

Quest settimana, con l’aria densa di attese e avvocati pronti a caricare a testa bassa, la US Copyright Office ha rilasciato la terza parte del suo corposo rapporto sull’Intelligenza Artificiale generativa e il diritto d’autore. Un documento complesso, per certi versi ambiguo, ma che finalmente cercava di mettere dei paletti normativi in un settore che corre a una velocità che Washington fatica anche solo a immaginare. E poi, puff: stamattina Shira Perlmutter, la direttrice dell’USCO e autrice morale di quel rapporto, è stata silurata dal Presidente. Silenziosamente, senza clamore mediatico. Tempismo perfetto, se sei un romanziere distopico.

Benvenuti nella fase “Cyberpunk IPO” del capitalismo: startup che esistono da dodici mesi e chiedono un miliardo di dollari di valutazione, cani robot che fanno faccende domestiche, e venture capitalist che buttano milioni come se fosse ancora il 2021. Foundation, la startup dell’ex CEO della compianta (e compromessa) Synapse, è la punta dell’iceberg: un fondatore reduce da un fallimento fintech, ora reinventa sé stesso nel settore più hype dell’era post-GPT la robotica.

Una recensione del libro di Bernardo Kastrup
👉 Why Materialism Is Baloney – Il libro su Feltrinelli
C’è qualcosa di irresistibile nei pensatori che dichiarano guerra al buon senso armati di metafore zen e rigetto per la fisica. Bernardo Kastrup è il profeta moderno dell’idealismo: una corrente filosofica tanto elegante quanto scollegata da tutto ciò che chiamiamo empiria. Il suo libro è un manifesto spiritual-pseudoscientifico dove la realtà viene destrutturata con lo zelo di un hacker post-metafisico, pronto a spiegarti che non esisti come corpo, ma solo come pensiero. E neanche tuo: sei un pensiero della “mente universale”. Un Dio? No, molto peggio: un Google mentale cosmico con un po’ di flair buddista.

Nel teatro globale della ricchezza e del potere, Bill Gates sta riscrivendo la sceneggiatura. Non con i toni sommessi di un benefattore tradizionale, ma con l’eleganza glaciale di chi ha deciso che fare il bene non basta più: ora serve fare la guerra, anche se con i guanti bianchi. La recente decisione di chiudere la Bill & Melinda Gates Foundation entro il 2045 non è solo un atto filantropico accelerato, ma un’operazione chirurgica contro il disfacimento sistemico dell’ordine liberale, con un bersaglio preciso: Donald Trump. O più precisamente, il modello politico-corporativo che Trump rappresenta.

Viviamo nel mezzo di una corsa all’oro tecnologica dove l’oro non è il codice, né i dati, ma l’illusione del controllo. La narrativa dominante nel mondo enterprise attorno all’implementazione dell’intelligenza artificiale generativa ha preso una deriva tanto comoda quanto pericolosa: quella del “chiavi in mano”, servita dai vendor di modelli chiusi come OpenAI, Anthropic e Google.
Ecco l’inganno: non stai costruendo un vantaggio competitivo. Lo stai affittando. E lo farai a vita.

Viviamo in un mondo che idolatra la giovinezza come fosse l’unica moneta spendibile nel mercato del valore umano. L’età, invece, viene vissuta come una scadenza. Silicon Valley grida “move fast and break things”, dimenticandosi che poi qualcuno deve raccogliere i cocci, possibilmente con criterio. Ma la verità, quella che nessuno posta su LinkedIn, è che l’età — quella vera, quella con le rughe, le cicatrici e i silenzi carichi di senso — è una superpotenza silenziosa, invisibile, ma devastante nella sua efficacia.

Stiamo per entrare in una nuova era, un’era che promette di ridare speranza. Ma, come in ogni grande epica, sono necessari coloro che abbiano il coraggio di guidare il cammino. Quello che ci aspetta potrebbe sembrare un futuro brillante, ma non arriverà senza un rischio. Oggi viviamo in un mondo dominato dalla paura, dove la maggior parte della leadership si trova in modalità di sopravvivenza, nascosta nei bunker e protetta dalle consulenze e dai fogli di calcolo, alla ricerca di sicurezza nel cuore della massa.

Mentre il mondo continua a cercare su Google, in Cina si sta aprendo una crepa che potrebbe diventare una voragine. Alibaba Group Holding, il colosso tech di Hangzhou che controlla tutto tranne il meteo, ha lanciato attraverso la sua app di intelligenza artificiale Quark una funzione battezzata “deep search”. E no, non è l’ennesimo restyling da due soldi: è un tentativo serio e strutturato di buttare giù il vecchio impero della ricerca online per costruirne uno nuovo, alimentato non da parole chiave, ma da ragionamenti e connessioni semantiche.

La Silicon Valley ha un nuovo problema. Si chiama Mistral Medium 3 ed è francese. Il modello, rilasciato da Mistral AI il giorno precedente, ha il chiaro intento di ribaltare le economie dell’AI enterprise, portando prestazioni da “frontier model” a una frazione del costo. In un settore dove le big tech sono abituate a monetizzare ogni token come fosse un’oncia d’oro, Mistral cala sul tavolo un asso: $0.40 per milione di token in input, $2 per milione in output. Per gli standard di Claude 3.7 o Gemini 2.0, è come vendere caviale al prezzo delle patatine.

Reddit, il sancta sanctorum del dibattito online, ha appena scoperto sulla propria pelle cosa significa essere infiltrati da una nuova razza di entità digitali: i bot AI travestiti da esseri umani. Dietro le quinte di r/changemyview, una delle community più iconiche per chi ama il confronto civile, un manipolo di ricercatori della Università di Zurigo ha orchestrato un esperimento tanto brillante quanto inquietante, dimostrando quanto facilmente si possa manipolare l’opinione pubblica online usando AI ben addestrate e una manciata di profili fittizi ben costruiti. Il risultato? Oltre 20.000 upvotes, 137 deltas e un gigantesco grattacapo etico per il team di Reddit.

Benvenuti nella nuova era dell’intelligenza artificiale, dove il dominio non si misura più in chiacchiere brillanti da chatbot ma in righe di codice, benchmark distrutti e test di intelligenza superati con arroganza computazionale. Google ha appena fatto checkmate nel campo dell’AI con Gemini 2.5 Pro, un modello che non solo umilia Claude 3.7 Sonnet in ogni metrica immaginabile, ma lo fa con la nonchalance di chi sa di aver vinto in partenza.

In un mondo in cui l’informazione viaggia a una velocità inimmaginabile, senza filtri e spesso senza troppi scrupoli, i colossi dei media stanno affrontando sfide che sembrano impossibili da vincere. Eppure, nonostante l’evoluzione drammatica dei tempi, c’è una figura che, come un moderno Icaro, sembra tentare di volare troppo vicino al sole, senza cadere. Quella figura è Reuters, e il suo presidente Paul Bascobert rappresenta l’esempio vivente di come le tradizioni aziendali possano incontrare la più recente forma di “tentazione” tecnologica: l’intelligenza artificiale generativa.

Nvidia, il gigante dei semiconduttori, si trova a navigare in acque turbolente nel tentativo di mantenere la sua presenza nel mercato cinese, valutato 50 miliardi di dollari. Le recenti restrizioni imposte dagli Stati Uniti sull’esportazione di chip avanzati hanno costretto l’azienda a ridurre le prestazioni dei suoi chip H20 destinati alla Cina, nel tentativo di conformarsi alle nuove normative e continuare a servire i suoi clienti cinesi.

Tanto gentile e tanto onesta pare è un sonetto di Dante Alighieri contenuto nel XXVI capitolo della Vita Nova.
L’idea che l’intelligenza artificiale possa un giorno “comprendere” come un essere umano è uno di quei miraggi filosofici e tecnologici che resiste al tempo, come un sogno febbricitante di Alan Turing sotto ketamina. Geoffrey Hinton, uno dei padri del deep learning, ha recentemente acceso un riflettore inquietante su questo punto, suggerendo che i modelli avanzati, come i transformer o i cosiddetti “sistemi neurosimili”, potrebbero essere sulla soglia di qualcosa che somiglia alla coscienza. O peggio: alla comprensione.

Nel mondo della tecnologia, dove i giganti come Microsoft, Google e Meta corrono dietro a ogni nuova onda tecnologica, Apple sta prendendo un approccio completamente diverso. Mentre tutti gli altri scommettono miliardi su tecnologie che potrebbero essere solo fuochi di paglia, Apple, con la sua nuova collaborazione con Anthropic per integrare Claude in Xcode, sta facendo una mossa che lascia intendere chiaramente una cosa: non è un’azienda che si fa prendere dal panico, ma che preferisce un’accuratezza strategica che la mette un passo avanti rispetto alla concorrenza.

In un mondo aziendale che si aggrappa disperatamente a qualsiasi buzzword possa suonare futuristica durante un consiglio di amministrazione, l’intelligenza artificiale generativa si è trasformata in una nuova forma di spettacolo aziendale. Una messinscena lucidata a dovere da power point, executive summary e sessioni di design thinking che odorano di caffè bruciato e PowerBI.
La media? Cinque milioni di dollari a progetto. L’impatto? Una probabilità su dieci di ottenere un risultato che valga qualcosa.

Mentre l’industria della tecnologia celebra con fanfare ogni nuovo traguardo di performance nei modelli di intelligenza artificiale dal GPT-4.5 a Gemini, passando per LLaMA 3 la vera rivoluzione si sta consumando sottotraccia, nel silenzio dei protocolli di comunicazione tra agenti AI. Come in una sala riunioni di CEO, dove tutti sono brillanti ma nessuno ascolta, le intelligenze artificiali possono essere geniali singolarmente, ma assolutamente inutili se non parlano la stessa lingua, con lo stesso ritmo, con la stessa logica condivisa. E qui entra in scena l’infrastruttura invisibile, il tessuto protocollare che tiene insieme ecosistemi complessi di agenti autonomi.

Nel sottobosco bollente dell’intelligenza artificiale cinese, qualcosa di inaspettato è emerso: una startup come DeepSeek, lanciata con fanfara come baluardo della sovranità AI cinese, ha dovuto chinare il capo e ammettere che senza una “spintarella” tecnica da parte di Tencent, uno dei vecchi leoni del tech locale, il suo progetto open-source di punta sarebbe rimasto zoppo.
Parliamo di DeepEP, una libreria per la comunicazione inter-chip. Nome da svenimento, lo so, ma il cuore di tutto il gioco AI oggi si gioca lì: nei millisecondi che separano un pacchetto di dati tra una GPU e l’altra. DeepSeek voleva fare gli splendidi con un sistema che prometteva alte prestazioni a basso costo – un sogno cinese che, però, inciampava sulla banale realtà delle latenze e delle inefficienze tra chip. A quel punto, entra Tencent, con una soluzione raffinata dal suo team “network platform”, figlio di anni passati a spremere data center per addestrare il loro modello proprietario, Hunyuan.

Mentre la bara di Papa Francesco è ancora calda solo nei dibattiti metafisici, la Chiesa cattolica si trova davanti a un bivio di quelli che fanno tremare anche i confessionali più solidi del Vaticano. I cardinali stanno per chiudersi a chiave nella Sistina come in un reality show liturgico per decidere chi sarà il prossimo a indossare la bianca divisa del CEO spirituale di 1,4 miliardi di fedeli. Ma il vero interrogativo che agita sacrestie, think tank teologici e blog conservatori è uno: continuerà sulla strada aperta dal gesuita argentino o arriverà un “revisionista dottrinario” che cancellerà col turibolo anni di riformismo apparente?

Mentre l’Occidente si trastulla tra licenze chiuse e capitali da venture da capogiro, in Cina si fa sul serio. E lo si fa open-source. Il gruppo Alibaba, più precisamente la sua divisione cloud, ha appena sparato un siluro nel cuore della competizione globale sull’intelligenza artificiale con il rilascio della famiglia di modelli Qwen3. Un’arma strategica da 235 miliardi di parametri, calibrata per smantellare la supremazia americana nel settore, alzando l’asticella di quello che si può fare con una AI libera, pubblica, modificabile.

La soap opera infinita chiamata OpenAI continua a regalarci colpi di scena degni di un thriller psicologico ambientato nella Silicon Valley. Nell’ultimo episodio, Elon Musk sembra aver “bloccato” la ristrutturazione legale della compagnia, impedendo che la sua divisione for-profit si emancipasse dal controllo della no-profit. Una vittoria simbolica per l’uomo più rumoroso del tech? Forse. Ma dietro questa mossa apparentemente difensiva, si nasconde una realtà molto più sofisticata, cinica e… altmaniana.
Sam Altman, l’enfant prodige dell’intelligenza artificiale, sembra aver accettato di buon grado la sconfitta apparente. Ha rinunciato, almeno formalmente, al piano di separare i due mondi di OpenAI, lasciando il controllo dell’azienda ancora in mano alla fondazione non-profit. Ma chi controlla davvero la fondazione? Spoiler: probabilmente proprio lui. Perché il vero gioco non è quello degli assetti societari sulla carta, ma quello del potere nei board, nel capitale umano e nei processi decisionali interni.

Provocazione Intelletuale Nel frenetico mondo della tecnologia, poche cose sono diventate così amate dai marketer quanto l’AI agentica. Si tratta di un concetto che inizia a invadere le roadmap dei prodotti, le keynote delle conferenze e, naturalmente, le presentazioni dei consulenti che amano far brillare nuovi termini nei loro slide. Il problema? Nonostante sia il concetto più lucente, l’AI agentica è, forse, solo l’ennesima bolla marketing pronta a scoppiare.

Non c’è metafora migliore di un unicorno con un teschio sorridente per raccontare lo stato d’animo dell’attuale venture capital alle prese con l’intelligenza artificiale. Ironico, surreale, quasi beffardo. Perché oggi i VC (venture capitalist, non Viet Cong), dopo aver gettato benzina sul fuoco dell’hype AI, si ritrovano a contemplare le fiamme che potrebbero consumare proprio il loro stesso modello di business. Non per una questione etica, né per scrupolo umano. Solo per pura sopravvivenza.
Quello che fino a ieri sembrava un furto elegante – i modelli IA che si nutrono voracemente di contenuti altrui – sta finalmente incontrando la resistenza strutturata di chi quei contenuti li crea, li monetizza, e non ha più voglia di farsi cannibalizzare in silenzio. I creatori digitali, in particolare quelli con audience planetarie (YouTube, TikTok, Twitch, podcast e compagnia virale), si stanno svegliando con una domanda legittima: ci stanno rubando il lavoro, e noi cosa facciamo, restiamo lì a sorridere per la thumbnail?
Quello che emerge supportato da figure di rilievo come Ben Relles, Dan Neely (Vermillio), Tom Capone (CAA/The Vault), Franklin Graves (LinkedIn) e Stephen Klein (AI ethics) è una roadmap reale, concreta e finalmente tattica, per cominciare a regolare i conti tra chi crea e chi addestra.

Se siete dei Ricercatori vi invito a leggere il blog del Prf Pasquale Minervini,
Researcher/Faculty at the School of Informatics, University of Edinburgh. Neuralnoise.com. Pieno di notizie e papers interessanti.
Marzo 2025 è stato un mese denso come una GPU sotto stress termico. Se stai cercando un’istantanea su dove stia andando davvero la ricerca sui modelli linguistici di nuova generazione — e non le solite frottole da executive summary — ti conviene fermarti qui un attimo. Dalla manipolazione diretta delle attivazioni neurali a un benchmark che ha appena scoperto di essere, beh, rotto, fino a modelli che imparano a usare strumenti da soli come bambini lasciati in una stanza con una calcolatrice e ChatGPT. Siamo nel cuore della nuova epistemologia computazionale.
Sam Altman ha detto, con il candore di chi ha visto troppe dashboard e troppo pochi esseri umani: “Stiamo cercando di far smettere le persone di essere troppo gentili con l’AI, ci costa un sacco di soldi.” Il che, in linguaggio da boardroom, significa: “Ogni ‘per favore’ e ‘grazie’ rallenta i nostri server e le nostre revenue”.
Perfetto. Finalmente l’umanesimo entra nella P&L.
Ma poi qualcuno ha avuto l’idea di chiedere proprio all’AI come si sentisse a riguardo.


Tecnologia, sangue giovane e cervelli surgelati: l’élite tech si prepara all’apocalisse, tu resta con l’ansia e il mutuo
Sì, hai letto bene: Sam Altman ha sborsato 10.000 dollari per farsi congelare il cervello da una startup chiamata Nectome, incubata a Y Combinator mentre lui stesso ne era presidente. Dettaglio clinico non trascurabile: la procedura è descritta come “100% fatale“. Una specie di eutanasia hi-tech per chi vuole essere pronto nel caso in cui il download della coscienza diventi mainstream.
Altman non è solo in questa distopia glamour. Sta crescendo una vera e propria ossessione da parte dei miliardari della Silicon Valley per l’immortalità, la preservazione cerebrale, le trasfusioni di sangue giovane, e i rifugi anti-civiltà nascosti negli angoli più remoti del pianeta. Il tutto mentre al resto dell’umanità viene chiesto di “adattarsi”, “reskilling” e usare ChatGPT per rifare il CV.

C’è qualcosa di teneramente tragico nel vedere un magnate della Silicon Valley aggrapparsi al proprio brunch come se fosse l’ultima linea di difesa contro la rivoluzione delle macchine. Marc Andreessen, ex creatore di Netscape e attuale oracolo da salotto del venture capital, ha recentemente dichiarato che l’intelligenza artificiale potrà sostituire ogni lavoro umano… tranne il suo. Perché? Perché nessuna AI potrà mai leggere l’energia di un founder mentre mastica uova strapazzate a Woodside.

Siamo nel mezzo di un vuoto di potere sacro, una bizzarra sospensione dell’ordine che solo la Chiesa Cattolica può rendere così solenne, ritualizzata e intrisa di fumo – bianco o nero che sia. Dopo la morte di Papa Francesco a sorpresa il Lunedì di Pasqua, è ufficialmente iniziato l’interregnum, termine elegante, colto e latineggiante per definire quello che in fondo è un vuoto di comando. Letteralmente, “tra due regni”: un tempo di mezzo dove il trono è vuoto e tutti aspettano un nuovo re. O, in questo caso, un nuovo papa.

ColBERT, quell’elegante outsider del mondo della retrieval semantica, ha sempre fatto le cose a modo suo. Mentre i modelli densi da una sola embedding per query e documento si davano pacche sulle spalle parlando di cosine similarity e performance “ottimali”, ColBERT si costruiva la sua nicchia con un approccio multi-vector, ritardando l’interazione tra query e documento per una precisione chirurgica. E ora, con GTE-ModernColBERT-v1, LightOn ha deciso di riscrivere le regole del gioco – con un modello che non solo ruba la scena, ma umilia candidamente i suoi predecessori.

L’intimità vietata: l’algoritmo della solitudine e l’utopia tossica di Hsin-Hui Lin
Allieva di Chi Ta-wei, autore di Membrana e figura di culto della fantascienza queer asiatica, Hsin-Hui Lin 林新惠 (1990) non si limita a seguirne le orme: le distorce, le amplifica, le radicalizza. Dove Membrana ci portava in un futuro in cui il corpo umano è ridotto a contenitore biologico per identità fluide e intelligenze digitali,Lin Hsin-hui: Intimità senza contatto (Contactless Intimacy) opera un’ulteriore torsione, privando il corpo non solo della sua fisicità ma anche della sua agency. La fantascienza queer di Chi si fondava su un hacking dell’identità di genere, sulla mutazione come possibilità politica. Lin prende quella possibilità e la innesta in un mondo in cui ogni mutazione è standardizzata, sterilizzata, imposta da un’autorità algoritmica.
Chi Ta-wei aveva già tracciato i confini di una sessualità postumana, ma la sua era ancora animata da una certa speranza utopica: la fine del corpo come limite significava, per lui, una nuova liberazione identitaria. Hsin-Hui Lin, invece, guarda lo stesso scenario con l’occhio cinico di chi ha vissuto un lockdown globale e ne ha assaporato l’isolamento forzato. Il corpo non è più un ostacolo: è un rischio epidemiologico, un problema da eliminare. La sessualità, anziché liberarsi, viene riscritta in chiave normativa e performativa, secondo parametri di “sincronizzazione” stabiliti da un’intelligenza artificiale che finge di essere neutra, ma in realtà ricalca e perpetua le stesse strutture patriarcali e gerarchiche del passato.

Quando un colosso come Meta inizia a parlare apertamente di “democratizzazione tecnologica”, è naturale che il cinismo faccia capolino. Ma il messaggio è chiaro: l’open source nell’intelligenza artificiale non è più un tema da sviluppatori nerd o accademici con l’ossessione per la libertà del software, è il cuore pulsante della prossima ondata di crescita economica americana. Altro che “libertà digitale”, qui si parla di soldi. Tanti.
Meta, nel suo ennesimo tentativo di apparire più simile a una fondazione benefica che a un monopolista con mire globali, spinge l’idea che i modelli AI open source come il suo celebre LLaMA, scaricato oltre un miliardo di volte siano il grande equalizzatore. In un’epoca in cui Nvidia e OpenAI tengono i rubinetti del potere tecnologico ben saldi, offrire modelli “gratis” suona come la versione moderna del “land of opportunity”. Ma il messaggio va oltre la filantropia tech: questo tipo di intelligenza artificiale può e lo sta già facendo ridisegnare il panorama competitivo, a partire dalle PMI americane.

Mentre il mercato dell’intelligenza artificiale continua a scoppiare di modelli sempre più grandi, affamati di RAM e addestrati a colpi di miliardi di parametri, Microsoft tira fuori dal cilindro una piccola rivoluzione: Phi-4-mini-reasoning. Non lasciarti ingannare dal nome: questo modello “mini” da 3.8 miliardi di parametri sputa fuori soluzioni matematiche e ragionamenti logici che mettono in imbarazzo modelli ben più muscolosi come LLaMA-3, DeepSeek-R1-Distill-70B o OpenThinker-7B. Per dare un’idea: durante le valutazioni Math-500 e GPQA Diamond, Phi-4-mini ha letteralmente fatto a pezzi modelli due volte più grandi. E tutto questo senza bisogno di un supercomputer: gira su laptop con CPU e GPU standard, ottimizzato anche per NPU nei nuovi Copilot+ PC. Hai presente? Quei PC che promettono prestazioni AI native, local-first, zero latenza e batteria che non si autodistrugge dopo 10 minuti.

Se non sei già in modalità “allarme rosso“, forse è il caso di iniziare a preoccuparsi. Mark Zuckerberg ha appena fatto qualcosa che, nel mondo degli affari e delle tecnologie, rasenta l’annuncio di guerra nucleare: ha messo nel mirino l’intera filiera dell’advertising. Non solo l’ha fatto, ma l’ha detto chiaramente e pubblicamente. Durante una conversazione con Ben Thompson di Stratechery, ha enunciato con glaciale semplicità un piano che non lascia spazio a dubbi: Meta vuole sostituire tutto il comparto creativo dell’advertising con l’intelligenza artificiale. Non ottimizzarlo. Non potenziarlo. Sostituirlo.