Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

WWDC 2025 Siri, l’assistente fantasma: Apple Intelligence svela la sua debolezza più umana

In mezzo a una WWDC 2025 imbottita di funzioni AI, citazioni da Formula 1 e un pianista che canta recensioni di app – in uno di quei momenti tanto tipicamente Apple quanto inutilmente performativi – la grande assente era proprio lei: Siri. Non assente fisicamente, certo. Ma assente nello spirito, nei fatti, nella sostanza. Un’assenza che grida più di qualsiasi presentazione sul palco.

Apple ha parlato molto, come sempre. Ha evocato l’onnipresente “Apple Intelligence” (il branding che cerca disperatamente di restituire un’aura proprietaria a qualcosa che, in fondo, è OpenAI sotto il cofano), ha sbandierato aggiornamenti per FaceTime, Messaggi, traduzioni in diretta e una LLM “on-device”. Ma quando si è trattato dell’assistente virtuale che avrebbe dovuto essere la colonna sonora della rivoluzione AI, la voce di Siri è rimasta flebile, quasi imbarazzata. Più che un upgrade, un’interruzione diplomatica.

OpenAI taglia il peso di Microsoft, DeepSeek sfrutta la Cina: la vera partita sull’intelligenza artificiale

Questa non è una guerra di brevetti, ma una resa dei conti globale.

OpenAI sta preparandosi a ridisegnare le regole del gioco con Microsoft. Fino al 2030, OpenAI attualmente versa a Microsoft il 20 % del fatturato generato dai suoi servizi sul cloud Azure. Ma sta rinegoziando per dimezzare questa quota, fino al 10 % entro fine decennio.

E tu, lettore, sei seduto in prima fila. Ti conviene abbonarti a Rivista.AI offriamo visioni, piedi nel concreto, occhi puntati sui trend globali e spazio per riflessioni provocatorie. Se vuoi davvero capire chi governerà l’AI e perché o se preferisci restare un semplice spettatore dell’ennesima “next big thing”, puoi accedere a reportage esclusivi.

E come diceva un vecchio saggio tecnologico: “È facile essere pionieri finché non ti chiedono di pagare il biglietto.” Rivista.AI ce l’ha, il biglietto e l’occhio per chi guida davvero il futuro dell’intelligenza artificiale.

Apple tenta la rivoluzione silenziosa dell’intelligenza artificiale mobile

Se ti sei distratto per un secondo durante il keynote di Apple, potresti aver perso il dettaglio più esplosivo degli ultimi anni nel mondo dell’AI: l’introduzione del framework Foundation Models per eseguire modelli LLM da 3 miliardi di parametri direttamente on-device, cioè sul tuo iPhone. Sì, hai letto bene: niente cloud, niente latenza, niente connessione necessaria. Solo silicio, efficienza e controllo locale. La cosa più simile a un motore quantistico tascabile che Cupertino abbia mai osato proporre.

Apple, con la sua classica arroganza zen, lo ha annunciato senza fanfare isteriche, come se far girare un modello da 3B su un A17 fosse normale amministrazione. Ma sotto quella compostezza californiana, si cela una mossa strategica che potrebbe ribaltare l’intero equilibrio del mercato AI — e mandare nel panico chi oggi campa vendendo inference da cloud a peso d’oro.

AI.gov o l’algoritmo dell’Impero: la Casa Bianca reinventa la burocrazia col GPT. Happy Uploading, America

Benvenuti nell’era in cui l’intelligenza artificiale sostituisce l’intelligenza istituzionale, e la democrazia si trasforma in un backend API-first. Non è un distopico racconto di Gibson né una bozza scartata di Black Mirror: è l’America del 2025, dove l’innovazione di governo si chiama AI.gov e parla fluentemente il linguaggio dei Large Language Models. La fonte? Il codice sorgente pubblicato su GitHub. E come sempre, il diavolo si nasconde nei commit.

L’amministrazione Trump, evidentemente non ancora sazia di plot twist tecnocratici, ha deciso di lanciare una piattaforma di intelligenza artificiale gestita dalla General Services Administration, guidata da Thomas Shedd, ex ingegnere Tesla e fedelissimo del culto eloniano. Un tecnico più affine al codice che alla Costituzione. Il sito AI.gov – attualmente mascherato da redirect alla Casa Bianca – è il punto focale di una nuova strategia: usare l’AI per “accelerare l’innovazione governativa”. La parola chiave, naturalmente, è “accelerare”, il verbo preferito da chi taglia, privatizza, automatizza.

La rivoluzione silenziosa delle onde di luce: così la Cina cerca il sorpasso quantico tra sanzioni e fotoni

Nel cuore pulsante della provincia di Jiangsu, a Wuxi, si muove qualcosa che non fa rumore. Nessun sibilo di elettroni, solo la danza silenziosa della luce su wafer di niobato di litio. Benvenuti nel futuro fotonico della Cina, dove CHIPX – una creatura semiaccademica nata dall’ecosistema tentacolare di Shanghai Jiao Tong University – ha appena acceso la macchina del tempo. O meglio, la macchina del sorpasso.

Siamo abituati a pensare ai chip come a microforeste di silicio, una geometria di transistor che obbedisce ai limiti della fisica classica. Eppure, in questo preciso momento, la Cina ha scelto un’altra via: quella dei chip fotonici, dove le informazioni viaggiano sotto forma di luce e non di elettroni, dove la velocità di elaborazione può toccare vette esoteriche, e dove l’Occidente, complice la propria arroganza sanzionatoria, rischia di restare al palo.

Meta si compra metà dell’intelligenza: Zuckerberg punta $15 miliardi su Scale AI per rincorrere l’AGI

C’è un momento, nella storia di ogni impero, in cui il suo sovrano sente che gli Dei stanno ridendo di lui. Mark Zuckerberg, dopo aver provato a reinventare il concetto di “mondo” con il Metaverso (fallendo nella realtà quanto lo ha fatto la Second Life del 2008), ha deciso che il futuro non è virtuale, ma cognitivo. Il nuovo feticcio della Silicon Valley si chiama AGI, intelligenza artificiale generale. E per raggiungerla, Meta ha deciso di firmare quello che è, secondo The Information, il più grosso assegno mai staccato fuori dalle proprie mura: quasi 15 miliardi di dollari per acquisire il 49% di Scale AI. Tradotto: Zuckerberg si compra quasi metà della benzina che alimenta l’industria dell’AI globale.

Italia, startup e intelligenza artificiale

C’è un’Italia che parla di intelligenza artificiale come se fosse a cena con Elon Musk e c’è un’altra Italia che, più realisticamente, cerca ancora di capire come configurare il Wi-Fi aziendale. In mezzo ci sono loro: le startup AI italiane, una fauna affascinante quanto rara, spesso invocata nei panel dei convegni con tono salvifico, ma ignorata dai capitali che contano.

Secondo Anitec-Assinform, metà delle oltre 600 imprese digitali innovative italiane si fregia dell’etichetta “AI-enabled”. Ma definirle startup di intelligenza artificiale è come dire che chi ha una Tesla è un esperto di energie rinnovabili. L’uso della tecnologia, nella maggior parte dei casi, è decorativo, marginale, ornamentale. Non guida, non decide, non cambia il modello di business. È là per fare scena, come un’insegna a LED su un ristorante vuoto.

EHDS: La salute digitale europea tra sogni algoritmici e burocratici

Benvenuti nel teatro dell’assurdo digitale europeo, dove il sogno di una sanità interconnessa e intelligente si scontra con la realtà di un mosaico normativo che farebbe impallidire persino Kafka. Nel cuore di questa pantomima c’è l’European Health Data Space (EHDS), un progetto che promette miracoli tecnologici – cartelle cliniche interoperabili, algoritmi predittivi, cure personalizzate – e invece consegna alla classe dirigente europea un guazzabuglio di piattaforme regionali in mano a aziende private spesso più interessate al business che al bene comune.

Immaginate di rompervi una gamba sulle Alpi francesi nel 2034. In teoria, l’ortopedico di Grenoble dovrebbe accedere alla vostra cartella clinica italiana in tempo reale, somministrarvi i farmaci giusti e aggiornare un algoritmo che previene future fratture. In pratica, buona fortuna. Le infrastrutture sono disgiunte, i protocolli blindati, i dati confinati in recinti nazionali blindati da egoismi burocratici che definire provinciali è un eufemismo. L’idea di una Federazione delle Repubbliche Sanitarie Regionali europee si infrange contro la realtà dei governi che preferiscono affidare la gestione a soggetti terzi — spesso poco trasparenti — e difendere il proprio orticello digitale come un’antica proprietà feudale.

Paramount, Disney e Apple: l’intelligenza artificiale non basta, lo streaming si ridisegna

Buon martedì, o come piace dire ai CFO in fuga, «giorno di svolte impreviste». In un mondo dove la tecnologia e il business si inseguono più velocemente di un aggiornamento di iOS, la giornata del 10 giugno 2025 si apre con un cocktail di movimenti aziendali degni di un thriller finanziario. Paramount perde il suo direttore finanziario, Disney stacca l’assegno da mezzo miliardo per chiudere il cerchio Hulu, Apple annuncia l’ennesima puntata del suo feuilleton sull’intelligenza artificiale, mentre le ombre di Warner Bros. Discovery si preparano a dividersi, e i razzi di Bezos si prendono una pausa imprevista.

Ilya Sutskever: Quando l’intelligenza artificiale guarda l’abisso e noi ci vediamo dentro

Toronto, palco celebrativo. Ilya Sutskever — uno dei padri fondatori della moderna intelligenza artificiale — riceve un’onorificenza che ha il retrogusto amaro della confessione pubblica. Non tanto per l’elogio accademico, ma per il sottotesto che trasuda da ogni parola: “accettare questo premio è stato doloroso”. Non è il solito vezzo da scienziato modesto. È un monito. O, meglio, una resa consapevole alla vertigine di ciò che abbiamo messo in moto.

Sutskever non è un profeta apocalittico, ma è colui che ha dato le chiavi del fuoco alle macchine. E adesso ci chiede di essere sobri, razionali e veloci. Non per aumentare la potenza computazionale, ma per restare in controllo. Ecco il punto: il controllo.

L’intelligenza artificiale nella PA italiana è un’illusione da procurement

In Italia anche l’intelligenza artificiale fa la fila, aspetta il suo turno, e spesso si ritrova in mano a funzionari che confondono una GPU con un acronimo del catasto. La recente indagine dell’Agenzia per l’Italia Digitale (AgID) suona come una radiografia dell’ennesima rivoluzione digitale annunciata, ma mai del tutto compresa. Titolo dell’operazione: “L’intelligenza Artificiale nella Pubblica Amministrazione”. Dietro la neutralità statistica dell’inchiesta, si cela una PA che tenta di aggrapparsi alla corrente dell’innovazione mentre arranca con zavorre fatte di burocrazia, consulenze esterne e KPI vaghi come le promesse elettorali.

Il censimento dei progetti IA ha coinvolto 108 organizzazioni pubbliche su 142 contattate, con 120 iniziative tracciate. Numeri apparentemente incoraggianti, che però si sgretolano sotto la lente di chi osserva il panorama non come un ottimista tecnologico, ma come un chirurgo delle inefficienze digitali. Solo 45 enti hanno davvero avviato progetti. Gli altri? Presumibilmente ancora impantanati nei comitati di valutazione, nei verbali, nelle richieste di pareri legali e nei flussi autorizzativi che scoraggerebbero persino una macchina a stati finiti.

L’algoritmo ha mangiato il giornale: il massacro silenzioso dei media nell’era del chatbot

La scena è questa: una redazione vuota, le luci ancora accese, le tastiere ferme. Sulle scrivanie, gli ultimi numeri stampati di un quotidiano digitale, ormai irrilevante. Là fuori, milioni di utenti digitano domande sui loro smartphone, ma le risposte non arrivano più dai giornalisti. Arrivano da una macchina. È l’era della post-search, e Google non è più un motore, ma un oracolo.

L’apocalisse silenziosa è cominciata con una frase: “Google is shifting from being a search engine to an answer engine.” Traduzione: cari editori, potete anche spegnere il modem.

La keyword che brucia è chatbot, con le sue sorelle semantiche traffico organico e AI generativa. In tre anni, secondo dati di Similarweb riportati dal Wall Street Journal, HuffPost ha perso più della metà del traffico proveniente da Google. Il Washington Post quasi altrettanto. Business Insider ha tagliato un quinto della forza lavoro. E no, Zuckerberg stavolta non c’entra. Il nemico è molto più vicino, e molto più silenzioso.

L’italia è pronta per un cloud e AI development act? Il paese delle nuvole cerca finalmente il suo cielo digitale

“Quando senti la parola ‘cloud’, guarda se piove.” Questa battuta, un po’ vecchia scuola ma mai fuori moda, descrive perfettamente la schizofrenia con cui l’Italia affronta il tema del digitale. Da un lato si moltiplicano convegni, task force e white paper che inneggiano all’Intelligenza Artificiale come alla nuova Rinascenza tecnologica italiana. Dall’altro, le PMI arrancano su server obsoleti, con una fibra che spesso è più ottica nei titoli dei bandi che nei cavi di rete. E allora, ci vuole davvero un Cloud e AI Development Act per traghettare il Bel Paese verso un futuro dove il digitale non sia più un miraggio ma una politica industriale concreta?

Il 2 febbraio 2025 segna un punto di svolta. L’entrata in vigore della prima fase dell’AI Act europeo segna un cambio di paradigma: chi sviluppa, distribuisce o adotta sistemi di intelligenza artificiale dovrà fare i conti non solo con algoritmi, ma anche con regolatori armati di sanzioni fino al 7% del fatturato globale. Niente male per un settore che si è mosso finora con l’agilità di un esperto in dark pattern più che con quella di un civil servant europeo.

Internet senza confini? Oltre la rivoluzione silenziosa della rete globale NAM2025 by Namex

C’è qualcosa di straordinario che sta accadendo sotto i nostri piedi e sopra le nostre teste. Non lo vediamo, ma ci avvolge ogni giorno. È l’evoluzione dell’Internet, un ecosistema che da sogno accademico è diventato infrastruttura critica della civiltà contemporanea. Non più solo strumento, ma vero e proprio tessuto connettivo dell’umanità. E NAM2025, il summit in programma l’11 giugno a Roma, nasce proprio per fare luce su questa trasformazione epocale, dove intelligenza artificiale, geopolitica, spazio e cavi sottomarini si intrecciano in uno scenario tanto complesso quanto affascinante.

Ren Zhengfei: Huawei e l’intelligenza artificiale: quando un chip di seconda mano può battere un mostro americano

Huawei, il colosso cinese delle telecomunicazioni che da anni è sotto l’occhio del ciclone geopolitico, ammette candidamente un fatto che fa tremare gli ingenui. I suoi chip Ascend, per quanto presentati come meraviglie della tecnologia, sono ancora “una generazione” dietro quelli statunitensi. Ma attenzione: non è la fine del mondo, né la resa incondizionata di Pechino alla supremazia tecnologica d’oltreoceano. Anzi, l’arte di arrangiarsi con metodi “non convenzionali” come stacking e clustering promette performance paragonabili ai giganti del settore. Una magia tutta cinese, fatta di impilamenti di chiplet brevettati che rendono il processore più compatto, più furbo, più scalabile.

Questa confessione arriva direttamente da Ren Zhengfei, il fondatore di Huawei, nel contesto di un’intervista di copertina sul People’s Daily, l’organo ufficiale del Partito Comunista. Primo a rompere il silenzio dopo il lancio di ChatGPT e la nuova ondata di sanzioni USA, Ren non si limita a una difesa d’ufficio. Non nasconde le difficoltà e riconosce che la tecnologia made in USA è “una generazione avanti”, ma rivendica con veemenza la capacità della Cina di colmare il gap con ingegnose soluzioni tecniche. E, soprattutto, sottolinea la forza di un ecosistema nazionale che ha ben altri vantaggi competitivi: centinaia di milioni di giovani, una rete elettrica robusta e una infrastruttura di telecomunicazioni che, a suo dire, è la più sviluppata al mondo.

IBM e Yale la sindrome da test fallito: perché continuiamo a misurare l’IA con il righello sbagliato

C’è qualcosa di fondamentalmente disonesto — o quantomeno anacronistico — nel modo in cui il settore tech insiste nel valutare gli AI agent. È come se pretendessimo di giudicare la performance di un pilota di Formula 1 sulla base della velocità media in un parcheggio. E nonostante l’accelerazione vertiginosa dell’Intelligenza Artificiale autonoma, siamo ancora lì, a discutere di benchmark come se stessimo valutando un modello statico di linguaggio.

Ecco perché il lavoro congiunto di IBM Research e Yale University, che ha esaminato oltre 120 metodi di valutazione degli agenti AI, è più che una mappatura tecnica: è una scossa sismica epistemologica. È il momento “Copernico” del testing AI. L’oggetto in esame — l’agente autonomo — non è più un corpus passivo da interrogare, ma un’entità dinamica che percepisce, agisce, riflette, talvolta sbaglia, e spesso impara.

Apple, l’impero del vetro liquido e le promesse AI dimenticate

La Silicon Valley ha un difetto: confonde il futuro con la demo. Ma Apple, campionessa mondiale del “coming soon”, sembra finalmente aver preso un respiro. Alla Worldwide Developers Conference 2025, l’azienda di Cupertino ha rinunciato alla corsa al superlativo per tornare al suo primo amore: la gestione del ritardo ben confezionato. E lo ha fatto in pieno stile Apple: interfacce levigate, nomi levigati, promesse levigate.

Lo scorso anno, Tim Cook e soci ci avevano promesso una Siri rivitalizzata, versioni AI di ogni cosa e una nuova era di intelligenza artificiale made in Cupertino. Quella “Apple Intelligence” doveva essere la risposta silenziosa ma potente all’invasione di ChatGPT e compagni. Un anno dopo, la verità è più semplice (e più deludente): nulla di tutto questo è ancora arrivato. Craig Federighi, volto lucido dell’ingegneria Apple, si è limitato a dire che “ci stiamo ancora lavorando” e che ne parleranno meglio il prossimo anno. Che, tradotto dal cupertinese, significa: non trattenete il respiro.

Nel frattempo, Apple ha deciso di distrarci con un colpo di scena semantico: la nuova estetica del suo sistema operativo si chiama Liquid Glass. Un nome che suona come un profumo da 300 euro ma che in realtà si traduce in icone più trasparenti, menù fluttuanti e una sensazione di freschezza visiva tutta da verificare sotto la luce blu del day-one. La funzione più innovativa? Potrebbero essere le finestre fluttuanti su iPad, una mossa che avvicina sempre più il tablet al MacBook, pur senza mai ammettere che il touchscreen sui portatili sarebbe utile, anzi fondamentale. Apple continua a dire “non lo faremo mai”, mentre ci porta lì un pixel alla volta.

La guerra invisibile dell’intelligenza artificiale al cuore dell’istruzione cinese

Non hanno usato manganelli, né droni. Ma un clic silenzioso ha oscurato le menti digitali più brillanti del Dragone. Alibaba, ByteDance, Tencent e Moonshot: giganti che nel silicio scolpiscono l’immaginario tecnologico cinese, si sono piegati di fronte a un nemico vecchio come il mondo — la voglia di barare all’esame.

Durante i giorni sacri del gaokao, l’imponente rito collettivo che decide il destino accademico (e spesso anche esistenziale) di oltre 13 milioni di studenti, le funzioni più sofisticate dei chatbot sono state messe in pausa. Non per guasti tecnici o aggiornamenti di sistema. Ma per paura che qualche diciottenne troppo sveglio potesse chiedere una foto al compagno più fidato del 2025: l’algoritmo.

OpenAI fa 10 miliardi, Meta spende 10 miliardi, Trump rimanda ancora: benvenuti nel reality show dell’intelligenza artificiale

Il silenzio non è mai casuale, specie quando OpenAI smette di twittare e comincia a incassare dieci miliardi di dollari all’anno in revenue ricorrente. Sì, dieci miliardi. L’equivalente del PIL di un microstato o della pazienza residua dell’industria legacy. La notizia è esplosa come un nuovo plugin di ChatGPT: silenziosa, ma letale. Il futuro dell’intelligenza artificiale non è più un campo sperimentale, ma un flusso di cassa. E soprattutto, un’arma geopolitica che vale più dell’uranio.

Mentre Sam Altman si toglie i guanti da startupper e si infila quelli da CEO d’acciaio, Microsoft gioca a Risiko e spara con i suoi Copilot in scala enterprise: 100.000 dipendenti Barclays armati di AI. È come dare la bomba atomica a un call center, ma con il sorriso della produttività. Il risultato? L’ufficio non è più un luogo, ma un’interfaccia. E chi non ha ancora capito che il software ora si aggiorna da solo, è semplicemente diventato obsoleto come i bottoni fisici sugli smartphone.

WWDC 2025 June 9 Apple

Apple intelligence in crisi d’identità, ma Tim Cook giura che tutto è sotto controllo

L’aria a Cupertino quest’anno è più elettrica del solito. Ma non nel senso buono. Quando il palco della WWDC 2025 si è acceso, l’energia non era quella trionfale di un impero in espansione, ma quella nervosa di un gigante che sa di essere osservato da troppo vicino. Le luci dello Steve Jobs Theater brillano, sì, ma non riescono a nascondere le ombre: quelle di un’intelligenza artificiale che si è fatta attendere troppo, di giudici federali che non si fanno più incantare dalle vetrine di Apple Park, e di una politica commerciale che inizia a mostrare il conto, da Washington a Pechino.

Apple Intelligence, l’ambiziosa scommessa annunciata l’anno scorso tra effetti speciali e promesse roboanti, oggi appare come un adolescente confuso che ha dimenticato cosa voleva diventare da grande. Doveva essere l’AI “personalizzata, privata e potente”. Quello che abbiamo visto, invece, è una creatura ibrida, impantanata tra modelli on-device limitati e una dipendenza poco dichiarata da ChatGPT, con la promessa implicita che “niente sarà inviato senza il tuo permesso” — il che, detto da una società sotto indagine antitrust, suona più come un patto tra cavalieri medievali che come una policy credibile.

Orsini (Confindustria): “Senza un piano per l’innovazione rischiamo il declino”

“Senza una visione concreta sull’innovazione oggi, rischiamo di pagare domani un prezzo altissimo”. Parole chiare e dirette quelle pronunciate da Emanuele Orsini, presidente di Confindustria, alla Festa dell’Innovazione organizzata da Il Foglio. In un contesto economico sempre più competitivo e accelerato dalla rivoluzione tecnologica, Orsini lancia un appello forte: serve un piano industriale straordinario di almeno tre anni che rimetta al centro l’industria e stimoli la crescita dell’Italia, oggi ancora troppo lenta nell’adozione dell’intelligenza artificiale e della digitalizzazione.

Sinner vince spesso perché sa perdere: anatomia di un’anomalia nel tempo degli imbattibili

È una frase che non ti aspetti in un’epoca drogata dal culto della vittoria, scolpita nei mantra da LinkedIn e dai TED Talk più imbarazzanti: “Perdere è un’opzione. Imparare a perdere, un superpotere.”
Jannik Sinner non è solo il numero uno del mondo. È un apostata del dogma moderno secondo cui solo chi non accetta la sconfitta può diventare grande.

Chi ha visto Sinner cadere – con la compostezza glaciale che fa impazzire le telecamere in cerca di un gesto isterico – sa che la sua forza non viene da un’ossessione per il trofeo. Ma dalla sua familiarità con il vuoto che resta dopo aver perso. Ed è lì, in quel silenzio, che Jannik ha costruito il suo arsenale invisibile.

Quando i robot diventano figli unici: il paradosso cinese dell’assistenza agli anziani

C’è qualcosa di profondamente poetico — e vagamente inquietante — nel fatto che la Cina, un paese plasmato per decenni dalla politica del figlio unico, si ritrovi ora a programmare androidi per accudire i propri anziani. Come se la Silicon Valley del Dragone stesse tentando di correggere, con servomeccanismi e intelligenze artificiali, le lacune biologiche di una demografia sempre più sbilanciata. Ma tranquilli: non è fantascienza. È politica industriale, e pure parecchio concreta.

Il nuovo programma pilota lanciato congiuntamente dal Ministero dell’Industria e dell’Informazione e dal Ministero degli Affari Civili cinese prevede l’inserimento massiccio di robot per l’assistenza agli anziani. Sì, avete letto bene: badanti a circuito integrato, caregiver con sensori Lidar, compagni di vita con algoritmo di riconoscimento emotivo. Non è un nuovo anime giapponese, è il piano strategico della seconda economia mondiale per sopravvivere a se stessa. E non è un caso che il Giappone — eterno fratello-rivale nell’arena della senilizzazione — sia già da tempo sulla stessa strada.

GSM8K, LLM, il re è nudo: Apple smonta il mito del ragionamento matematico

C’è qualcosa di profondamente sbagliato nella maniera in cui valutiamo l’intelligenza artificiale, e Apple — sì, proprio Apple — ha appena scoperchiato il vaso di Pandora dell’autocompiacimento algoritmico. Niente Keynote, niente scenografie minimaliste da Silicon Valley, ma una bomba scientifica che mina il cuore stesso della narrativa dominante: i Large Language Models, osannati come nuovi oracoli logici, sono in realtà più illusionisti che matematici. E il trucco, come sempre, è tutto nei dettagli.

La scena del crimine si chiama GSM8K, una benchmark ormai celebre tra i cultori del deep learning. Una collezione di problemini da scuola elementare usata per valutare quanto un modello sappia ragionare “formalmente”. Ma come ogni quiz scolastico, anche GSM8K ha un punto debole: più lo usi, più diventa prevedibile. E gli LLM, che sono addestrati su miliardi di dati, imparano non a ragionare, ma a riconoscere pattern. Una differenza sottile, ma cruciale.

Fatevi avanti. Oppure non lamentatevi del risultato

Targeted stakeholder consultation on classification of AI systems as high-risk

All’inizio sembrava un’utopia normativa, quasi un esercizio di stile per giuristi in cerca di protagonismo. L’Artificial Intelligence Act è entrato in vigore (1° agosto 2024) e – sorpresa – l’Unione Europea fa sul serio. Ma come spesso accade a Bruxelles, quando si cerca di normare il futuro con l’ossessione del rischio, si rischia di amputare l’innovazione con il bisturi della burocrazia. E in questa nuova fase, quella della consultazione mirata sui sistemi di IA ad alto rischio, il destino tecnologico europeo si gioca in un equilibrio perverso tra tutela e paralisi.

AI Agent Protocols inside its brain

Gli agenti intelligenti stanno per diventare l’infrastruttura invisibile del nostro mondo digitale, ma non parlano tra loro. Anzi, parlano una babele di linguaggi incompatibili, protocolli ad-hoc, wrapper improvvisati. È come se l’AI stesse reinventando il modem 56k ogni settimana.

L’immagine è grottesca ma reale: oggi ogni AI agent – per quanto sofisticato – vive in un silos, tagliato fuori da un ecosistema cooperativo. Nessuno direbbe che Internet sarebbe mai esploso senza TCP/IP. Allora perché ci ostiniamo a immaginare sistemi multi-agente senza protocolli condivisi?

Vitruvian Smart, il modello che pensa prima di rispondere e domina la cultura italiana

Quando si parla di modelli di linguaggio di intelligenza artificiale, il più delle volte si immagina un gigante iper-tecnologico, forse americano o cinese, ma raramente si pensa a un prodotto italiano capace di competere davvero su scala globale. E invece, eccoci qui: Vitruvian Smart, un modello LLM da 12 miliardi di parametri sviluppato da ASC27, che non solo “sa parlare” italiano, ma si impone come una specie di campione nel comprendere la cultura italiana, grazie a un benchmark tutto nostrano, ItalicBench, curato da CRISP presso l’Università Milano Bicocca.

ItalicBench research non è un semplice test. È un giudice severo, una sfida diretta a verificare quanto i modelli di linguaggio possano non solo comprendere la lingua italiana, ma anche maneggiare con destrezza riferimenti culturali, contesti storici, sfumature sociali e tutto quel background che rende la nostra cultura così stratificata e complessa. È come chiedere a un intellettuale digitale di sapere non solo i vocaboli, ma anche il perché di certi gesti, di certi modi di dire, e di quella saggezza popolare che spesso sfugge agli algoritmi più spavaldi.

Cina, l’algoritmo imperfetto: come Pechino sta rovesciando l’architettura binaria con un chip che non segue le regole

Immaginate un cervello che non ragiona più solo in 0 e 1, ma anche in forse, chissà, probabilmente. Per decenni, l’informatica è stata una religione binaria, fondata sull’assioma del “sì o no”, “vero o falso”, “0 o 1”. Adesso, dalla Cina, arriva un’eresia. Un chip non-binario, un ibrido tra l’efficienza spietata del silicio e la mollezza stocastica della probabilità. Una via di mezzo tra il calcolo deterministico e il caos quantistico. Con buona pace di Turing, Von Neumann e – sì – del Dipartimento del Commercio degli Stati Uniti.

Non è una provocazione teorica. È un’applicazione industriale su larga scala. Il primo al mondo. Ed è cinese.

Dietro il colpo di teatro c’è il professor Li Hongge della Beihang University, che ha orchestrato la mossa in pieno stile go – il gioco da tavolo orientale che privilegia la strategia lenta, le mosse indirette, il controllo degli spazi vuoti. La sua arma segreta? Un sistema numerico chiamato Hybrid Stochastic Number (HSN). Un matrimonio poco ortodosso tra numeri binari e logica probabilistica. L’obiettivo? Scavalcare due ostacoli architettonici che da anni tengono in ostaggio il progresso del computing: il power wall e l’architecture wall.

Meta e Scale AI, il matrimonio da 10 miliardi che cambierà l’intelligenza artificiale più della tua prossima terapia di coppia

Immagina che Mark Zuckerberg si presenti a un summit militare con una versione “patriottica” del suo chatbot Llama, addestrato non con meme di Instagram ma con scenari da guerra elettronica. Aggiungi a questo un assegno potenziale da oltre 10 miliardi di dollari per una startup che fino a ieri sistemava dataset come uno stagista ossessivo-compulsivo, e hai il quadro surreale — ma del tutto reale — di quello che sta succedendo tra Meta e Scale AI.

In un’epoca in cui le Big Tech fingono ancora di voler salvare il mondo mentre fanno accordi da retrobottega con il Pentagono, Meta ha deciso di uscire allo scoperto, abbracciando Scale AI come il partner perfetto per la sua visione di un’AI che non solo parla fluentemente millennial, ma può anche indossare un elmetto da combattimento.

Il capitalismo dello sguardo: perché Sam Altman vuole scannerizzarti l’iride nei centri commerciali britannici

Londra, primavera 2025. Mentre il Regno Unito si prepara all’ennesimo reboot politico tra intelligenza artificiale e distopia quotidiana, una novità luccicante spunta all’orizzonte urbano: un globo metallico, lucido, vagamente alieno, ti invita ad “autenticarti”. Non con password, né con documenti. Ti chiede solo… gli occhi. O meglio, l’iride.

La macchina si chiama Orb, la società che la distribuisce Tools for Humanity. Nome ironico per un progetto tecnocratico. Dietro le quinte, l’onnipresente Sam Altman, CEO di OpenAI, e il co-fondatore Alex Blania. Non bastava ChatGPT a rivoluzionare il pensiero umano, adesso l’obiettivo è mappare chi è effettivamente umano. Non in senso filosofico — Dio ci salvi da Kant — ma in senso biometricamente verificabile.

Cudis sfida la morte con un anello smart: salute, AI e token su Solana

L’ossessione per la longevità si è trasformata da sogno californiano a core business globale, e qualcuno sta cercando di monetizzare ogni respiro. Cudis, startup losangelina nata nel 2023, si lancia con disinvoltura in una delle scommesse più audaci del nostro tempo: trasformare le buone abitudini salutari in una moneta digitale scambiabile. No, non è Black Mirror. È un anello. Uno smart ring con intelligenza artificiale e incentivi cripto, abbinato a un’app che promette di allungarti la vita—o almeno il ROI.

Mentre i dati biometrici diventano la nuova valuta del secolo, Cudis si è infilata al dito il futuro del wellness, con un anello di design sobrio che monitora sonno, stress, attività e calorie bruciate. La versione 2.0 della sua wearable tech si collega a un’applicazione che sembra aver capito una cosa fondamentale: la maggior parte delle persone non vuole diventare un medico, vuole solo sapere se dorme male perché ha scrollato TikTok fino alle 2 o se è tempo di chiamare il fisioterapista.

Calvin 40 è nato senza testa, ma potrebbe diventare il padrone delle fabbriche

C’è qualcosa di vagamente biblico, o meglio startup-esoterico, nel battezzare Calvin 40 un robot costruito in quaranta giorni. In una Parigi post-Olimpiadi 2024, dove Wandehttps://en.wandercraft.eu/calvin-40rcraft aveva già fatto scalpore facendo camminare un paraplegico grazie al suo esoscheletro, oggi si gioca una partita molto diversa: entrare nell’arena spietata della robotica umanoide industriale. Con un robot acefalo, privo di mani, ma capace di sollevare quasi il doppio del peso dei suoi concorrenti più chiacchierati come Tesla Optimus o Figure AI.

Non è una provocazione, è strategia pura. Mentre i big tech americani e le start-up cinesi inseguono l’estetica antropomorfa, Wandercraft getta nella mischia un cyborg senza volto, spogliato degli orpelli emotivi e concentrato solo sulla fisica. “La testa non serve per navigare,” dice senza mezzi termini il CEO Matthieu Masselin, con un tono che sembra voler tagliare il cordone ombelicale tra la robotica e il fantasma dell’antropocentrismo. “Le mani sono fragili,” aggiunge, facendo crollare decenni di ricerca su attuatori prensili e feedback tattile in un solo colpo di swipe.

Palo Alto Networks ha appena hackerato gli agenti AI. Ecco cosa ci hanno insegnato

Palo Alto Networks, il colosso mondiale della cybersecurity, ha appena portato all’esame del fuoco gli agenti AI con un esperimento che sembra uscito da un thriller tech. Non si è trattato di un semplice attacco, ma di una simulazione reale su due agenti identici, speculari in compiti e strumenti, ma diversi nel framework: uno basato su CrewAI, l’altro su Microsoft AutoGen. Risultato? Entrambi hanno fatto flop clamoroso.

Questa caduta degli dei digitali insegna una verità che i più sognano di ignorare: non è il framework a proteggerti, ma la tua architettura, il tuo design, e soprattutto le tue supposizioni — spesso arroganti — sulla sicurezza. Si può costruire la miglior AI del mondo, ma se lasci un varco nel prompt, negli strumenti o nella gestione della sessione, hai appena messo un tappeto rosso per l’attaccante.

De Kai: Raising AI

L’AI non ha bisogno di genitori, ma di filosofi: perché l’etica digitale è troppo seria per lasciarla ai tecnologi

Se ogni generazione ha i suoi mostri, la nostra li programma. Ma invece di affrontare la questione con il rigore che richiederebbe l’ascesa di un’intelligenza artificiale generalizzata, sembriamo preferire metafore da manuale di psicologia infantile. Ecco quindi che De Kai, decano gentile del machine learning, ci propone il suo Raising AI come una guida alla genitorialità dell’algoritmo, una Bibbia digitale che ci invita a trattare ChatGPT e compagnia come bambini da educare. La tesi? L’AI va cresciuta con amore, empatia e valori universali. Peccato che i bambini veri non abbiano una GPU con 70 miliardi di parametri e non siano addestrati leggendo interi archivi di Reddit.

Parlare di AI come se fosse un neonato non è solo fuorviante, è pericolosamente consolatorio. Il paragone piace perché rassicura: se l’AI è un bambino, allora possiamo guidarla, plasmarla, correggerla. Ma la realtà è che l’AI non ha infanzia, non ha pubertà, non ha crisi adolescenziali. L’AI non cresce: esplode. E il salto tra GPT-3.5 e GPT-4.5 ce lo ricorda con brutalità industriale.

Quando il buio diventa superpotere: la cecità curata con un minerale raro il tellurio che vede anche l’invisibile

Diciamocelo subito: non è un’altra favoletta di biohacker o un press release farcito di “futuro” e promesse in perenne fase clinica. Questa volta, i cinesi non si sono limitati a restaurare la vista nei topi ciechi. L’hanno potenziata. E lo hanno fatto usando un minerale così raro e strategico che Wall Street non ha ancora deciso se farsene spaventare o investirci a occhi chiusi. Letteralmente.

Il protagonista? Il tellurio. Una parola che suona come un personaggio minore di un fumetto Marvel, e che invece è un metallo grigio-argenteo più raro del platino, un sottoprodotto della raffinazione del rame, e a quanto pare il materiale perfetto per costruire retine artificiali bioniche che vedono ciò che l’occhio umano non ha mai potuto. L’infrarosso. Il mondo degli invisibili.

Apple: La grande illusione del pensiero artificiale

C’era una volta l’illusione che bastasse aumentare i parametri di un modello per avvicinarlo al ragionamento umano. Poi arrivarono gli LRM, Large Reasoning Models, con il loro teatrino di “thinking traces” che mimano una mente riflessiva, argomentativa, quasi socratica. Ma dietro al sipario, il palcoscenico resta vuoto. Lo studio The Illusion of Thinking firmato da Shojaee, Mirzadeh e altri nomi illustri (tra cui l’onnipresente Samy Bengio) è una doccia fredda per chi sperava che la nuova generazione di AI potesse davvero pensare. Spoiler: no, non ci siamo ancora. Anzi, forse ci stiamo illudendo peggio di prima.

Moratoria AI: il senato USA blocca le leggi locali e spalanca le porte a big tech

Una moratoria decennale sulle leggi statali in materia di intelligenza artificiale non è semplicemente una misura di buon senso burocratico. È, in realtà, una clava politica che rischia di tagliare fuori ogni tentativo locale di regolamentare un settore ormai centrale nella nostra vita quotidiana. I senatori repubblicani del Comitato Commercio, nella loro ultima versione del mega pacchetto di bilancio del presidente Donald Trump, hanno inserito proprio questo: un blocco alle normative statali sull’AI. Un regalo dorato a Big Tech, mascherato da protezione della crescita economica e competitività americana. E mentre chi lo difende parla di “semplificazione normativa”, un numero crescente di legislatori e associazioni civiche grida al disastro, vedendo all’orizzonte l’azzeramento delle tutele per consumatori, lavoratori e persino bambini.

I modelli linguistici ora generano idee scientifiche migliori dei dottorandi medi

Se un tempo erano assistenti passivi per la scrittura, oggi i modelli linguistici di larga scala giocano un ruolo inquietantemente attivo: propongono ipotesi di ricerca, delineano esperimenti, prevedono impatti, e lo fanno con una precisione che comincia a mettere in discussione l’egemonia creativa dell’intelligenza umana.

Benvenuti nell’era dell’AI Idea Bench 2025, dove gli idea generator vengono testati come startup tech: non basta essere brillanti, serve colpire il problema giusto, offrire qualcosa di fresco, e sembrare almeno costruibili con le tecnologie esistenti.

Quanto può dimenticare un modello linguistico? Il lato oscuro della “memoria” delle AI

Cosa sa davvero un modello linguistico? E soprattutto: quanto dimentica — e quanto non dovrebbe ricordare? L’articolo “How Much Do Language Models Memorize?” di Morris et al. (2025), da poco pubblicato da un consorzio tra Meta FAIR, Google DeepMind e Cornell, si muove su un crinale inquietante tra informazione, privacy e un’ossessione tecnocratica per la misura della memoria algoritmica. Spoiler: non si tratta solo di quanti gigabyte processa GPT-4, ma di quanti bit conserva, silenziosamente, su ogni dato visto.

In un mondo in cui i modelli linguistici vengono addestrati su trilioni di token — testi che contengono sia la Divina Commedia che i post del tuo dentista — ci si chiede: se il modello genera esattamente la battuta che ho scritto in una chat privata cinque anni fa, è perché ha imparato a generalizzare… o l’ha memorizzata?

Intelligenza Artificiale a Dublino: tra sprechi digitali, orgoglio Irlandese e Metahumani troppo gentili

Se non l’avessero chiamato “Dublin Tech Summit”, l’avrebbero potuto chiamare senza remore “Dublin AI Summit”. Il motivo? L’intelligenza artificiale non era solo il tema principale: era l’atmosfera stessa dell’evento, la corrente elettrica nei corridoi, il rumore bianco nei panel. Non era più una tecnologia tra le altre, ma la tecnologia. Il punto fermo e il punto interrogativo allo stesso tempo.

Il summit, che avrebbe dovuto spaziare nel vasto firmamento della tecnologia, ha finito per ruotare come una stella binaria attorno a due soli: intelligenza artificiale generativa e sostenibilità energetica. Strano, a pensarci: l’IA è software, evanescente, un’entità digitale. Eppure, divora elettricità come un condizionatore impazzito in pieno agosto. Lo sappiamo bene adesso: 12 richieste a un sistema di GenAI equivalgono a 120 ricerche su Google. Un iPhone pienamente carico. E no, non è una metafora: è proprio il consumo energetico.

Pagina 3 di 136

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie