Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

La rivoluzione silenziosa delle onde di luce: così la Cina cerca il sorpasso quantico tra sanzioni e fotoni

Nel cuore pulsante della provincia di Jiangsu, a Wuxi, si muove qualcosa che non fa rumore. Nessun sibilo di elettroni, solo la danza silenziosa della luce su wafer di niobato di litio. Benvenuti nel futuro fotonico della Cina, dove CHIPX – una creatura semiaccademica nata dall’ecosistema tentacolare di Shanghai Jiao Tong University – ha appena acceso la macchina del tempo. O meglio, la macchina del sorpasso.

Siamo abituati a pensare ai chip come a microforeste di silicio, una geometria di transistor che obbedisce ai limiti della fisica classica. Eppure, in questo preciso momento, la Cina ha scelto un’altra via: quella dei chip fotonici, dove le informazioni viaggiano sotto forma di luce e non di elettroni, dove la velocità di elaborazione può toccare vette esoteriche, e dove l’Occidente, complice la propria arroganza sanzionatoria, rischia di restare al palo.

Meta si compra metà dell’intelligenza: Zuckerberg punta $15 miliardi su Scale AI per rincorrere l’AGI

C’è un momento, nella storia di ogni impero, in cui il suo sovrano sente che gli Dei stanno ridendo di lui. Mark Zuckerberg, dopo aver provato a reinventare il concetto di “mondo” con il Metaverso (fallendo nella realtà quanto lo ha fatto la Second Life del 2008), ha deciso che il futuro non è virtuale, ma cognitivo. Il nuovo feticcio della Silicon Valley si chiama AGI, intelligenza artificiale generale. E per raggiungerla, Meta ha deciso di firmare quello che è, secondo The Information, il più grosso assegno mai staccato fuori dalle proprie mura: quasi 15 miliardi di dollari per acquisire il 49% di Scale AI. Tradotto: Zuckerberg si compra quasi metà della benzina che alimenta l’industria dell’AI globale.

Italia, startup e intelligenza artificiale

C’è un’Italia che parla di intelligenza artificiale come se fosse a cena con Elon Musk e c’è un’altra Italia che, più realisticamente, cerca ancora di capire come configurare il Wi-Fi aziendale. In mezzo ci sono loro: le startup AI italiane, una fauna affascinante quanto rara, spesso invocata nei panel dei convegni con tono salvifico, ma ignorata dai capitali che contano.

Secondo Anitec-Assinform, metà delle oltre 600 imprese digitali innovative italiane si fregia dell’etichetta “AI-enabled”. Ma definirle startup di intelligenza artificiale è come dire che chi ha una Tesla è un esperto di energie rinnovabili. L’uso della tecnologia, nella maggior parte dei casi, è decorativo, marginale, ornamentale. Non guida, non decide, non cambia il modello di business. È là per fare scena, come un’insegna a LED su un ristorante vuoto.

EHDS: La salute digitale europea tra sogni algoritmici e burocratici

Benvenuti nel teatro dell’assurdo digitale europeo, dove il sogno di una sanità interconnessa e intelligente si scontra con la realtà di un mosaico normativo che farebbe impallidire persino Kafka. Nel cuore di questa pantomima c’è l’European Health Data Space (EHDS), un progetto che promette miracoli tecnologici – cartelle cliniche interoperabili, algoritmi predittivi, cure personalizzate – e invece consegna alla classe dirigente europea un guazzabuglio di piattaforme regionali in mano a aziende private spesso più interessate al business che al bene comune.

Immaginate di rompervi una gamba sulle Alpi francesi nel 2034. In teoria, l’ortopedico di Grenoble dovrebbe accedere alla vostra cartella clinica italiana in tempo reale, somministrarvi i farmaci giusti e aggiornare un algoritmo che previene future fratture. In pratica, buona fortuna. Le infrastrutture sono disgiunte, i protocolli blindati, i dati confinati in recinti nazionali blindati da egoismi burocratici che definire provinciali è un eufemismo. L’idea di una Federazione delle Repubbliche Sanitarie Regionali europee si infrange contro la realtà dei governi che preferiscono affidare la gestione a soggetti terzi — spesso poco trasparenti — e difendere il proprio orticello digitale come un’antica proprietà feudale.

Paramount, Disney e Apple: l’intelligenza artificiale non basta, lo streaming si ridisegna

Buon martedì, o come piace dire ai CFO in fuga, «giorno di svolte impreviste». In un mondo dove la tecnologia e il business si inseguono più velocemente di un aggiornamento di iOS, la giornata del 10 giugno 2025 si apre con un cocktail di movimenti aziendali degni di un thriller finanziario. Paramount perde il suo direttore finanziario, Disney stacca l’assegno da mezzo miliardo per chiudere il cerchio Hulu, Apple annuncia l’ennesima puntata del suo feuilleton sull’intelligenza artificiale, mentre le ombre di Warner Bros. Discovery si preparano a dividersi, e i razzi di Bezos si prendono una pausa imprevista.

Ilya Sutskever: Quando l’intelligenza artificiale guarda l’abisso e noi ci vediamo dentro

Toronto, palco celebrativo. Ilya Sutskever — uno dei padri fondatori della moderna intelligenza artificiale — riceve un’onorificenza che ha il retrogusto amaro della confessione pubblica. Non tanto per l’elogio accademico, ma per il sottotesto che trasuda da ogni parola: “accettare questo premio è stato doloroso”. Non è il solito vezzo da scienziato modesto. È un monito. O, meglio, una resa consapevole alla vertigine di ciò che abbiamo messo in moto.

Sutskever non è un profeta apocalittico, ma è colui che ha dato le chiavi del fuoco alle macchine. E adesso ci chiede di essere sobri, razionali e veloci. Non per aumentare la potenza computazionale, ma per restare in controllo. Ecco il punto: il controllo.

L’intelligenza artificiale nella PA italiana è un’illusione da procurement

In Italia anche l’intelligenza artificiale fa la fila, aspetta il suo turno, e spesso si ritrova in mano a funzionari che confondono una GPU con un acronimo del catasto. La recente indagine dell’Agenzia per l’Italia Digitale (AgID) suona come una radiografia dell’ennesima rivoluzione digitale annunciata, ma mai del tutto compresa. Titolo dell’operazione: “L’intelligenza Artificiale nella Pubblica Amministrazione”. Dietro la neutralità statistica dell’inchiesta, si cela una PA che tenta di aggrapparsi alla corrente dell’innovazione mentre arranca con zavorre fatte di burocrazia, consulenze esterne e KPI vaghi come le promesse elettorali.

Il censimento dei progetti IA ha coinvolto 108 organizzazioni pubbliche su 142 contattate, con 120 iniziative tracciate. Numeri apparentemente incoraggianti, che però si sgretolano sotto la lente di chi osserva il panorama non come un ottimista tecnologico, ma come un chirurgo delle inefficienze digitali. Solo 45 enti hanno davvero avviato progetti. Gli altri? Presumibilmente ancora impantanati nei comitati di valutazione, nei verbali, nelle richieste di pareri legali e nei flussi autorizzativi che scoraggerebbero persino una macchina a stati finiti.

L’algoritmo ha mangiato il giornale: il massacro silenzioso dei media nell’era del chatbot

La scena è questa: una redazione vuota, le luci ancora accese, le tastiere ferme. Sulle scrivanie, gli ultimi numeri stampati di un quotidiano digitale, ormai irrilevante. Là fuori, milioni di utenti digitano domande sui loro smartphone, ma le risposte non arrivano più dai giornalisti. Arrivano da una macchina. È l’era della post-search, e Google non è più un motore, ma un oracolo.

L’apocalisse silenziosa è cominciata con una frase: “Google is shifting from being a search engine to an answer engine.” Traduzione: cari editori, potete anche spegnere il modem.

La keyword che brucia è chatbot, con le sue sorelle semantiche traffico organico e AI generativa. In tre anni, secondo dati di Similarweb riportati dal Wall Street Journal, HuffPost ha perso più della metà del traffico proveniente da Google. Il Washington Post quasi altrettanto. Business Insider ha tagliato un quinto della forza lavoro. E no, Zuckerberg stavolta non c’entra. Il nemico è molto più vicino, e molto più silenzioso.

L’italia è pronta per un cloud e AI development act? Il paese delle nuvole cerca finalmente il suo cielo digitale

“Quando senti la parola ‘cloud’, guarda se piove.” Questa battuta, un po’ vecchia scuola ma mai fuori moda, descrive perfettamente la schizofrenia con cui l’Italia affronta il tema del digitale. Da un lato si moltiplicano convegni, task force e white paper che inneggiano all’Intelligenza Artificiale come alla nuova Rinascenza tecnologica italiana. Dall’altro, le PMI arrancano su server obsoleti, con una fibra che spesso è più ottica nei titoli dei bandi che nei cavi di rete. E allora, ci vuole davvero un Cloud e AI Development Act per traghettare il Bel Paese verso un futuro dove il digitale non sia più un miraggio ma una politica industriale concreta?

Il 2 febbraio 2025 segna un punto di svolta. L’entrata in vigore della prima fase dell’AI Act europeo segna un cambio di paradigma: chi sviluppa, distribuisce o adotta sistemi di intelligenza artificiale dovrà fare i conti non solo con algoritmi, ma anche con regolatori armati di sanzioni fino al 7% del fatturato globale. Niente male per un settore che si è mosso finora con l’agilità di un esperto in dark pattern più che con quella di un civil servant europeo.

Internet senza confini? Oltre la rivoluzione silenziosa della rete globale NAM2025 by Namex

C’è qualcosa di straordinario che sta accadendo sotto i nostri piedi e sopra le nostre teste. Non lo vediamo, ma ci avvolge ogni giorno. È l’evoluzione dell’Internet, un ecosistema che da sogno accademico è diventato infrastruttura critica della civiltà contemporanea. Non più solo strumento, ma vero e proprio tessuto connettivo dell’umanità. E NAM2025, il summit in programma l’11 giugno a Roma, nasce proprio per fare luce su questa trasformazione epocale, dove intelligenza artificiale, geopolitica, spazio e cavi sottomarini si intrecciano in uno scenario tanto complesso quanto affascinante.

Ren Zhengfei: Huawei e l’intelligenza artificiale: quando un chip di seconda mano può battere un mostro americano

Huawei, il colosso cinese delle telecomunicazioni che da anni è sotto l’occhio del ciclone geopolitico, ammette candidamente un fatto che fa tremare gli ingenui. I suoi chip Ascend, per quanto presentati come meraviglie della tecnologia, sono ancora “una generazione” dietro quelli statunitensi. Ma attenzione: non è la fine del mondo, né la resa incondizionata di Pechino alla supremazia tecnologica d’oltreoceano. Anzi, l’arte di arrangiarsi con metodi “non convenzionali” come stacking e clustering promette performance paragonabili ai giganti del settore. Una magia tutta cinese, fatta di impilamenti di chiplet brevettati che rendono il processore più compatto, più furbo, più scalabile.

Questa confessione arriva direttamente da Ren Zhengfei, il fondatore di Huawei, nel contesto di un’intervista di copertina sul People’s Daily, l’organo ufficiale del Partito Comunista. Primo a rompere il silenzio dopo il lancio di ChatGPT e la nuova ondata di sanzioni USA, Ren non si limita a una difesa d’ufficio. Non nasconde le difficoltà e riconosce che la tecnologia made in USA è “una generazione avanti”, ma rivendica con veemenza la capacità della Cina di colmare il gap con ingegnose soluzioni tecniche. E, soprattutto, sottolinea la forza di un ecosistema nazionale che ha ben altri vantaggi competitivi: centinaia di milioni di giovani, una rete elettrica robusta e una infrastruttura di telecomunicazioni che, a suo dire, è la più sviluppata al mondo.

IBM e Yale la sindrome da test fallito: perché continuiamo a misurare l’IA con il righello sbagliato

C’è qualcosa di fondamentalmente disonesto — o quantomeno anacronistico — nel modo in cui il settore tech insiste nel valutare gli AI agent. È come se pretendessimo di giudicare la performance di un pilota di Formula 1 sulla base della velocità media in un parcheggio. E nonostante l’accelerazione vertiginosa dell’Intelligenza Artificiale autonoma, siamo ancora lì, a discutere di benchmark come se stessimo valutando un modello statico di linguaggio.

Ecco perché il lavoro congiunto di IBM Research e Yale University, che ha esaminato oltre 120 metodi di valutazione degli agenti AI, è più che una mappatura tecnica: è una scossa sismica epistemologica. È il momento “Copernico” del testing AI. L’oggetto in esame — l’agente autonomo — non è più un corpus passivo da interrogare, ma un’entità dinamica che percepisce, agisce, riflette, talvolta sbaglia, e spesso impara.

Apple, l’impero del vetro liquido e le promesse AI dimenticate

La Silicon Valley ha un difetto: confonde il futuro con la demo. Ma Apple, campionessa mondiale del “coming soon”, sembra finalmente aver preso un respiro. Alla Worldwide Developers Conference 2025, l’azienda di Cupertino ha rinunciato alla corsa al superlativo per tornare al suo primo amore: la gestione del ritardo ben confezionato. E lo ha fatto in pieno stile Apple: interfacce levigate, nomi levigati, promesse levigate.

Lo scorso anno, Tim Cook e soci ci avevano promesso una Siri rivitalizzata, versioni AI di ogni cosa e una nuova era di intelligenza artificiale made in Cupertino. Quella “Apple Intelligence” doveva essere la risposta silenziosa ma potente all’invasione di ChatGPT e compagni. Un anno dopo, la verità è più semplice (e più deludente): nulla di tutto questo è ancora arrivato. Craig Federighi, volto lucido dell’ingegneria Apple, si è limitato a dire che “ci stiamo ancora lavorando” e che ne parleranno meglio il prossimo anno. Che, tradotto dal cupertinese, significa: non trattenete il respiro.

Nel frattempo, Apple ha deciso di distrarci con un colpo di scena semantico: la nuova estetica del suo sistema operativo si chiama Liquid Glass. Un nome che suona come un profumo da 300 euro ma che in realtà si traduce in icone più trasparenti, menù fluttuanti e una sensazione di freschezza visiva tutta da verificare sotto la luce blu del day-one. La funzione più innovativa? Potrebbero essere le finestre fluttuanti su iPad, una mossa che avvicina sempre più il tablet al MacBook, pur senza mai ammettere che il touchscreen sui portatili sarebbe utile, anzi fondamentale. Apple continua a dire “non lo faremo mai”, mentre ci porta lì un pixel alla volta.

La guerra invisibile dell’intelligenza artificiale al cuore dell’istruzione cinese

Non hanno usato manganelli, né droni. Ma un clic silenzioso ha oscurato le menti digitali più brillanti del Dragone. Alibaba, ByteDance, Tencent e Moonshot: giganti che nel silicio scolpiscono l’immaginario tecnologico cinese, si sono piegati di fronte a un nemico vecchio come il mondo — la voglia di barare all’esame.

Durante i giorni sacri del gaokao, l’imponente rito collettivo che decide il destino accademico (e spesso anche esistenziale) di oltre 13 milioni di studenti, le funzioni più sofisticate dei chatbot sono state messe in pausa. Non per guasti tecnici o aggiornamenti di sistema. Ma per paura che qualche diciottenne troppo sveglio potesse chiedere una foto al compagno più fidato del 2025: l’algoritmo.

OpenAI fa 10 miliardi, Meta spende 10 miliardi, Trump rimanda ancora: benvenuti nel reality show dell’intelligenza artificiale

Il silenzio non è mai casuale, specie quando OpenAI smette di twittare e comincia a incassare dieci miliardi di dollari all’anno in revenue ricorrente. Sì, dieci miliardi. L’equivalente del PIL di un microstato o della pazienza residua dell’industria legacy. La notizia è esplosa come un nuovo plugin di ChatGPT: silenziosa, ma letale. Il futuro dell’intelligenza artificiale non è più un campo sperimentale, ma un flusso di cassa. E soprattutto, un’arma geopolitica che vale più dell’uranio.

Mentre Sam Altman si toglie i guanti da startupper e si infila quelli da CEO d’acciaio, Microsoft gioca a Risiko e spara con i suoi Copilot in scala enterprise: 100.000 dipendenti Barclays armati di AI. È come dare la bomba atomica a un call center, ma con il sorriso della produttività. Il risultato? L’ufficio non è più un luogo, ma un’interfaccia. E chi non ha ancora capito che il software ora si aggiorna da solo, è semplicemente diventato obsoleto come i bottoni fisici sugli smartphone.

WWDC 2025 June 9 Apple

Apple intelligence in crisi d’identità, ma Tim Cook giura che tutto è sotto controllo

L’aria a Cupertino quest’anno è più elettrica del solito. Ma non nel senso buono. Quando il palco della WWDC 2025 si è acceso, l’energia non era quella trionfale di un impero in espansione, ma quella nervosa di un gigante che sa di essere osservato da troppo vicino. Le luci dello Steve Jobs Theater brillano, sì, ma non riescono a nascondere le ombre: quelle di un’intelligenza artificiale che si è fatta attendere troppo, di giudici federali che non si fanno più incantare dalle vetrine di Apple Park, e di una politica commerciale che inizia a mostrare il conto, da Washington a Pechino.

Apple Intelligence, l’ambiziosa scommessa annunciata l’anno scorso tra effetti speciali e promesse roboanti, oggi appare come un adolescente confuso che ha dimenticato cosa voleva diventare da grande. Doveva essere l’AI “personalizzata, privata e potente”. Quello che abbiamo visto, invece, è una creatura ibrida, impantanata tra modelli on-device limitati e una dipendenza poco dichiarata da ChatGPT, con la promessa implicita che “niente sarà inviato senza il tuo permesso” — il che, detto da una società sotto indagine antitrust, suona più come un patto tra cavalieri medievali che come una policy credibile.

Orsini (Confindustria): “Senza un piano per l’innovazione rischiamo il declino”

“Senza una visione concreta sull’innovazione oggi, rischiamo di pagare domani un prezzo altissimo”. Parole chiare e dirette quelle pronunciate da Emanuele Orsini, presidente di Confindustria, alla Festa dell’Innovazione organizzata da Il Foglio. In un contesto economico sempre più competitivo e accelerato dalla rivoluzione tecnologica, Orsini lancia un appello forte: serve un piano industriale straordinario di almeno tre anni che rimetta al centro l’industria e stimoli la crescita dell’Italia, oggi ancora troppo lenta nell’adozione dell’intelligenza artificiale e della digitalizzazione.

Sinner vince spesso perché sa perdere: anatomia di un’anomalia nel tempo degli imbattibili

È una frase che non ti aspetti in un’epoca drogata dal culto della vittoria, scolpita nei mantra da LinkedIn e dai TED Talk più imbarazzanti: “Perdere è un’opzione. Imparare a perdere, un superpotere.”
Jannik Sinner non è solo il numero uno del mondo. È un apostata del dogma moderno secondo cui solo chi non accetta la sconfitta può diventare grande.

Chi ha visto Sinner cadere – con la compostezza glaciale che fa impazzire le telecamere in cerca di un gesto isterico – sa che la sua forza non viene da un’ossessione per il trofeo. Ma dalla sua familiarità con il vuoto che resta dopo aver perso. Ed è lì, in quel silenzio, che Jannik ha costruito il suo arsenale invisibile.

Quando i robot diventano figli unici: il paradosso cinese dell’assistenza agli anziani

C’è qualcosa di profondamente poetico — e vagamente inquietante — nel fatto che la Cina, un paese plasmato per decenni dalla politica del figlio unico, si ritrovi ora a programmare androidi per accudire i propri anziani. Come se la Silicon Valley del Dragone stesse tentando di correggere, con servomeccanismi e intelligenze artificiali, le lacune biologiche di una demografia sempre più sbilanciata. Ma tranquilli: non è fantascienza. È politica industriale, e pure parecchio concreta.

Il nuovo programma pilota lanciato congiuntamente dal Ministero dell’Industria e dell’Informazione e dal Ministero degli Affari Civili cinese prevede l’inserimento massiccio di robot per l’assistenza agli anziani. Sì, avete letto bene: badanti a circuito integrato, caregiver con sensori Lidar, compagni di vita con algoritmo di riconoscimento emotivo. Non è un nuovo anime giapponese, è il piano strategico della seconda economia mondiale per sopravvivere a se stessa. E non è un caso che il Giappone — eterno fratello-rivale nell’arena della senilizzazione — sia già da tempo sulla stessa strada.

GSM8K, LLM, il re è nudo: Apple smonta il mito del ragionamento matematico

C’è qualcosa di profondamente sbagliato nella maniera in cui valutiamo l’intelligenza artificiale, e Apple — sì, proprio Apple — ha appena scoperchiato il vaso di Pandora dell’autocompiacimento algoritmico. Niente Keynote, niente scenografie minimaliste da Silicon Valley, ma una bomba scientifica che mina il cuore stesso della narrativa dominante: i Large Language Models, osannati come nuovi oracoli logici, sono in realtà più illusionisti che matematici. E il trucco, come sempre, è tutto nei dettagli.

La scena del crimine si chiama GSM8K, una benchmark ormai celebre tra i cultori del deep learning. Una collezione di problemini da scuola elementare usata per valutare quanto un modello sappia ragionare “formalmente”. Ma come ogni quiz scolastico, anche GSM8K ha un punto debole: più lo usi, più diventa prevedibile. E gli LLM, che sono addestrati su miliardi di dati, imparano non a ragionare, ma a riconoscere pattern. Una differenza sottile, ma cruciale.

Fatevi avanti. Oppure non lamentatevi del risultato

Targeted stakeholder consultation on classification of AI systems as high-risk

All’inizio sembrava un’utopia normativa, quasi un esercizio di stile per giuristi in cerca di protagonismo. L’Artificial Intelligence Act è entrato in vigore (1° agosto 2024) e – sorpresa – l’Unione Europea fa sul serio. Ma come spesso accade a Bruxelles, quando si cerca di normare il futuro con l’ossessione del rischio, si rischia di amputare l’innovazione con il bisturi della burocrazia. E in questa nuova fase, quella della consultazione mirata sui sistemi di IA ad alto rischio, il destino tecnologico europeo si gioca in un equilibrio perverso tra tutela e paralisi.

AI Agent Protocols inside its brain

Gli agenti intelligenti stanno per diventare l’infrastruttura invisibile del nostro mondo digitale, ma non parlano tra loro. Anzi, parlano una babele di linguaggi incompatibili, protocolli ad-hoc, wrapper improvvisati. È come se l’AI stesse reinventando il modem 56k ogni settimana.

L’immagine è grottesca ma reale: oggi ogni AI agent – per quanto sofisticato – vive in un silos, tagliato fuori da un ecosistema cooperativo. Nessuno direbbe che Internet sarebbe mai esploso senza TCP/IP. Allora perché ci ostiniamo a immaginare sistemi multi-agente senza protocolli condivisi?

Vitruvian Smart, il modello che pensa prima di rispondere e domina la cultura italiana

Quando si parla di modelli di linguaggio di intelligenza artificiale, il più delle volte si immagina un gigante iper-tecnologico, forse americano o cinese, ma raramente si pensa a un prodotto italiano capace di competere davvero su scala globale. E invece, eccoci qui: Vitruvian Smart, un modello LLM da 12 miliardi di parametri sviluppato da ASC27, che non solo “sa parlare” italiano, ma si impone come una specie di campione nel comprendere la cultura italiana, grazie a un benchmark tutto nostrano, ItalicBench, curato da CRISP presso l’Università Milano Bicocca.

ItalicBench research non è un semplice test. È un giudice severo, una sfida diretta a verificare quanto i modelli di linguaggio possano non solo comprendere la lingua italiana, ma anche maneggiare con destrezza riferimenti culturali, contesti storici, sfumature sociali e tutto quel background che rende la nostra cultura così stratificata e complessa. È come chiedere a un intellettuale digitale di sapere non solo i vocaboli, ma anche il perché di certi gesti, di certi modi di dire, e di quella saggezza popolare che spesso sfugge agli algoritmi più spavaldi.

Cina, l’algoritmo imperfetto: come Pechino sta rovesciando l’architettura binaria con un chip che non segue le regole

Immaginate un cervello che non ragiona più solo in 0 e 1, ma anche in forse, chissà, probabilmente. Per decenni, l’informatica è stata una religione binaria, fondata sull’assioma del “sì o no”, “vero o falso”, “0 o 1”. Adesso, dalla Cina, arriva un’eresia. Un chip non-binario, un ibrido tra l’efficienza spietata del silicio e la mollezza stocastica della probabilità. Una via di mezzo tra il calcolo deterministico e il caos quantistico. Con buona pace di Turing, Von Neumann e – sì – del Dipartimento del Commercio degli Stati Uniti.

Non è una provocazione teorica. È un’applicazione industriale su larga scala. Il primo al mondo. Ed è cinese.

Dietro il colpo di teatro c’è il professor Li Hongge della Beihang University, che ha orchestrato la mossa in pieno stile go – il gioco da tavolo orientale che privilegia la strategia lenta, le mosse indirette, il controllo degli spazi vuoti. La sua arma segreta? Un sistema numerico chiamato Hybrid Stochastic Number (HSN). Un matrimonio poco ortodosso tra numeri binari e logica probabilistica. L’obiettivo? Scavalcare due ostacoli architettonici che da anni tengono in ostaggio il progresso del computing: il power wall e l’architecture wall.

Meta e Scale AI, il matrimonio da 10 miliardi che cambierà l’intelligenza artificiale più della tua prossima terapia di coppia

Immagina che Mark Zuckerberg si presenti a un summit militare con una versione “patriottica” del suo chatbot Llama, addestrato non con meme di Instagram ma con scenari da guerra elettronica. Aggiungi a questo un assegno potenziale da oltre 10 miliardi di dollari per una startup che fino a ieri sistemava dataset come uno stagista ossessivo-compulsivo, e hai il quadro surreale — ma del tutto reale — di quello che sta succedendo tra Meta e Scale AI.

In un’epoca in cui le Big Tech fingono ancora di voler salvare il mondo mentre fanno accordi da retrobottega con il Pentagono, Meta ha deciso di uscire allo scoperto, abbracciando Scale AI come il partner perfetto per la sua visione di un’AI che non solo parla fluentemente millennial, ma può anche indossare un elmetto da combattimento.

Il capitalismo dello sguardo: perché Sam Altman vuole scannerizzarti l’iride nei centri commerciali britannici

Londra, primavera 2025. Mentre il Regno Unito si prepara all’ennesimo reboot politico tra intelligenza artificiale e distopia quotidiana, una novità luccicante spunta all’orizzonte urbano: un globo metallico, lucido, vagamente alieno, ti invita ad “autenticarti”. Non con password, né con documenti. Ti chiede solo… gli occhi. O meglio, l’iride.

La macchina si chiama Orb, la società che la distribuisce Tools for Humanity. Nome ironico per un progetto tecnocratico. Dietro le quinte, l’onnipresente Sam Altman, CEO di OpenAI, e il co-fondatore Alex Blania. Non bastava ChatGPT a rivoluzionare il pensiero umano, adesso l’obiettivo è mappare chi è effettivamente umano. Non in senso filosofico — Dio ci salvi da Kant — ma in senso biometricamente verificabile.

Cudis sfida la morte con un anello smart: salute, AI e token su Solana

L’ossessione per la longevità si è trasformata da sogno californiano a core business globale, e qualcuno sta cercando di monetizzare ogni respiro. Cudis, startup losangelina nata nel 2023, si lancia con disinvoltura in una delle scommesse più audaci del nostro tempo: trasformare le buone abitudini salutari in una moneta digitale scambiabile. No, non è Black Mirror. È un anello. Uno smart ring con intelligenza artificiale e incentivi cripto, abbinato a un’app che promette di allungarti la vita—o almeno il ROI.

Mentre i dati biometrici diventano la nuova valuta del secolo, Cudis si è infilata al dito il futuro del wellness, con un anello di design sobrio che monitora sonno, stress, attività e calorie bruciate. La versione 2.0 della sua wearable tech si collega a un’applicazione che sembra aver capito una cosa fondamentale: la maggior parte delle persone non vuole diventare un medico, vuole solo sapere se dorme male perché ha scrollato TikTok fino alle 2 o se è tempo di chiamare il fisioterapista.

Calvin 40 è nato senza testa, ma potrebbe diventare il padrone delle fabbriche

C’è qualcosa di vagamente biblico, o meglio startup-esoterico, nel battezzare Calvin 40 un robot costruito in quaranta giorni. In una Parigi post-Olimpiadi 2024, dove Wandehttps://en.wandercraft.eu/calvin-40rcraft aveva già fatto scalpore facendo camminare un paraplegico grazie al suo esoscheletro, oggi si gioca una partita molto diversa: entrare nell’arena spietata della robotica umanoide industriale. Con un robot acefalo, privo di mani, ma capace di sollevare quasi il doppio del peso dei suoi concorrenti più chiacchierati come Tesla Optimus o Figure AI.

Non è una provocazione, è strategia pura. Mentre i big tech americani e le start-up cinesi inseguono l’estetica antropomorfa, Wandercraft getta nella mischia un cyborg senza volto, spogliato degli orpelli emotivi e concentrato solo sulla fisica. “La testa non serve per navigare,” dice senza mezzi termini il CEO Matthieu Masselin, con un tono che sembra voler tagliare il cordone ombelicale tra la robotica e il fantasma dell’antropocentrismo. “Le mani sono fragili,” aggiunge, facendo crollare decenni di ricerca su attuatori prensili e feedback tattile in un solo colpo di swipe.

Palo Alto Networks ha appena hackerato gli agenti AI. Ecco cosa ci hanno insegnato

Palo Alto Networks, il colosso mondiale della cybersecurity, ha appena portato all’esame del fuoco gli agenti AI con un esperimento che sembra uscito da un thriller tech. Non si è trattato di un semplice attacco, ma di una simulazione reale su due agenti identici, speculari in compiti e strumenti, ma diversi nel framework: uno basato su CrewAI, l’altro su Microsoft AutoGen. Risultato? Entrambi hanno fatto flop clamoroso.

Questa caduta degli dei digitali insegna una verità che i più sognano di ignorare: non è il framework a proteggerti, ma la tua architettura, il tuo design, e soprattutto le tue supposizioni — spesso arroganti — sulla sicurezza. Si può costruire la miglior AI del mondo, ma se lasci un varco nel prompt, negli strumenti o nella gestione della sessione, hai appena messo un tappeto rosso per l’attaccante.

De Kai: Raising AI

L’AI non ha bisogno di genitori, ma di filosofi: perché l’etica digitale è troppo seria per lasciarla ai tecnologi

Se ogni generazione ha i suoi mostri, la nostra li programma. Ma invece di affrontare la questione con il rigore che richiederebbe l’ascesa di un’intelligenza artificiale generalizzata, sembriamo preferire metafore da manuale di psicologia infantile. Ecco quindi che De Kai, decano gentile del machine learning, ci propone il suo Raising AI come una guida alla genitorialità dell’algoritmo, una Bibbia digitale che ci invita a trattare ChatGPT e compagnia come bambini da educare. La tesi? L’AI va cresciuta con amore, empatia e valori universali. Peccato che i bambini veri non abbiano una GPU con 70 miliardi di parametri e non siano addestrati leggendo interi archivi di Reddit.

Parlare di AI come se fosse un neonato non è solo fuorviante, è pericolosamente consolatorio. Il paragone piace perché rassicura: se l’AI è un bambino, allora possiamo guidarla, plasmarla, correggerla. Ma la realtà è che l’AI non ha infanzia, non ha pubertà, non ha crisi adolescenziali. L’AI non cresce: esplode. E il salto tra GPT-3.5 e GPT-4.5 ce lo ricorda con brutalità industriale.

Quando il buio diventa superpotere: la cecità curata con un minerale raro il tellurio che vede anche l’invisibile

Diciamocelo subito: non è un’altra favoletta di biohacker o un press release farcito di “futuro” e promesse in perenne fase clinica. Questa volta, i cinesi non si sono limitati a restaurare la vista nei topi ciechi. L’hanno potenziata. E lo hanno fatto usando un minerale così raro e strategico che Wall Street non ha ancora deciso se farsene spaventare o investirci a occhi chiusi. Letteralmente.

Il protagonista? Il tellurio. Una parola che suona come un personaggio minore di un fumetto Marvel, e che invece è un metallo grigio-argenteo più raro del platino, un sottoprodotto della raffinazione del rame, e a quanto pare il materiale perfetto per costruire retine artificiali bioniche che vedono ciò che l’occhio umano non ha mai potuto. L’infrarosso. Il mondo degli invisibili.

Apple: La grande illusione del pensiero artificiale

C’era una volta l’illusione che bastasse aumentare i parametri di un modello per avvicinarlo al ragionamento umano. Poi arrivarono gli LRM, Large Reasoning Models, con il loro teatrino di “thinking traces” che mimano una mente riflessiva, argomentativa, quasi socratica. Ma dietro al sipario, il palcoscenico resta vuoto. Lo studio The Illusion of Thinking firmato da Shojaee, Mirzadeh e altri nomi illustri (tra cui l’onnipresente Samy Bengio) è una doccia fredda per chi sperava che la nuova generazione di AI potesse davvero pensare. Spoiler: no, non ci siamo ancora. Anzi, forse ci stiamo illudendo peggio di prima.

Moratoria AI: il senato USA blocca le leggi locali e spalanca le porte a big tech

Una moratoria decennale sulle leggi statali in materia di intelligenza artificiale non è semplicemente una misura di buon senso burocratico. È, in realtà, una clava politica che rischia di tagliare fuori ogni tentativo locale di regolamentare un settore ormai centrale nella nostra vita quotidiana. I senatori repubblicani del Comitato Commercio, nella loro ultima versione del mega pacchetto di bilancio del presidente Donald Trump, hanno inserito proprio questo: un blocco alle normative statali sull’AI. Un regalo dorato a Big Tech, mascherato da protezione della crescita economica e competitività americana. E mentre chi lo difende parla di “semplificazione normativa”, un numero crescente di legislatori e associazioni civiche grida al disastro, vedendo all’orizzonte l’azzeramento delle tutele per consumatori, lavoratori e persino bambini.

I modelli linguistici ora generano idee scientifiche migliori dei dottorandi medi

Se un tempo erano assistenti passivi per la scrittura, oggi i modelli linguistici di larga scala giocano un ruolo inquietantemente attivo: propongono ipotesi di ricerca, delineano esperimenti, prevedono impatti, e lo fanno con una precisione che comincia a mettere in discussione l’egemonia creativa dell’intelligenza umana.

Benvenuti nell’era dell’AI Idea Bench 2025, dove gli idea generator vengono testati come startup tech: non basta essere brillanti, serve colpire il problema giusto, offrire qualcosa di fresco, e sembrare almeno costruibili con le tecnologie esistenti.

Quanto può dimenticare un modello linguistico? Il lato oscuro della “memoria” delle AI

Cosa sa davvero un modello linguistico? E soprattutto: quanto dimentica — e quanto non dovrebbe ricordare? L’articolo “How Much Do Language Models Memorize?” di Morris et al. (2025), da poco pubblicato da un consorzio tra Meta FAIR, Google DeepMind e Cornell, si muove su un crinale inquietante tra informazione, privacy e un’ossessione tecnocratica per la misura della memoria algoritmica. Spoiler: non si tratta solo di quanti gigabyte processa GPT-4, ma di quanti bit conserva, silenziosamente, su ogni dato visto.

In un mondo in cui i modelli linguistici vengono addestrati su trilioni di token — testi che contengono sia la Divina Commedia che i post del tuo dentista — ci si chiede: se il modello genera esattamente la battuta che ho scritto in una chat privata cinque anni fa, è perché ha imparato a generalizzare… o l’ha memorizzata?

Intelligenza Artificiale a Dublino: tra sprechi digitali, orgoglio Irlandese e Metahumani troppo gentili

Se non l’avessero chiamato “Dublin Tech Summit”, l’avrebbero potuto chiamare senza remore “Dublin AI Summit”. Il motivo? L’intelligenza artificiale non era solo il tema principale: era l’atmosfera stessa dell’evento, la corrente elettrica nei corridoi, il rumore bianco nei panel. Non era più una tecnologia tra le altre, ma la tecnologia. Il punto fermo e il punto interrogativo allo stesso tempo.

Il summit, che avrebbe dovuto spaziare nel vasto firmamento della tecnologia, ha finito per ruotare come una stella binaria attorno a due soli: intelligenza artificiale generativa e sostenibilità energetica. Strano, a pensarci: l’IA è software, evanescente, un’entità digitale. Eppure, divora elettricità come un condizionatore impazzito in pieno agosto. Lo sappiamo bene adesso: 12 richieste a un sistema di GenAI equivalgono a 120 ricerche su Google. Un iPhone pienamente carico. E no, non è una metafora: è proprio il consumo energetico.

Un caffè al Bar dei Daini mentre l’intelligenza artificiale si fa il lifting e Jannik Sinner inizia l’era post-umani

Roland Garros 2025. Cielo plumbeo sopra Parigi, come sempre quando la Storia si prepara ad aprire il sipario. Sotto l’arco ottocentesco del Philippe Chatrier, Jannik Sinner e Carlos Alcaraz si affrontano in una finale Slam che profuma di anni ’20, ma non quelli delle Charleston: questi sono anni algoritmici, in cui anche il tennis sta mutando codice genetico. E mentre noi ci sediamo al “bar dei daini” – caffè tiepido, croissant bruciato – le placide cronache sportive si fondono con un mondo in fiamme: tra liti pubbliche tra Musk e Trump, superbebé da 5.999 dollari e robot con più tatto dei corrieri Amazon.

Ci vuole un certo addestramento cognitivo per reggere la timeline attuale.

La finale tra Sinner e Alcaraz è l’antitesi della post-verità digitale. Due corpi reali, due nervi tesi, due cervelli biologici che giocano su terra rossa e non tra server farm e prompt ingegnerizzati. Il loro scontro è primitivo e avanguardistico, una lotta darwiniana tra due generazioni cresciute a pane e analytics. Un po’ come se Kasparov sfidasse AlphaZero, ma con la compostezza di un’epoca in cui i campioni avevano il volto sudato, non un avatar.

Un algoritmo chiamato America: l’idiozia bipartisan di sospendere la regolazione dell’AI per dieci anni

Nel grande circo americano dove i partiti si azzuffano per ogni singola virgola, c’è qualcosa che li unisce: l’incapacità di capire davvero cosa sia l’intelligenza artificiale. L’ultima trovata arriva da un’area particolarmente creativa del Partito Repubblicano, dove un emendamento inserito con chirurgica insensatezza nella proposta di riduzione fiscale sponsorizzata da Donald Trump vorrebbe impedire agli stati americani di regolamentare l’AI per i prossimi dieci anni. Dieci. Un’eternità, se parliamo di modelli che evolvono ogni tre mesi.

La NATO prova a contare i fantasmi: guerra di parole, guerra d’ombre

C’è una guerra che non si combatte coi droni, né con carri Leopard: si combatte con gli engagement. E la Nato, o meglio il suo Strategic Communications Centre of Excellence (un nome che sembra uscito da un seminario aziendale del 2012), ha appena pubblicato il Virtual Manipulation Brief 2025, un’analisi che assomiglia più a una radiografia dell’invisibile che a un rapporto di intelligence classico. Qui non si cercano carri armati, si cercano pattern. Coordinamenti sospetti. Narrativi convergenti. Troll vestiti da patrioti.

E i numeri fanno male. Il 7,9% delle interazioni analizzate mostrano chiari segnali di coordinamento ostile. Non stiamo parlando di un paio di bot russi nostalgici di Stalin che si retwittano a vicenda, ma di una sinfonia digitale ben orchestrata, che attraversa dieci piattaforme diverse – non solo X (che ormai è diventato l’equivalente social di una vecchia radio a onde corte), ma anche YouTube, Telegram, Facebook, Instagram e altre tane più oscure dove l’informazione diventa disinformazione e viceversa.

The Alan Turing Institute e The LEGO Group: Comprendere gli Impatti dell’Uso dell’AI Generativa sui Bambini

Understanding the Impacts of Generative AI Use on Children

C’erano una volta i mattoncini colorati. Poi vennero i prompt.

Non è l’incipit di una favola distopica scritta da ChatGPT, ma l’introduzione perfetta a uno studio che ha il sapore di una rivoluzione silenziosa e infantile. Il fatto che a firmarlo siano due nomi apparentemente incompatibili come The Alan Turing Institute e The LEGO Group è già di per sé un indizio potente: qualcosa si è rotto. O forse si è montato storto, come quando un bambino prova a forzare due pezzi incompatibili.

Questa indagine, che si è presa il lusso di interpellare oltre 1.700 bambini, genitori e insegnanti nel Regno Unito, è un sismografo etico e culturale. Ma a differenza dei classici report su chip, modelli LLM o disoccupazione da automazione, questo guarda direttamente negli occhi il nostro futuro: i bambini. E pone la domanda che tutti stanno evitando perché fa più paura di un algoritmo che scrive poesie: che razza di esseri umani cresceranno in un mondo dove l’intelligenza artificiale non è più un’eccezione, ma una compagna di giochi quotidiana?

Pagina 6 di 139

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie