Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Redazione Pagina 28 di 91

Ren Zhengfei: Huawei e l’intelligenza artificiale: quando un chip di seconda mano può battere un mostro americano

Huawei, il colosso cinese delle telecomunicazioni che da anni è sotto l’occhio del ciclone geopolitico, ammette candidamente un fatto che fa tremare gli ingenui. I suoi chip Ascend, per quanto presentati come meraviglie della tecnologia, sono ancora “una generazione” dietro quelli statunitensi. Ma attenzione: non è la fine del mondo, né la resa incondizionata di Pechino alla supremazia tecnologica d’oltreoceano. Anzi, l’arte di arrangiarsi con metodi “non convenzionali” come stacking e clustering promette performance paragonabili ai giganti del settore. Una magia tutta cinese, fatta di impilamenti di chiplet brevettati che rendono il processore più compatto, più furbo, più scalabile.

Questa confessione arriva direttamente da Ren Zhengfei, il fondatore di Huawei, nel contesto di un’intervista di copertina sul People’s Daily, l’organo ufficiale del Partito Comunista. Primo a rompere il silenzio dopo il lancio di ChatGPT e la nuova ondata di sanzioni USA, Ren non si limita a una difesa d’ufficio. Non nasconde le difficoltà e riconosce che la tecnologia made in USA è “una generazione avanti”, ma rivendica con veemenza la capacità della Cina di colmare il gap con ingegnose soluzioni tecniche. E, soprattutto, sottolinea la forza di un ecosistema nazionale che ha ben altri vantaggi competitivi: centinaia di milioni di giovani, una rete elettrica robusta e una infrastruttura di telecomunicazioni che, a suo dire, è la più sviluppata al mondo.

IBM e Yale la sindrome da test fallito: perché continuiamo a misurare l’IA con il righello sbagliato

C’è qualcosa di fondamentalmente disonesto — o quantomeno anacronistico — nel modo in cui il settore tech insiste nel valutare gli AI agent. È come se pretendessimo di giudicare la performance di un pilota di Formula 1 sulla base della velocità media in un parcheggio. E nonostante l’accelerazione vertiginosa dell’Intelligenza Artificiale autonoma, siamo ancora lì, a discutere di benchmark come se stessimo valutando un modello statico di linguaggio.

Ecco perché il lavoro congiunto di IBM Research e Yale University, che ha esaminato oltre 120 metodi di valutazione degli agenti AI, è più che una mappatura tecnica: è una scossa sismica epistemologica. È il momento “Copernico” del testing AI. L’oggetto in esame — l’agente autonomo — non è più un corpus passivo da interrogare, ma un’entità dinamica che percepisce, agisce, riflette, talvolta sbaglia, e spesso impara.

Apple, l’impero del vetro liquido e le promesse AI dimenticate

La Silicon Valley ha un difetto: confonde il futuro con la demo. Ma Apple, campionessa mondiale del “coming soon”, sembra finalmente aver preso un respiro. Alla Worldwide Developers Conference 2025, l’azienda di Cupertino ha rinunciato alla corsa al superlativo per tornare al suo primo amore: la gestione del ritardo ben confezionato. E lo ha fatto in pieno stile Apple: interfacce levigate, nomi levigati, promesse levigate.

Lo scorso anno, Tim Cook e soci ci avevano promesso una Siri rivitalizzata, versioni AI di ogni cosa e una nuova era di intelligenza artificiale made in Cupertino. Quella “Apple Intelligence” doveva essere la risposta silenziosa ma potente all’invasione di ChatGPT e compagni. Un anno dopo, la verità è più semplice (e più deludente): nulla di tutto questo è ancora arrivato. Craig Federighi, volto lucido dell’ingegneria Apple, si è limitato a dire che “ci stiamo ancora lavorando” e che ne parleranno meglio il prossimo anno. Che, tradotto dal cupertinese, significa: non trattenete il respiro.

Nel frattempo, Apple ha deciso di distrarci con un colpo di scena semantico: la nuova estetica del suo sistema operativo si chiama Liquid Glass. Un nome che suona come un profumo da 300 euro ma che in realtà si traduce in icone più trasparenti, menù fluttuanti e una sensazione di freschezza visiva tutta da verificare sotto la luce blu del day-one. La funzione più innovativa? Potrebbero essere le finestre fluttuanti su iPad, una mossa che avvicina sempre più il tablet al MacBook, pur senza mai ammettere che il touchscreen sui portatili sarebbe utile, anzi fondamentale. Apple continua a dire “non lo faremo mai”, mentre ci porta lì un pixel alla volta.

La guerra invisibile dell’intelligenza artificiale al cuore dell’istruzione cinese

Non hanno usato manganelli, né droni. Ma un clic silenzioso ha oscurato le menti digitali più brillanti del Dragone. Alibaba, ByteDance, Tencent e Moonshot: giganti che nel silicio scolpiscono l’immaginario tecnologico cinese, si sono piegati di fronte a un nemico vecchio come il mondo — la voglia di barare all’esame.

Durante i giorni sacri del gaokao, l’imponente rito collettivo che decide il destino accademico (e spesso anche esistenziale) di oltre 13 milioni di studenti, le funzioni più sofisticate dei chatbot sono state messe in pausa. Non per guasti tecnici o aggiornamenti di sistema. Ma per paura che qualche diciottenne troppo sveglio potesse chiedere una foto al compagno più fidato del 2025: l’algoritmo.

OpenAI fa 10 miliardi, Meta spende 10 miliardi, Trump rimanda ancora: benvenuti nel reality show dell’intelligenza artificiale

Il silenzio non è mai casuale, specie quando OpenAI smette di twittare e comincia a incassare dieci miliardi di dollari all’anno in revenue ricorrente. Sì, dieci miliardi. L’equivalente del PIL di un microstato o della pazienza residua dell’industria legacy. La notizia è esplosa come un nuovo plugin di ChatGPT: silenziosa, ma letale. Il futuro dell’intelligenza artificiale non è più un campo sperimentale, ma un flusso di cassa. E soprattutto, un’arma geopolitica che vale più dell’uranio.

Mentre Sam Altman si toglie i guanti da startupper e si infila quelli da CEO d’acciaio, Microsoft gioca a Risiko e spara con i suoi Copilot in scala enterprise: 100.000 dipendenti Barclays armati di AI. È come dare la bomba atomica a un call center, ma con il sorriso della produttività. Il risultato? L’ufficio non è più un luogo, ma un’interfaccia. E chi non ha ancora capito che il software ora si aggiorna da solo, è semplicemente diventato obsoleto come i bottoni fisici sugli smartphone.

WWDC 2025 June 9 Apple

Apple intelligence in crisi d’identità, ma Tim Cook giura che tutto è sotto controllo

L’aria a Cupertino quest’anno è più elettrica del solito. Ma non nel senso buono. Quando il palco della WWDC 2025 si è acceso, l’energia non era quella trionfale di un impero in espansione, ma quella nervosa di un gigante che sa di essere osservato da troppo vicino. Le luci dello Steve Jobs Theater brillano, sì, ma non riescono a nascondere le ombre: quelle di un’intelligenza artificiale che si è fatta attendere troppo, di giudici federali che non si fanno più incantare dalle vetrine di Apple Park, e di una politica commerciale che inizia a mostrare il conto, da Washington a Pechino.

Apple Intelligence, l’ambiziosa scommessa annunciata l’anno scorso tra effetti speciali e promesse roboanti, oggi appare come un adolescente confuso che ha dimenticato cosa voleva diventare da grande. Doveva essere l’AI “personalizzata, privata e potente”. Quello che abbiamo visto, invece, è una creatura ibrida, impantanata tra modelli on-device limitati e una dipendenza poco dichiarata da ChatGPT, con la promessa implicita che “niente sarà inviato senza il tuo permesso” — il che, detto da una società sotto indagine antitrust, suona più come un patto tra cavalieri medievali che come una policy credibile.

Sinner vince spesso perché sa perdere: anatomia di un’anomalia nel tempo degli imbattibili

È una frase che non ti aspetti in un’epoca drogata dal culto della vittoria, scolpita nei mantra da LinkedIn e dai TED Talk più imbarazzanti: “Perdere è un’opzione. Imparare a perdere, un superpotere.”
Jannik Sinner non è solo il numero uno del mondo. È un apostata del dogma moderno secondo cui solo chi non accetta la sconfitta può diventare grande.

Chi ha visto Sinner cadere – con la compostezza glaciale che fa impazzire le telecamere in cerca di un gesto isterico – sa che la sua forza non viene da un’ossessione per il trofeo. Ma dalla sua familiarità con il vuoto che resta dopo aver perso. Ed è lì, in quel silenzio, che Jannik ha costruito il suo arsenale invisibile.

Fatevi avanti. Oppure non lamentatevi del risultato

Targeted stakeholder consultation on classification of AI systems as high-risk

All’inizio sembrava un’utopia normativa, quasi un esercizio di stile per giuristi in cerca di protagonismo. L’Artificial Intelligence Act è entrato in vigore (1° agosto 2024) e – sorpresa – l’Unione Europea fa sul serio. Ma come spesso accade a Bruxelles, quando si cerca di normare il futuro con l’ossessione del rischio, si rischia di amputare l’innovazione con il bisturi della burocrazia. E in questa nuova fase, quella della consultazione mirata sui sistemi di IA ad alto rischio, il destino tecnologico europeo si gioca in un equilibrio perverso tra tutela e paralisi.

AI Agent Protocols inside its brain

Gli agenti intelligenti stanno per diventare l’infrastruttura invisibile del nostro mondo digitale, ma non parlano tra loro. Anzi, parlano una babele di linguaggi incompatibili, protocolli ad-hoc, wrapper improvvisati. È come se l’AI stesse reinventando il modem 56k ogni settimana.

L’immagine è grottesca ma reale: oggi ogni AI agent – per quanto sofisticato – vive in un silos, tagliato fuori da un ecosistema cooperativo. Nessuno direbbe che Internet sarebbe mai esploso senza TCP/IP. Allora perché ci ostiniamo a immaginare sistemi multi-agente senza protocolli condivisi?

Vitruvian Smart, il modello che pensa prima di rispondere e domina la cultura italiana

Quando si parla di modelli di linguaggio di intelligenza artificiale, il più delle volte si immagina un gigante iper-tecnologico, forse americano o cinese, ma raramente si pensa a un prodotto italiano capace di competere davvero su scala globale. E invece, eccoci qui: Vitruvian Smart, un modello LLM da 12 miliardi di parametri sviluppato da ASC27, che non solo “sa parlare” italiano, ma si impone come una specie di campione nel comprendere la cultura italiana, grazie a un benchmark tutto nostrano, ItalicBench, curato da CRISP presso l’Università Milano Bicocca.

ItalicBench research non è un semplice test. È un giudice severo, una sfida diretta a verificare quanto i modelli di linguaggio possano non solo comprendere la lingua italiana, ma anche maneggiare con destrezza riferimenti culturali, contesti storici, sfumature sociali e tutto quel background che rende la nostra cultura così stratificata e complessa. È come chiedere a un intellettuale digitale di sapere non solo i vocaboli, ma anche il perché di certi gesti, di certi modi di dire, e di quella saggezza popolare che spesso sfugge agli algoritmi più spavaldi.

Cina, l’algoritmo imperfetto: come Pechino sta rovesciando l’architettura binaria con un chip che non segue le regole

Immaginate un cervello che non ragiona più solo in 0 e 1, ma anche in forse, chissà, probabilmente. Per decenni, l’informatica è stata una religione binaria, fondata sull’assioma del “sì o no”, “vero o falso”, “0 o 1”. Adesso, dalla Cina, arriva un’eresia. Un chip non-binario, un ibrido tra l’efficienza spietata del silicio e la mollezza stocastica della probabilità. Una via di mezzo tra il calcolo deterministico e il caos quantistico. Con buona pace di Turing, Von Neumann e – sì – del Dipartimento del Commercio degli Stati Uniti.

Non è una provocazione teorica. È un’applicazione industriale su larga scala. Il primo al mondo. Ed è cinese.

Dietro il colpo di teatro c’è il professor Li Hongge della Beihang University, che ha orchestrato la mossa in pieno stile go – il gioco da tavolo orientale che privilegia la strategia lenta, le mosse indirette, il controllo degli spazi vuoti. La sua arma segreta? Un sistema numerico chiamato Hybrid Stochastic Number (HSN). Un matrimonio poco ortodosso tra numeri binari e logica probabilistica. L’obiettivo? Scavalcare due ostacoli architettonici che da anni tengono in ostaggio il progresso del computing: il power wall e l’architecture wall.

Meta e Scale AI, il matrimonio da 10 miliardi che cambierà l’intelligenza artificiale più della tua prossima terapia di coppia

Immagina che Mark Zuckerberg si presenti a un summit militare con una versione “patriottica” del suo chatbot Llama, addestrato non con meme di Instagram ma con scenari da guerra elettronica. Aggiungi a questo un assegno potenziale da oltre 10 miliardi di dollari per una startup che fino a ieri sistemava dataset come uno stagista ossessivo-compulsivo, e hai il quadro surreale — ma del tutto reale — di quello che sta succedendo tra Meta e Scale AI.

In un’epoca in cui le Big Tech fingono ancora di voler salvare il mondo mentre fanno accordi da retrobottega con il Pentagono, Meta ha deciso di uscire allo scoperto, abbracciando Scale AI come il partner perfetto per la sua visione di un’AI che non solo parla fluentemente millennial, ma può anche indossare un elmetto da combattimento.

Cudis sfida la morte con un anello smart: salute, AI e token su Solana

L’ossessione per la longevità si è trasformata da sogno californiano a core business globale, e qualcuno sta cercando di monetizzare ogni respiro. Cudis, startup losangelina nata nel 2023, si lancia con disinvoltura in una delle scommesse più audaci del nostro tempo: trasformare le buone abitudini salutari in una moneta digitale scambiabile. No, non è Black Mirror. È un anello. Uno smart ring con intelligenza artificiale e incentivi cripto, abbinato a un’app che promette di allungarti la vita—o almeno il ROI.

Mentre i dati biometrici diventano la nuova valuta del secolo, Cudis si è infilata al dito il futuro del wellness, con un anello di design sobrio che monitora sonno, stress, attività e calorie bruciate. La versione 2.0 della sua wearable tech si collega a un’applicazione che sembra aver capito una cosa fondamentale: la maggior parte delle persone non vuole diventare un medico, vuole solo sapere se dorme male perché ha scrollato TikTok fino alle 2 o se è tempo di chiamare il fisioterapista.

Calvin 40 è nato senza testa, ma potrebbe diventare il padrone delle fabbriche

C’è qualcosa di vagamente biblico, o meglio startup-esoterico, nel battezzare Calvin 40 un robot costruito in quaranta giorni. In una Parigi post-Olimpiadi 2024, dove Wandehttps://en.wandercraft.eu/calvin-40rcraft aveva già fatto scalpore facendo camminare un paraplegico grazie al suo esoscheletro, oggi si gioca una partita molto diversa: entrare nell’arena spietata della robotica umanoide industriale. Con un robot acefalo, privo di mani, ma capace di sollevare quasi il doppio del peso dei suoi concorrenti più chiacchierati come Tesla Optimus o Figure AI.

Non è una provocazione, è strategia pura. Mentre i big tech americani e le start-up cinesi inseguono l’estetica antropomorfa, Wandercraft getta nella mischia un cyborg senza volto, spogliato degli orpelli emotivi e concentrato solo sulla fisica. “La testa non serve per navigare,” dice senza mezzi termini il CEO Matthieu Masselin, con un tono che sembra voler tagliare il cordone ombelicale tra la robotica e il fantasma dell’antropocentrismo. “Le mani sono fragili,” aggiunge, facendo crollare decenni di ricerca su attuatori prensili e feedback tattile in un solo colpo di swipe.

Palo Alto Networks ha appena hackerato gli agenti AI. Ecco cosa ci hanno insegnato

Palo Alto Networks, il colosso mondiale della cybersecurity, ha appena portato all’esame del fuoco gli agenti AI con un esperimento che sembra uscito da un thriller tech. Non si è trattato di un semplice attacco, ma di una simulazione reale su due agenti identici, speculari in compiti e strumenti, ma diversi nel framework: uno basato su CrewAI, l’altro su Microsoft AutoGen. Risultato? Entrambi hanno fatto flop clamoroso.

Questa caduta degli dei digitali insegna una verità che i più sognano di ignorare: non è il framework a proteggerti, ma la tua architettura, il tuo design, e soprattutto le tue supposizioni — spesso arroganti — sulla sicurezza. Si può costruire la miglior AI del mondo, ma se lasci un varco nel prompt, negli strumenti o nella gestione della sessione, hai appena messo un tappeto rosso per l’attaccante.

De Kai: Raising AI

L’AI non ha bisogno di genitori, ma di filosofi: perché l’etica digitale è troppo seria per lasciarla ai tecnologi

Se ogni generazione ha i suoi mostri, la nostra li programma. Ma invece di affrontare la questione con il rigore che richiederebbe l’ascesa di un’intelligenza artificiale generalizzata, sembriamo preferire metafore da manuale di psicologia infantile. Ecco quindi che De Kai, decano gentile del machine learning, ci propone il suo Raising AI come una guida alla genitorialità dell’algoritmo, una Bibbia digitale che ci invita a trattare ChatGPT e compagnia come bambini da educare. La tesi? L’AI va cresciuta con amore, empatia e valori universali. Peccato che i bambini veri non abbiano una GPU con 70 miliardi di parametri e non siano addestrati leggendo interi archivi di Reddit.

Parlare di AI come se fosse un neonato non è solo fuorviante, è pericolosamente consolatorio. Il paragone piace perché rassicura: se l’AI è un bambino, allora possiamo guidarla, plasmarla, correggerla. Ma la realtà è che l’AI non ha infanzia, non ha pubertà, non ha crisi adolescenziali. L’AI non cresce: esplode. E il salto tra GPT-3.5 e GPT-4.5 ce lo ricorda con brutalità industriale.

Quando il buio diventa superpotere: la cecità curata con un minerale raro il tellurio che vede anche l’invisibile

Diciamocelo subito: non è un’altra favoletta di biohacker o un press release farcito di “futuro” e promesse in perenne fase clinica. Questa volta, i cinesi non si sono limitati a restaurare la vista nei topi ciechi. L’hanno potenziata. E lo hanno fatto usando un minerale così raro e strategico che Wall Street non ha ancora deciso se farsene spaventare o investirci a occhi chiusi. Letteralmente.

Il protagonista? Il tellurio. Una parola che suona come un personaggio minore di un fumetto Marvel, e che invece è un metallo grigio-argenteo più raro del platino, un sottoprodotto della raffinazione del rame, e a quanto pare il materiale perfetto per costruire retine artificiali bioniche che vedono ciò che l’occhio umano non ha mai potuto. L’infrarosso. Il mondo degli invisibili.

I modelli linguistici ora generano idee scientifiche migliori dei dottorandi medi

Se un tempo erano assistenti passivi per la scrittura, oggi i modelli linguistici di larga scala giocano un ruolo inquietantemente attivo: propongono ipotesi di ricerca, delineano esperimenti, prevedono impatti, e lo fanno con una precisione che comincia a mettere in discussione l’egemonia creativa dell’intelligenza umana.

Benvenuti nell’era dell’AI Idea Bench 2025, dove gli idea generator vengono testati come startup tech: non basta essere brillanti, serve colpire il problema giusto, offrire qualcosa di fresco, e sembrare almeno costruibili con le tecnologie esistenti.

Quanto può dimenticare un modello linguistico? Il lato oscuro della “memoria” delle AI

Cosa sa davvero un modello linguistico? E soprattutto: quanto dimentica — e quanto non dovrebbe ricordare? L’articolo “How Much Do Language Models Memorize?” di Morris et al. (2025), da poco pubblicato da un consorzio tra Meta FAIR, Google DeepMind e Cornell, si muove su un crinale inquietante tra informazione, privacy e un’ossessione tecnocratica per la misura della memoria algoritmica. Spoiler: non si tratta solo di quanti gigabyte processa GPT-4, ma di quanti bit conserva, silenziosamente, su ogni dato visto.

In un mondo in cui i modelli linguistici vengono addestrati su trilioni di token — testi che contengono sia la Divina Commedia che i post del tuo dentista — ci si chiede: se il modello genera esattamente la battuta che ho scritto in una chat privata cinque anni fa, è perché ha imparato a generalizzare… o l’ha memorizzata?

Un algoritmo chiamato America: l’idiozia bipartisan di sospendere la regolazione dell’AI per dieci anni

Nel grande circo americano dove i partiti si azzuffano per ogni singola virgola, c’è qualcosa che li unisce: l’incapacità di capire davvero cosa sia l’intelligenza artificiale. L’ultima trovata arriva da un’area particolarmente creativa del Partito Repubblicano, dove un emendamento inserito con chirurgica insensatezza nella proposta di riduzione fiscale sponsorizzata da Donald Trump vorrebbe impedire agli stati americani di regolamentare l’AI per i prossimi dieci anni. Dieci. Un’eternità, se parliamo di modelli che evolvono ogni tre mesi.

La NATO prova a contare i fantasmi: guerra di parole, guerra d’ombre

C’è una guerra che non si combatte coi droni, né con carri Leopard: si combatte con gli engagement. E la Nato, o meglio il suo Strategic Communications Centre of Excellence (un nome che sembra uscito da un seminario aziendale del 2012), ha appena pubblicato il Virtual Manipulation Brief 2025, un’analisi che assomiglia più a una radiografia dell’invisibile che a un rapporto di intelligence classico. Qui non si cercano carri armati, si cercano pattern. Coordinamenti sospetti. Narrativi convergenti. Troll vestiti da patrioti.

E i numeri fanno male. Il 7,9% delle interazioni analizzate mostrano chiari segnali di coordinamento ostile. Non stiamo parlando di un paio di bot russi nostalgici di Stalin che si retwittano a vicenda, ma di una sinfonia digitale ben orchestrata, che attraversa dieci piattaforme diverse – non solo X (che ormai è diventato l’equivalente social di una vecchia radio a onde corte), ma anche YouTube, Telegram, Facebook, Instagram e altre tane più oscure dove l’informazione diventa disinformazione e viceversa.

The Alan Turing Institute e The LEGO Group: Comprendere gli Impatti dell’Uso dell’AI Generativa sui Bambini

Understanding the Impacts of Generative AI Use on Children

C’erano una volta i mattoncini colorati. Poi vennero i prompt.

Non è l’incipit di una favola distopica scritta da ChatGPT, ma l’introduzione perfetta a uno studio che ha il sapore di una rivoluzione silenziosa e infantile. Il fatto che a firmarlo siano due nomi apparentemente incompatibili come The Alan Turing Institute e The LEGO Group è già di per sé un indizio potente: qualcosa si è rotto. O forse si è montato storto, come quando un bambino prova a forzare due pezzi incompatibili.

Questa indagine, che si è presa il lusso di interpellare oltre 1.700 bambini, genitori e insegnanti nel Regno Unito, è un sismografo etico e culturale. Ma a differenza dei classici report su chip, modelli LLM o disoccupazione da automazione, questo guarda direttamente negli occhi il nostro futuro: i bambini. E pone la domanda che tutti stanno evitando perché fa più paura di un algoritmo che scrive poesie: che razza di esseri umani cresceranno in un mondo dove l’intelligenza artificiale non è più un’eccezione, ma una compagna di giochi quotidiana?

Beijing Academy of Artificial Intelligence (BAAI): RoboBrain 2.0 promette la spatial intelligence

La cina vuole dare un cervello ai robot, ma la vera guerra è tra intelligenze

Nel cuore sempre più caldo della guerra fredda tecnologica, Pechino ha svelato il suo nuovo gioiello: RoboBrain 2.0, il “cervello” open-source pensato per colonizzare le menti—pardon, i circuiti—dei robot cinesi. Una mossa che, se letta con lenti geopolitiche e una certa vena di cinismo ingegneristico, sa meno di innovazione e più di controffensiva. Sotto la patina dell’entusiasmo scientifico e delle promesse di collaborazione industriale, si cela l’inizio di un nuovo capitolo nell’eterna partita tra intelligenza naturale, artificiale e, soprattutto, geopolitica.

Il Beijing Academy of Artificial Intelligence (BAAI) gioca d’anticipo. Con un lessico che sa di startup ma una postura da think tank governativo, ha lanciato un pacchetto di modelli AI pensati non solo per far muovere meglio i robot, ma per farli “pensare” come i loro progettisti desiderano. RoboBrain 2.0 promette una spatial intelligence più raffinata (vedi alla voce “non sbattere contro i muri”) e una capacità di pianificazione che permette alle macchine di scomporre attività complesse in sequenze logiche, autonome, ottimizzate.

Google arma Gemini di orologio e volontà: scheduled actions ecco perché l’AI non dimentica più nulla

Nel gioco a scacchi tra Google e OpenAI, la prossima mossa si gioca sul tempo. Non nel senso generico della velocità, dove ormai tutto si misura in nanosecondi computazionali, ma nel senso umano del calendario, della pianificazione, delle piccole promesse che dimentichiamo e delle abitudini che ci raccontano chi siamo. E Google, con la sua Gemini, ha deciso di diventare un assistente con memoria e agenda. Altro che segretaria virtuale: adesso sa anche quando ricordartelo.

La funzione si chiama “scheduled actions” e sembra innocua, quasi banale. Ma chi conosce la guerra delle AI sa che sotto ogni rollout in punta di codice si nasconde una visione strategica. Tradotto: l’utente potrà dire a Gemini “ricordamelo domani alle 18” o “ogni lunedì mandami idee per il blog” e l’AI lo farà. Semplice? Solo in apparenza. Perché dietro quel “lo farà” c’è il passo definitivo verso un’AI che non reagisce più, ma agisce. È questo il punto. Non è un chatbot che risponde. È un agente che prende iniziative — su tua delega, ovvio, ma comunque in autonomia operativa.

Microsoft conquista il trono dell’intelligenza artificiale mentre Nvidia guarda dal retrovisore

Certe guerre si combattono con le armi, altre con i transistor. E poi c’è quella silenziosa, ma esplosiva, tra Microsoft e Nvidia: una battaglia che si gioca a colpi di capitalizzazione di mercato, visioni strategiche e alleanze con le AI più fameliche del pianeta. E oggi, il colosso di Redmond piazza la sua bandiera sul picco dei 3.500 miliardi di dollari, strappando per un soffio lo scettro di azienda più preziosa del mondo alla rivale siliconica di Santa Clara.

Anche Luciano Floridi ha il suo digital twin? La filosofia generativa del bot LuFlot

Ci siamo: anche Luciano Floridi ha il suo avatar cognitivo. Si chiama LuFlot, ed è un’intelligenza artificiale generativa che, a detta dei suoi giovani creatori, dovrebbe incarnare — se mai un algoritmo potesse farlo — trent’anni di pensiero filosofico del direttore del Digital Ethics Center di Yale. Ebbene sì, il digital twin è sbarcato anche nel pensiero critico, e stavolta non si limita a simulare macchine industriali o profili finanziari, ma un vero e proprio intellettuale. L’ultima mossa dell’era epistemica delle allucinazioni assistite da AI.

Floridi, con il consueto equilibrio tra rigore e understatement anglosassone, ammette: “Io ho solo condiviso i miei scritti e dato qualche suggerimento sul design.” La paternità operativa del progetto, infatti, è tutta di Nicolas Gertler, matricola di Yale, e Rithvik Sabnekar, liceale texano con talento per lo sviluppo software. Due nomi che, nel contesto di una Ivy League dove il filosofo è leggenda accademica, suonano come una sottile vendetta della generazione Z: i padri della filosofia digitale messi in scena dalla loro progenie algoritmica.

Apple e la tassa App Store: il bluff della concorrenza libera

Apple ha appena ricevuto un colpo che potrebbe incrinare la sua fortezza dorata chiamata App Store. Dopo anni di battaglie legali e proteste da parte degli sviluppatori, una recente sentenza ha aperto la porta ai pagamenti esterni, potenzialmente riducendo il controllo esclusivo di Cupertino e, soprattutto, le sue lucrose commissioni. Il palco è pronto per la WWDC della prossima settimana e tutti aspettano che Apple faccia un gesto, una specie di “ramo d’ulivo” per stemperare la tensione e sedurre di nuovo gli sviluppatori, quelli che da sempre finanziano il suo impero digitale.

Il nocciolo della questione non è solo il 30% di commissione che Apple ha applicato per anni con la sua politica rigida, ma un intero ecosistema costruito sulla dipendenza e sul monopolio apparente. Gli sviluppatori non si sono mai nascosti dietro un dito: quella tassa, in molti casi, è una strozzatura che limita l’innovazione, ma soprattutto i margini di profitto. Ora, con la sentenza che consente i pagamenti esterni, la melodia potrebbe cambiare. Immaginate un mondo in cui un’app potenzialmente paghi meno commissioni, o addirittura si liberi dalla presa di Apple, bypassando il sistema di acquisto in-app tradizionale.

Deepseek assume stagisti per addestrare l’intelligenza artificiale clinica: il futuro della medicina cinese vale 70 dollari al giorno

Quando l’intelligenza artificiale incontra la medicina, la posta in gioco non è una startup da miliardi, ma la vita umana. Eppure, in Cina, l’ultima frontiera di questa rivoluzione si sta costruendo con budget da stagista. Letteralmente.

DeepSeek, startup AI cinese ancora misteriosamente silenziosa sul lancio del suo modello avanzato R2 reasoning, ha deciso che per migliorare l’accuratezza diagnostica servono… studenti pagati 500 yuan al giorno (circa 70 dollari). In cambio? Quattro giorni a settimana etichettando dati medici, scrivendo prompt in Python e domando la bestia linguistica dei Large Language Models. L’annuncio, apparso su Boss Zhipin, non sulla loro pagina ufficiale, sembra quasi un messaggio cifrato: “Sappiamo dove andiamo, ma non ve lo diciamo”.

Alibaba svela Qwen3 Embedding: così la cina trasforma gli embedding in una macchina da guerra semantica

Alibaba non vuole solo giocare la partita dell’intelligenza artificiale. Vuole riscrivere il regolamento, imporre il ritmo e magari anche cambiare il terreno di gioco. E lo fa con il lancio della serie Qwen3 Embedding, l’ultima mossa del colosso di Hangzhou per rafforzare la propria posizione globale nel settore più caldo e strategico del secolo: l’open-source AI. Altro che modelli chiusi e gelosamente custoditi in server americani. Qui si parla la lingua – anzi, le 100 lingue – del mondo. Compresi JavaScript e Python.

La notizia, rilasciata con l’eleganza strategica del giovedì sera (un tempismo che dice tutto sulla guerra psicologica dei lanci tech), nasconde in realtà un messaggio chiarissimo al resto del mondo: Alibaba non è più solo un marketplace. È un’armeria cognitiva.

Il nuovo culto dei capitali: GPx, unicornizzazione e startup ai limiti della fede matematica

Nel sottobosco delle term sheet di carta lucida, tra pitch di PowerPoint e founder in hoodie che citano Wittgenstein, si sta aprendo un nuovo capitolo della religione laica della Silicon Valley: il ritorno del venture capital come culto esoterico, dove la logica è un optional e la narrazione vale più del bilancio. A comandare la liturgia? Intelligenza artificiale, valutazioni stratosferiche e un nuovo attore pronto a “dare un vantaggio ingiusto ai GP d’élite”: GPx. La nuova sigla magica che fa brillare gli occhi a chi vede più valore in una curva hockey stick disegnata con Figma che nei fondamentali economici.

Zoltan Istvan e l’apocalisse dei robot: perché un androide in salotto sarà il tuo prossimo ammortizzatore sociale

Immaginate questo: un robot umanoide ti apre la porta, prepara la cena vegana sintetica, lava i piatti e ti ricorda che domani hai un colloquio di lavoro per un impiego che, probabilmente, non esisterà più tra sei mesi. Benvenuti nella California del futuro secondo Zoltan Istvan, ex paladino del Transumanesimo, oggi candidato Democratico alla carica di governatore. Il suo piano per evitare la “job apocalypse”? Reddito universale e un robot per ogni famiglia. Un’idea a metà tra Isaac Asimov e Karl Marx, impacchettata in retorica elettorale.

Istvan non è nuovo a trovate scenografiche: nel 2016 attraversò gli Stati Uniti su un camper a forma di bara per promuovere l’estensione indefinita della vita umana. Oggi, però, ha deciso di seppellire (o ibernare) il Transhumanist Party per tuffarsi nell’ecosistema Democratico californiano, ben consapevole che, come dice lui stesso, “correre con un altro partito equivale a non correre affatto”.

Hollywood si è venduta al silicio, e non tornerà indietro

AMC Networks e Runway

L’intelligenza artificiale generativa non è più l’ospite invisibile nella stanza dei bottoni di Hollywood. Con la partnership tra AMC Networks e la startup Runway, la tecnologia non sta più bussando alla porta: ha buttato giù i muri, ha messo i piedi sul tavolo e ha iniziato a scrivere le sceneggiature. Previsualizzazioni generate da AI, campagne marketing senza un solo ciak, versioni alternative di film per fasce d’età modellate da algoritmi: questo non è il futuro della TV via cavo, è il presente, spudorato e inequivocabile.

L’arte si fa algoritmo e costa quanto una Tesla: benvenuti nell’era della tela che respira

Ventiduemila dollari. Per un display. No, non stiamo parlando di un monitor da sala controllo NASA, né del cruscotto olografico di una navicella SpaceX. È Layer, la nuova creazione di Angelo Sotira, co-fondatore di DeviantArt, una delle prime culle della creatività digitale, oggi mutata in parco giochi per l’intelligenza artificiale.

Il prezzo non è casuale, è una dichiarazione. Un grido estetico incastonato tra pixel e marketing, che tenta di legittimare il generative AI art come nuova frontiera del collezionismo. Dimenticate le stampe numerate, i quadri firmati a mano o le fotografie d’autore. Qui siamo oltre la firma: qui il quadro si scrive da solo.

Gemini 2.5 pro fa il salto quantico che Google doveva al mondo dell’intelligenza artificiale

Ogni attore ha il suo momento di gloria, il suo rilascio “rivoluzionario”, la sua conferenza patinata da annunciare tra un keynote e una demo pompata a razzo. Ma oggi, finalmente, Google sembra aver smesso di rincorrere gli altri per tornare a fare scuola. Con il rilascio della versione aggiornata in anteprima di Gemini 2.5 Pro, siglata 06-05, Mountain View alza l’asticella in modo tangibile. E sì, stavolta i benchmark non mentono: stavolta è roba seria.

Partiamo da dove il dolore si sentiva di più: fuori dal mondo del coding, le release precedenti della famiglia Gemini 2.5 sembravano avvolte da una nebbia di mediocrità. Accuse non troppo velate su Reddit, sussurri negli ambienti dev più esigenti: “03-25 era più brillante”, “le nuove release hanno perso smalto”, “troppa ottimizzazione, poca anima”. Bene: con 06-05, Google prova a rimediare. E lo fa con un’operazione chirurgica sul linguaggio, sulla formattazione delle risposte e udite udite su una creatività finalmente leggibile, non più solo impressa nei prompt di marketing.

Amazon vuole sostituire i corrieri con androidi in furgoni elettrici. Ma davvero pensiamo che si fermeranno ai pacchi?

Mentre ci beviamo l’ultima birra artigianale a Brooklyn o ci lamentiamo della ZTL a Milano, Amazon ha iniziato a costruire silenziosamente un “parco umanoide” in un ufficio di San Francisco. No, non è un’attrazione turistica per nostalgici di Westworld, ma una palestra hi-tech dove androidi addestrati da intelligenze artificiali stanno imparando a saltar fuori dai furgoni Rivian per consegnare i nostri pacchi. Letteralmente.

Il progetto è tutto fuorché una boutade fantascientifica. Secondo The Information, il colosso di Seattle sta mettendo a punto software agentici avanzati sistemi capaci non solo di rispondere a comandi, ma di agire in modo autonomo e adattivo. Niente più macchine rigide a compiere task singoli come in una catena di montaggio fordista: Amazon vuole trasformare i suoi robot in creature quasi conversazionali, capaci di interpretare ordini in linguaggio naturale. Sì, tipo: “porta questo pacco al tizio col bulldog al terzo piano, ma attento a non calpestare il basilico della signora Rosina”.

La nuova ossessione Americana si chiama Manus

C’era una volta un’America che investiva solo in casa, con orgoglio patriottico e la presunzione di avere un primato tecnologico inalienabile. Poi è arrivata DeepSeek, un colosso cinese dell’intelligenza artificiale capace di mandare nel panico anche i più sfrontati VC di Sand Hill Road. All’improvviso, Silicon Valley si è ricordata che la Cina non è solo TikTok e supply chain: è anche cervelli, codice e modelli linguistici che, udite udite, funzionano.

È in questo contesto che Joshua Kushner, rampollo mediatico e fondatore di Thrive Capital, ha deciso di mandare i suoi emissari a Pechino. Non lui personalmente, per carità: l’odore della geopolitica è troppo forte. Ma il messaggio è chiaro come un alert su Bloomberg: la fame d’intelligenza artificiale non conosce confini. Neppure quelli sanciti da decenni di paranoia bipartisan tra Washington e Zhongnanhai.

Trump blocca Harvard sugli studenti stranieri: paranoia nazionale o strategia elettorale?

Sembrava una battaglia culturale. È diventata un assalto istituzionale. In un proclama dai toni apocalittici – firmato con l’enfasi di chi ama più la guerra che la diplomazia – l’amministrazione Trump ha vietato formalmente all’Università di Harvard di accettare nuovi studenti internazionali. Non solo: ha ordinato una revisione delle attuali iscrizioni straniere con la minaccia concreta di revoca dei visti. Motivo? “Rischi per la sicurezza nazionale”. Ovviamente, c’è di mezzo la Cina. E il sospetto, sempreverde, che dietro ogni studente con un laptop si nasconda un agente del Partito Comunista.

Microsoft punta tutto sugli agenti AI mentre Musk conta i miliardi e Apple perde il controllo

“Office è morto, viva l’agente AI.” Questo, in sintesi brutale, è il messaggio criptico ma chiarissimo lanciato da Satya Nadella ai suoi dipendenti. Con una riorganizzazione dirigenziale chirurgica, Microsoft svuota il salotto buono di Office 365 e Dynamics per dare spazio ai nuovi idoli aziendali: gli agenti di intelligenza artificiale. Addio Excel come lo conoscevamo. Addio CRM a misura d’uomo. Il futuro, secondo Redmond, è popolato da entità digitali che agiscono al posto nostro, imparano, parlano, vendono, chiudono contratti. Lo chiamano “copilot”, ma non illudetevi: chi comanda ora è lui.

Quando l’algoritmo ti dice che morirai: il caso Clarity Breast e la scomparsa del dubbio nella medicina predittiva

C’è un momento preciso, in ogni sala di radiologia, in cui il silenzio si fa opprimente. Il clic secco della macchina, lo sguardo esitante del tecnico, la paziente che cerca di leggere negli occhi di chi la osserva. Fino a ieri, quel momento era seguito da giorni d’attesa, telefonate, diagnosi più o meno tempestive, spesso tardive. Da oggi, o meglio da fine anno, tutto potrebbe cambiare: è arrivata Clarity Breast. Un nome che sa di marketing farmaceutico e shampoo pubblicitario, ma dietro cui si nasconde qualcosa di molto più serio. Perché per la prima volta la Food and Drug Administration ha detto sì a una piattaforma d’intelligenza artificiale che, partendo da una mammografia 2D standard, predice il rischio di cancro al seno di una donna nei prossimi cinque anni. Non diagnosi. Predizione.

Semiconduttori e sovranità: perché l’EDA cinese è l’unico gioco possibile in città

Il settore più noioso dell’alta tecnologia – il software per la progettazione dei chip – si è trasformato nel protagonista indiscusso della nuova guerra fredda. E no, non è un’esagerazione giornalistica.

Quando Washington ha ordinato a Cadence, Synopsys e Siemens EDA di smettere di vendere in Cina, la notizia non ha fatto solo tremare i server di Pechino: ha acceso una miccia nella borsa di Shenzhen. Perché? Perché l’EDA, quell’oscuro acronimo che significa Electronic Design Automation, è letteralmente il software che pensa i chip, li disegna, li simula, li testa. Senza EDA non c’è chip. Senza chip non c’è AI. Senza AI non c’è dominio tecnologico. E senza dominio, in questo secolo, sei solo un gigantesco mercato di consumatori.

Pagina 28 di 91

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie