Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

L’algoritmo ha mangiato il giornale: il massacro silenzioso dei media nell’era del chatbot

La scena è questa: una redazione vuota, le luci ancora accese, le tastiere ferme. Sulle scrivanie, gli ultimi numeri stampati di un quotidiano digitale, ormai irrilevante. Là fuori, milioni di utenti digitano domande sui loro smartphone, ma le risposte non arrivano più dai giornalisti. Arrivano da una macchina. È l’era della post-search, e Google non è più un motore, ma un oracolo.

L’apocalisse silenziosa è cominciata con una frase: “Google is shifting from being a search engine to an answer engine.” Traduzione: cari editori, potete anche spegnere il modem.

La keyword che brucia è chatbot, con le sue sorelle semantiche traffico organico e AI generativa. In tre anni, secondo dati di Similarweb riportati dal Wall Street Journal, HuffPost ha perso più della metà del traffico proveniente da Google. Il Washington Post quasi altrettanto. Business Insider ha tagliato un quinto della forza lavoro. E no, Zuckerberg stavolta non c’entra. Il nemico è molto più vicino, e molto più silenzioso.

L’italia è pronta per un cloud e AI development act? Il paese delle nuvole cerca finalmente il suo cielo digitale

“Quando senti la parola ‘cloud’, guarda se piove.” Questa battuta, un po’ vecchia scuola ma mai fuori moda, descrive perfettamente la schizofrenia con cui l’Italia affronta il tema del digitale. Da un lato si moltiplicano convegni, task force e white paper che inneggiano all’Intelligenza Artificiale come alla nuova Rinascenza tecnologica italiana. Dall’altro, le PMI arrancano su server obsoleti, con una fibra che spesso è più ottica nei titoli dei bandi che nei cavi di rete. E allora, ci vuole davvero un Cloud e AI Development Act per traghettare il Bel Paese verso un futuro dove il digitale non sia più un miraggio ma una politica industriale concreta?

Il 2 febbraio 2025 segna un punto di svolta. L’entrata in vigore della prima fase dell’AI Act europeo segna un cambio di paradigma: chi sviluppa, distribuisce o adotta sistemi di intelligenza artificiale dovrà fare i conti non solo con algoritmi, ma anche con regolatori armati di sanzioni fino al 7% del fatturato globale. Niente male per un settore che si è mosso finora con l’agilità di un esperto in dark pattern più che con quella di un civil servant europeo.

Internet senza confini? Oltre la rivoluzione silenziosa della rete globale NAM2025 by Namex

C’è qualcosa di straordinario che sta accadendo sotto i nostri piedi e sopra le nostre teste. Non lo vediamo, ma ci avvolge ogni giorno. È l’evoluzione dell’Internet, un ecosistema che da sogno accademico è diventato infrastruttura critica della civiltà contemporanea. Non più solo strumento, ma vero e proprio tessuto connettivo dell’umanità. E NAM2025, il summit in programma l’11 giugno a Roma, nasce proprio per fare luce su questa trasformazione epocale, dove intelligenza artificiale, geopolitica, spazio e cavi sottomarini si intrecciano in uno scenario tanto complesso quanto affascinante.

Ren Zhengfei: Huawei e l’intelligenza artificiale: quando un chip di seconda mano può battere un mostro americano

Huawei, il colosso cinese delle telecomunicazioni che da anni è sotto l’occhio del ciclone geopolitico, ammette candidamente un fatto che fa tremare gli ingenui. I suoi chip Ascend, per quanto presentati come meraviglie della tecnologia, sono ancora “una generazione” dietro quelli statunitensi. Ma attenzione: non è la fine del mondo, né la resa incondizionata di Pechino alla supremazia tecnologica d’oltreoceano. Anzi, l’arte di arrangiarsi con metodi “non convenzionali” come stacking e clustering promette performance paragonabili ai giganti del settore. Una magia tutta cinese, fatta di impilamenti di chiplet brevettati che rendono il processore più compatto, più furbo, più scalabile.

Questa confessione arriva direttamente da Ren Zhengfei, il fondatore di Huawei, nel contesto di un’intervista di copertina sul People’s Daily, l’organo ufficiale del Partito Comunista. Primo a rompere il silenzio dopo il lancio di ChatGPT e la nuova ondata di sanzioni USA, Ren non si limita a una difesa d’ufficio. Non nasconde le difficoltà e riconosce che la tecnologia made in USA è “una generazione avanti”, ma rivendica con veemenza la capacità della Cina di colmare il gap con ingegnose soluzioni tecniche. E, soprattutto, sottolinea la forza di un ecosistema nazionale che ha ben altri vantaggi competitivi: centinaia di milioni di giovani, una rete elettrica robusta e una infrastruttura di telecomunicazioni che, a suo dire, è la più sviluppata al mondo.

IBM e Yale la sindrome da test fallito: perché continuiamo a misurare l’IA con il righello sbagliato

C’è qualcosa di fondamentalmente disonesto — o quantomeno anacronistico — nel modo in cui il settore tech insiste nel valutare gli AI agent. È come se pretendessimo di giudicare la performance di un pilota di Formula 1 sulla base della velocità media in un parcheggio. E nonostante l’accelerazione vertiginosa dell’Intelligenza Artificiale autonoma, siamo ancora lì, a discutere di benchmark come se stessimo valutando un modello statico di linguaggio.

Ecco perché il lavoro congiunto di IBM Research e Yale University, che ha esaminato oltre 120 metodi di valutazione degli agenti AI, è più che una mappatura tecnica: è una scossa sismica epistemologica. È il momento “Copernico” del testing AI. L’oggetto in esame — l’agente autonomo — non è più un corpus passivo da interrogare, ma un’entità dinamica che percepisce, agisce, riflette, talvolta sbaglia, e spesso impara.

Apple, l’impero del vetro liquido e le promesse AI dimenticate

La Silicon Valley ha un difetto: confonde il futuro con la demo. Ma Apple, campionessa mondiale del “coming soon”, sembra finalmente aver preso un respiro. Alla Worldwide Developers Conference 2025, l’azienda di Cupertino ha rinunciato alla corsa al superlativo per tornare al suo primo amore: la gestione del ritardo ben confezionato. E lo ha fatto in pieno stile Apple: interfacce levigate, nomi levigati, promesse levigate.

Lo scorso anno, Tim Cook e soci ci avevano promesso una Siri rivitalizzata, versioni AI di ogni cosa e una nuova era di intelligenza artificiale made in Cupertino. Quella “Apple Intelligence” doveva essere la risposta silenziosa ma potente all’invasione di ChatGPT e compagni. Un anno dopo, la verità è più semplice (e più deludente): nulla di tutto questo è ancora arrivato. Craig Federighi, volto lucido dell’ingegneria Apple, si è limitato a dire che “ci stiamo ancora lavorando” e che ne parleranno meglio il prossimo anno. Che, tradotto dal cupertinese, significa: non trattenete il respiro.

Nel frattempo, Apple ha deciso di distrarci con un colpo di scena semantico: la nuova estetica del suo sistema operativo si chiama Liquid Glass. Un nome che suona come un profumo da 300 euro ma che in realtà si traduce in icone più trasparenti, menù fluttuanti e una sensazione di freschezza visiva tutta da verificare sotto la luce blu del day-one. La funzione più innovativa? Potrebbero essere le finestre fluttuanti su iPad, una mossa che avvicina sempre più il tablet al MacBook, pur senza mai ammettere che il touchscreen sui portatili sarebbe utile, anzi fondamentale. Apple continua a dire “non lo faremo mai”, mentre ci porta lì un pixel alla volta.

La guerra invisibile dell’intelligenza artificiale al cuore dell’istruzione cinese

Non hanno usato manganelli, né droni. Ma un clic silenzioso ha oscurato le menti digitali più brillanti del Dragone. Alibaba, ByteDance, Tencent e Moonshot: giganti che nel silicio scolpiscono l’immaginario tecnologico cinese, si sono piegati di fronte a un nemico vecchio come il mondo — la voglia di barare all’esame.

Durante i giorni sacri del gaokao, l’imponente rito collettivo che decide il destino accademico (e spesso anche esistenziale) di oltre 13 milioni di studenti, le funzioni più sofisticate dei chatbot sono state messe in pausa. Non per guasti tecnici o aggiornamenti di sistema. Ma per paura che qualche diciottenne troppo sveglio potesse chiedere una foto al compagno più fidato del 2025: l’algoritmo.

OpenAI fa 10 miliardi, Meta spende 10 miliardi, Trump rimanda ancora: benvenuti nel reality show dell’intelligenza artificiale

Il silenzio non è mai casuale, specie quando OpenAI smette di twittare e comincia a incassare dieci miliardi di dollari all’anno in revenue ricorrente. Sì, dieci miliardi. L’equivalente del PIL di un microstato o della pazienza residua dell’industria legacy. La notizia è esplosa come un nuovo plugin di ChatGPT: silenziosa, ma letale. Il futuro dell’intelligenza artificiale non è più un campo sperimentale, ma un flusso di cassa. E soprattutto, un’arma geopolitica che vale più dell’uranio.

Mentre Sam Altman si toglie i guanti da startupper e si infila quelli da CEO d’acciaio, Microsoft gioca a Risiko e spara con i suoi Copilot in scala enterprise: 100.000 dipendenti Barclays armati di AI. È come dare la bomba atomica a un call center, ma con il sorriso della produttività. Il risultato? L’ufficio non è più un luogo, ma un’interfaccia. E chi non ha ancora capito che il software ora si aggiorna da solo, è semplicemente diventato obsoleto come i bottoni fisici sugli smartphone.

WWDC 2025 June 9 Apple

Apple intelligence in crisi d’identità, ma Tim Cook giura che tutto è sotto controllo

L’aria a Cupertino quest’anno è più elettrica del solito. Ma non nel senso buono. Quando il palco della WWDC 2025 si è acceso, l’energia non era quella trionfale di un impero in espansione, ma quella nervosa di un gigante che sa di essere osservato da troppo vicino. Le luci dello Steve Jobs Theater brillano, sì, ma non riescono a nascondere le ombre: quelle di un’intelligenza artificiale che si è fatta attendere troppo, di giudici federali che non si fanno più incantare dalle vetrine di Apple Park, e di una politica commerciale che inizia a mostrare il conto, da Washington a Pechino.

Apple Intelligence, l’ambiziosa scommessa annunciata l’anno scorso tra effetti speciali e promesse roboanti, oggi appare come un adolescente confuso che ha dimenticato cosa voleva diventare da grande. Doveva essere l’AI “personalizzata, privata e potente”. Quello che abbiamo visto, invece, è una creatura ibrida, impantanata tra modelli on-device limitati e una dipendenza poco dichiarata da ChatGPT, con la promessa implicita che “niente sarà inviato senza il tuo permesso” — il che, detto da una società sotto indagine antitrust, suona più come un patto tra cavalieri medievali che come una policy credibile.

Orsini (Confindustria): “Senza un piano per l’innovazione rischiamo il declino”

“Senza una visione concreta sull’innovazione oggi, rischiamo di pagare domani un prezzo altissimo”. Parole chiare e dirette quelle pronunciate da Emanuele Orsini, presidente di Confindustria, alla Festa dell’Innovazione organizzata da Il Foglio. In un contesto economico sempre più competitivo e accelerato dalla rivoluzione tecnologica, Orsini lancia un appello forte: serve un piano industriale straordinario di almeno tre anni che rimetta al centro l’industria e stimoli la crescita dell’Italia, oggi ancora troppo lenta nell’adozione dell’intelligenza artificiale e della digitalizzazione.

Sinner vince spesso perché sa perdere: anatomia di un’anomalia nel tempo degli imbattibili

È una frase che non ti aspetti in un’epoca drogata dal culto della vittoria, scolpita nei mantra da LinkedIn e dai TED Talk più imbarazzanti: “Perdere è un’opzione. Imparare a perdere, un superpotere.”
Jannik Sinner non è solo il numero uno del mondo. È un apostata del dogma moderno secondo cui solo chi non accetta la sconfitta può diventare grande.

Chi ha visto Sinner cadere – con la compostezza glaciale che fa impazzire le telecamere in cerca di un gesto isterico – sa che la sua forza non viene da un’ossessione per il trofeo. Ma dalla sua familiarità con il vuoto che resta dopo aver perso. Ed è lì, in quel silenzio, che Jannik ha costruito il suo arsenale invisibile.

Quando i robot diventano figli unici: il paradosso cinese dell’assistenza agli anziani

C’è qualcosa di profondamente poetico — e vagamente inquietante — nel fatto che la Cina, un paese plasmato per decenni dalla politica del figlio unico, si ritrovi ora a programmare androidi per accudire i propri anziani. Come se la Silicon Valley del Dragone stesse tentando di correggere, con servomeccanismi e intelligenze artificiali, le lacune biologiche di una demografia sempre più sbilanciata. Ma tranquilli: non è fantascienza. È politica industriale, e pure parecchio concreta.

Il nuovo programma pilota lanciato congiuntamente dal Ministero dell’Industria e dell’Informazione e dal Ministero degli Affari Civili cinese prevede l’inserimento massiccio di robot per l’assistenza agli anziani. Sì, avete letto bene: badanti a circuito integrato, caregiver con sensori Lidar, compagni di vita con algoritmo di riconoscimento emotivo. Non è un nuovo anime giapponese, è il piano strategico della seconda economia mondiale per sopravvivere a se stessa. E non è un caso che il Giappone — eterno fratello-rivale nell’arena della senilizzazione — sia già da tempo sulla stessa strada.

GSM8K, LLM, il re è nudo: Apple smonta il mito del ragionamento matematico

C’è qualcosa di profondamente sbagliato nella maniera in cui valutiamo l’intelligenza artificiale, e Apple — sì, proprio Apple — ha appena scoperchiato il vaso di Pandora dell’autocompiacimento algoritmico. Niente Keynote, niente scenografie minimaliste da Silicon Valley, ma una bomba scientifica che mina il cuore stesso della narrativa dominante: i Large Language Models, osannati come nuovi oracoli logici, sono in realtà più illusionisti che matematici. E il trucco, come sempre, è tutto nei dettagli.

La scena del crimine si chiama GSM8K, una benchmark ormai celebre tra i cultori del deep learning. Una collezione di problemini da scuola elementare usata per valutare quanto un modello sappia ragionare “formalmente”. Ma come ogni quiz scolastico, anche GSM8K ha un punto debole: più lo usi, più diventa prevedibile. E gli LLM, che sono addestrati su miliardi di dati, imparano non a ragionare, ma a riconoscere pattern. Una differenza sottile, ma cruciale.

Fatevi avanti. Oppure non lamentatevi del risultato

Targeted stakeholder consultation on classification of AI systems as high-risk

All’inizio sembrava un’utopia normativa, quasi un esercizio di stile per giuristi in cerca di protagonismo. L’Artificial Intelligence Act è entrato in vigore (1° agosto 2024) e – sorpresa – l’Unione Europea fa sul serio. Ma come spesso accade a Bruxelles, quando si cerca di normare il futuro con l’ossessione del rischio, si rischia di amputare l’innovazione con il bisturi della burocrazia. E in questa nuova fase, quella della consultazione mirata sui sistemi di IA ad alto rischio, il destino tecnologico europeo si gioca in un equilibrio perverso tra tutela e paralisi.

AI Agent Protocols inside its brain

Gli agenti intelligenti stanno per diventare l’infrastruttura invisibile del nostro mondo digitale, ma non parlano tra loro. Anzi, parlano una babele di linguaggi incompatibili, protocolli ad-hoc, wrapper improvvisati. È come se l’AI stesse reinventando il modem 56k ogni settimana.

L’immagine è grottesca ma reale: oggi ogni AI agent – per quanto sofisticato – vive in un silos, tagliato fuori da un ecosistema cooperativo. Nessuno direbbe che Internet sarebbe mai esploso senza TCP/IP. Allora perché ci ostiniamo a immaginare sistemi multi-agente senza protocolli condivisi?

Vitruvian Smart, il modello che pensa prima di rispondere e domina la cultura italiana

Quando si parla di modelli di linguaggio di intelligenza artificiale, il più delle volte si immagina un gigante iper-tecnologico, forse americano o cinese, ma raramente si pensa a un prodotto italiano capace di competere davvero su scala globale. E invece, eccoci qui: Vitruvian Smart, un modello LLM da 12 miliardi di parametri sviluppato da ASC27, che non solo “sa parlare” italiano, ma si impone come una specie di campione nel comprendere la cultura italiana, grazie a un benchmark tutto nostrano, ItalicBench, curato da CRISP presso l’Università Milano Bicocca.

ItalicBench research non è un semplice test. È un giudice severo, una sfida diretta a verificare quanto i modelli di linguaggio possano non solo comprendere la lingua italiana, ma anche maneggiare con destrezza riferimenti culturali, contesti storici, sfumature sociali e tutto quel background che rende la nostra cultura così stratificata e complessa. È come chiedere a un intellettuale digitale di sapere non solo i vocaboli, ma anche il perché di certi gesti, di certi modi di dire, e di quella saggezza popolare che spesso sfugge agli algoritmi più spavaldi.

Cina, l’algoritmo imperfetto: come Pechino sta rovesciando l’architettura binaria con un chip che non segue le regole

Immaginate un cervello che non ragiona più solo in 0 e 1, ma anche in forse, chissà, probabilmente. Per decenni, l’informatica è stata una religione binaria, fondata sull’assioma del “sì o no”, “vero o falso”, “0 o 1”. Adesso, dalla Cina, arriva un’eresia. Un chip non-binario, un ibrido tra l’efficienza spietata del silicio e la mollezza stocastica della probabilità. Una via di mezzo tra il calcolo deterministico e il caos quantistico. Con buona pace di Turing, Von Neumann e – sì – del Dipartimento del Commercio degli Stati Uniti.

Non è una provocazione teorica. È un’applicazione industriale su larga scala. Il primo al mondo. Ed è cinese.

Dietro il colpo di teatro c’è il professor Li Hongge della Beihang University, che ha orchestrato la mossa in pieno stile go – il gioco da tavolo orientale che privilegia la strategia lenta, le mosse indirette, il controllo degli spazi vuoti. La sua arma segreta? Un sistema numerico chiamato Hybrid Stochastic Number (HSN). Un matrimonio poco ortodosso tra numeri binari e logica probabilistica. L’obiettivo? Scavalcare due ostacoli architettonici che da anni tengono in ostaggio il progresso del computing: il power wall e l’architecture wall.

Meta e Scale AI, il matrimonio da 10 miliardi che cambierà l’intelligenza artificiale più della tua prossima terapia di coppia

Immagina che Mark Zuckerberg si presenti a un summit militare con una versione “patriottica” del suo chatbot Llama, addestrato non con meme di Instagram ma con scenari da guerra elettronica. Aggiungi a questo un assegno potenziale da oltre 10 miliardi di dollari per una startup che fino a ieri sistemava dataset come uno stagista ossessivo-compulsivo, e hai il quadro surreale — ma del tutto reale — di quello che sta succedendo tra Meta e Scale AI.

In un’epoca in cui le Big Tech fingono ancora di voler salvare il mondo mentre fanno accordi da retrobottega con il Pentagono, Meta ha deciso di uscire allo scoperto, abbracciando Scale AI come il partner perfetto per la sua visione di un’AI che non solo parla fluentemente millennial, ma può anche indossare un elmetto da combattimento.

Il capitalismo dello sguardo: perché Sam Altman vuole scannerizzarti l’iride nei centri commerciali britannici

Londra, primavera 2025. Mentre il Regno Unito si prepara all’ennesimo reboot politico tra intelligenza artificiale e distopia quotidiana, una novità luccicante spunta all’orizzonte urbano: un globo metallico, lucido, vagamente alieno, ti invita ad “autenticarti”. Non con password, né con documenti. Ti chiede solo… gli occhi. O meglio, l’iride.

La macchina si chiama Orb, la società che la distribuisce Tools for Humanity. Nome ironico per un progetto tecnocratico. Dietro le quinte, l’onnipresente Sam Altman, CEO di OpenAI, e il co-fondatore Alex Blania. Non bastava ChatGPT a rivoluzionare il pensiero umano, adesso l’obiettivo è mappare chi è effettivamente umano. Non in senso filosofico — Dio ci salvi da Kant — ma in senso biometricamente verificabile.

Cudis sfida la morte con un anello smart: salute, AI e token su Solana

L’ossessione per la longevità si è trasformata da sogno californiano a core business globale, e qualcuno sta cercando di monetizzare ogni respiro. Cudis, startup losangelina nata nel 2023, si lancia con disinvoltura in una delle scommesse più audaci del nostro tempo: trasformare le buone abitudini salutari in una moneta digitale scambiabile. No, non è Black Mirror. È un anello. Uno smart ring con intelligenza artificiale e incentivi cripto, abbinato a un’app che promette di allungarti la vita—o almeno il ROI.

Mentre i dati biometrici diventano la nuova valuta del secolo, Cudis si è infilata al dito il futuro del wellness, con un anello di design sobrio che monitora sonno, stress, attività e calorie bruciate. La versione 2.0 della sua wearable tech si collega a un’applicazione che sembra aver capito una cosa fondamentale: la maggior parte delle persone non vuole diventare un medico, vuole solo sapere se dorme male perché ha scrollato TikTok fino alle 2 o se è tempo di chiamare il fisioterapista.

Calvin 40 è nato senza testa, ma potrebbe diventare il padrone delle fabbriche

C’è qualcosa di vagamente biblico, o meglio startup-esoterico, nel battezzare Calvin 40 un robot costruito in quaranta giorni. In una Parigi post-Olimpiadi 2024, dove Wandehttps://en.wandercraft.eu/calvin-40rcraft aveva già fatto scalpore facendo camminare un paraplegico grazie al suo esoscheletro, oggi si gioca una partita molto diversa: entrare nell’arena spietata della robotica umanoide industriale. Con un robot acefalo, privo di mani, ma capace di sollevare quasi il doppio del peso dei suoi concorrenti più chiacchierati come Tesla Optimus o Figure AI.

Non è una provocazione, è strategia pura. Mentre i big tech americani e le start-up cinesi inseguono l’estetica antropomorfa, Wandercraft getta nella mischia un cyborg senza volto, spogliato degli orpelli emotivi e concentrato solo sulla fisica. “La testa non serve per navigare,” dice senza mezzi termini il CEO Matthieu Masselin, con un tono che sembra voler tagliare il cordone ombelicale tra la robotica e il fantasma dell’antropocentrismo. “Le mani sono fragili,” aggiunge, facendo crollare decenni di ricerca su attuatori prensili e feedback tattile in un solo colpo di swipe.

Palo Alto Networks ha appena hackerato gli agenti AI. Ecco cosa ci hanno insegnato

Palo Alto Networks, il colosso mondiale della cybersecurity, ha appena portato all’esame del fuoco gli agenti AI con un esperimento che sembra uscito da un thriller tech. Non si è trattato di un semplice attacco, ma di una simulazione reale su due agenti identici, speculari in compiti e strumenti, ma diversi nel framework: uno basato su CrewAI, l’altro su Microsoft AutoGen. Risultato? Entrambi hanno fatto flop clamoroso.

Questa caduta degli dei digitali insegna una verità che i più sognano di ignorare: non è il framework a proteggerti, ma la tua architettura, il tuo design, e soprattutto le tue supposizioni — spesso arroganti — sulla sicurezza. Si può costruire la miglior AI del mondo, ma se lasci un varco nel prompt, negli strumenti o nella gestione della sessione, hai appena messo un tappeto rosso per l’attaccante.

De Kai: Raising AI

L’AI non ha bisogno di genitori, ma di filosofi: perché l’etica digitale è troppo seria per lasciarla ai tecnologi

Se ogni generazione ha i suoi mostri, la nostra li programma. Ma invece di affrontare la questione con il rigore che richiederebbe l’ascesa di un’intelligenza artificiale generalizzata, sembriamo preferire metafore da manuale di psicologia infantile. Ecco quindi che De Kai, decano gentile del machine learning, ci propone il suo Raising AI come una guida alla genitorialità dell’algoritmo, una Bibbia digitale che ci invita a trattare ChatGPT e compagnia come bambini da educare. La tesi? L’AI va cresciuta con amore, empatia e valori universali. Peccato che i bambini veri non abbiano una GPU con 70 miliardi di parametri e non siano addestrati leggendo interi archivi di Reddit.

Parlare di AI come se fosse un neonato non è solo fuorviante, è pericolosamente consolatorio. Il paragone piace perché rassicura: se l’AI è un bambino, allora possiamo guidarla, plasmarla, correggerla. Ma la realtà è che l’AI non ha infanzia, non ha pubertà, non ha crisi adolescenziali. L’AI non cresce: esplode. E il salto tra GPT-3.5 e GPT-4.5 ce lo ricorda con brutalità industriale.

Quando il buio diventa superpotere: la cecità curata con un minerale raro il tellurio che vede anche l’invisibile

Diciamocelo subito: non è un’altra favoletta di biohacker o un press release farcito di “futuro” e promesse in perenne fase clinica. Questa volta, i cinesi non si sono limitati a restaurare la vista nei topi ciechi. L’hanno potenziata. E lo hanno fatto usando un minerale così raro e strategico che Wall Street non ha ancora deciso se farsene spaventare o investirci a occhi chiusi. Letteralmente.

Il protagonista? Il tellurio. Una parola che suona come un personaggio minore di un fumetto Marvel, e che invece è un metallo grigio-argenteo più raro del platino, un sottoprodotto della raffinazione del rame, e a quanto pare il materiale perfetto per costruire retine artificiali bioniche che vedono ciò che l’occhio umano non ha mai potuto. L’infrarosso. Il mondo degli invisibili.

Apple: La grande illusione del pensiero artificiale

C’era una volta l’illusione che bastasse aumentare i parametri di un modello per avvicinarlo al ragionamento umano. Poi arrivarono gli LRM, Large Reasoning Models, con il loro teatrino di “thinking traces” che mimano una mente riflessiva, argomentativa, quasi socratica. Ma dietro al sipario, il palcoscenico resta vuoto. Lo studio The Illusion of Thinking firmato da Shojaee, Mirzadeh e altri nomi illustri (tra cui l’onnipresente Samy Bengio) è una doccia fredda per chi sperava che la nuova generazione di AI potesse davvero pensare. Spoiler: no, non ci siamo ancora. Anzi, forse ci stiamo illudendo peggio di prima.

Moratoria AI: il senato USA blocca le leggi locali e spalanca le porte a big tech

Una moratoria decennale sulle leggi statali in materia di intelligenza artificiale non è semplicemente una misura di buon senso burocratico. È, in realtà, una clava politica che rischia di tagliare fuori ogni tentativo locale di regolamentare un settore ormai centrale nella nostra vita quotidiana. I senatori repubblicani del Comitato Commercio, nella loro ultima versione del mega pacchetto di bilancio del presidente Donald Trump, hanno inserito proprio questo: un blocco alle normative statali sull’AI. Un regalo dorato a Big Tech, mascherato da protezione della crescita economica e competitività americana. E mentre chi lo difende parla di “semplificazione normativa”, un numero crescente di legislatori e associazioni civiche grida al disastro, vedendo all’orizzonte l’azzeramento delle tutele per consumatori, lavoratori e persino bambini.

I modelli linguistici ora generano idee scientifiche migliori dei dottorandi medi

Se un tempo erano assistenti passivi per la scrittura, oggi i modelli linguistici di larga scala giocano un ruolo inquietantemente attivo: propongono ipotesi di ricerca, delineano esperimenti, prevedono impatti, e lo fanno con una precisione che comincia a mettere in discussione l’egemonia creativa dell’intelligenza umana.

Benvenuti nell’era dell’AI Idea Bench 2025, dove gli idea generator vengono testati come startup tech: non basta essere brillanti, serve colpire il problema giusto, offrire qualcosa di fresco, e sembrare almeno costruibili con le tecnologie esistenti.

Quanto può dimenticare un modello linguistico? Il lato oscuro della “memoria” delle AI

Cosa sa davvero un modello linguistico? E soprattutto: quanto dimentica — e quanto non dovrebbe ricordare? L’articolo “How Much Do Language Models Memorize?” di Morris et al. (2025), da poco pubblicato da un consorzio tra Meta FAIR, Google DeepMind e Cornell, si muove su un crinale inquietante tra informazione, privacy e un’ossessione tecnocratica per la misura della memoria algoritmica. Spoiler: non si tratta solo di quanti gigabyte processa GPT-4, ma di quanti bit conserva, silenziosamente, su ogni dato visto.

In un mondo in cui i modelli linguistici vengono addestrati su trilioni di token — testi che contengono sia la Divina Commedia che i post del tuo dentista — ci si chiede: se il modello genera esattamente la battuta che ho scritto in una chat privata cinque anni fa, è perché ha imparato a generalizzare… o l’ha memorizzata?

Intelligenza Artificiale a Dublino: tra sprechi digitali, orgoglio Irlandese e Metahumani troppo gentili

Se non l’avessero chiamato “Dublin Tech Summit”, l’avrebbero potuto chiamare senza remore “Dublin AI Summit”. Il motivo? L’intelligenza artificiale non era solo il tema principale: era l’atmosfera stessa dell’evento, la corrente elettrica nei corridoi, il rumore bianco nei panel. Non era più una tecnologia tra le altre, ma la tecnologia. Il punto fermo e il punto interrogativo allo stesso tempo.

Il summit, che avrebbe dovuto spaziare nel vasto firmamento della tecnologia, ha finito per ruotare come una stella binaria attorno a due soli: intelligenza artificiale generativa e sostenibilità energetica. Strano, a pensarci: l’IA è software, evanescente, un’entità digitale. Eppure, divora elettricità come un condizionatore impazzito in pieno agosto. Lo sappiamo bene adesso: 12 richieste a un sistema di GenAI equivalgono a 120 ricerche su Google. Un iPhone pienamente carico. E no, non è una metafora: è proprio il consumo energetico.

Un caffè al Bar dei Daini mentre l’intelligenza artificiale si fa il lifting e Jannik Sinner inizia l’era post-umani

Roland Garros 2025. Cielo plumbeo sopra Parigi, come sempre quando la Storia si prepara ad aprire il sipario. Sotto l’arco ottocentesco del Philippe Chatrier, Jannik Sinner e Carlos Alcaraz si affrontano in una finale Slam che profuma di anni ’20, ma non quelli delle Charleston: questi sono anni algoritmici, in cui anche il tennis sta mutando codice genetico. E mentre noi ci sediamo al “bar dei daini” – caffè tiepido, croissant bruciato – le placide cronache sportive si fondono con un mondo in fiamme: tra liti pubbliche tra Musk e Trump, superbebé da 5.999 dollari e robot con più tatto dei corrieri Amazon.

Ci vuole un certo addestramento cognitivo per reggere la timeline attuale.

La finale tra Sinner e Alcaraz è l’antitesi della post-verità digitale. Due corpi reali, due nervi tesi, due cervelli biologici che giocano su terra rossa e non tra server farm e prompt ingegnerizzati. Il loro scontro è primitivo e avanguardistico, una lotta darwiniana tra due generazioni cresciute a pane e analytics. Un po’ come se Kasparov sfidasse AlphaZero, ma con la compostezza di un’epoca in cui i campioni avevano il volto sudato, non un avatar.

Un algoritmo chiamato America: l’idiozia bipartisan di sospendere la regolazione dell’AI per dieci anni

Nel grande circo americano dove i partiti si azzuffano per ogni singola virgola, c’è qualcosa che li unisce: l’incapacità di capire davvero cosa sia l’intelligenza artificiale. L’ultima trovata arriva da un’area particolarmente creativa del Partito Repubblicano, dove un emendamento inserito con chirurgica insensatezza nella proposta di riduzione fiscale sponsorizzata da Donald Trump vorrebbe impedire agli stati americani di regolamentare l’AI per i prossimi dieci anni. Dieci. Un’eternità, se parliamo di modelli che evolvono ogni tre mesi.

La NATO prova a contare i fantasmi: guerra di parole, guerra d’ombre

C’è una guerra che non si combatte coi droni, né con carri Leopard: si combatte con gli engagement. E la Nato, o meglio il suo Strategic Communications Centre of Excellence (un nome che sembra uscito da un seminario aziendale del 2012), ha appena pubblicato il Virtual Manipulation Brief 2025, un’analisi che assomiglia più a una radiografia dell’invisibile che a un rapporto di intelligence classico. Qui non si cercano carri armati, si cercano pattern. Coordinamenti sospetti. Narrativi convergenti. Troll vestiti da patrioti.

E i numeri fanno male. Il 7,9% delle interazioni analizzate mostrano chiari segnali di coordinamento ostile. Non stiamo parlando di un paio di bot russi nostalgici di Stalin che si retwittano a vicenda, ma di una sinfonia digitale ben orchestrata, che attraversa dieci piattaforme diverse – non solo X (che ormai è diventato l’equivalente social di una vecchia radio a onde corte), ma anche YouTube, Telegram, Facebook, Instagram e altre tane più oscure dove l’informazione diventa disinformazione e viceversa.

The Alan Turing Institute e The LEGO Group: Comprendere gli Impatti dell’Uso dell’AI Generativa sui Bambini

Understanding the Impacts of Generative AI Use on Children

C’erano una volta i mattoncini colorati. Poi vennero i prompt.

Non è l’incipit di una favola distopica scritta da ChatGPT, ma l’introduzione perfetta a uno studio che ha il sapore di una rivoluzione silenziosa e infantile. Il fatto che a firmarlo siano due nomi apparentemente incompatibili come The Alan Turing Institute e The LEGO Group è già di per sé un indizio potente: qualcosa si è rotto. O forse si è montato storto, come quando un bambino prova a forzare due pezzi incompatibili.

Questa indagine, che si è presa il lusso di interpellare oltre 1.700 bambini, genitori e insegnanti nel Regno Unito, è un sismografo etico e culturale. Ma a differenza dei classici report su chip, modelli LLM o disoccupazione da automazione, questo guarda direttamente negli occhi il nostro futuro: i bambini. E pone la domanda che tutti stanno evitando perché fa più paura di un algoritmo che scrive poesie: che razza di esseri umani cresceranno in un mondo dove l’intelligenza artificiale non è più un’eccezione, ma una compagna di giochi quotidiana?

La tecnologia ci renderà più umani? Una provocazione firmata Ray Kurzweil

“Ciò che ci rende umani è la nostra capacità di trascenderci.” Lo dice Ray Kurzweil, e non è un filosofo new age o un poeta esistenzialista, ma un ingegnere, inventore, multimilionario e profeta della Singolarità. La stessa Singolarità che, secondo lui, arriverà verso il 2045, con l’eleganza chirurgica di un algoritmo che impara a riscrivere il proprio codice. Un futuro che profuma di silicone e immortalità.

Report Stati evolutivi AI: linguaggio, forma, percezione con AI fisica

L’analisi e la visione del futuro e della ricerca insieme al Prof. Roberto Navigli professore presso il Dipartimento di Ingegneria Informatica, Automatica e Gestionale (Università La Sapienza Roma Babelscape) e la Prof.ssa Barbara Caputo Professoressa Ordinaria Dipartimento di Automatica e Informatica (Polito) EVENTI Milano Finanza

Intelligenza artificiale generativa, non è una moda ma un’egemonia algoritmica

Dall’intervento della Prof.ssa Barbara Caputo si evince che se c’è un errore semantico che continuiamo a reiterare, con la pigrizia di chi crede di parlare di futuro usando parole del passato, è chiamare “moda” quella che è, senza ambiguità, la più profonda rivoluzione computazionale dagli anni ’40 a oggi. L’intelligenza artificiale generativa non è un gadget filosofico per TED Talk, né un effetto speciale da tech-conference, ma una svolta epistemologica nella modellizzazione del reale. Non è un’opzione. È la condizione.

Windsurf: quando gli dei dell’intelligenza artificiale giocano a risiko con le startup

Windsurf Statement on Anthropic Model Availability

È stato l’equivalente digitale di un’esecuzione in pieno giorno. Nessuna lettera di sfratto, nessuna trattativa da corridoio. Solo un’interruzione secca, chirurgica, quasi burocratica. Windsurf, la celebre app per “vibe coding”, si è ritrovata fuori dalla porta del tempio di Claude. Anthropic, il laboratorio fondato dai fuoriusciti di OpenAI, ha deciso di tagliare la capacità concessa ai modelli Claude 3.x. Non per ragioni tecniche. Non per mancanza di fondi. Ma per geopolitica dell’AI.

Varun Mohan, CEO di Windsurf, l’ha scritto su X con la disperazione elegante di chi sa di essere pedina in un gioco molto più grande: “Volevamo pagare per tutta la capacità. Ce l’hanno tolta lo stesso.” Dietro questa frase anodina, si cela l’odore stantio di una guerra fredda tra laboratori che – da fornitori di infrastrutture – stanno sempre più diventando cannibali delle app che un tempo nutrivano.

Beijing Academy of Artificial Intelligence (BAAI): RoboBrain 2.0 promette la spatial intelligence

La cina vuole dare un cervello ai robot, ma la vera guerra è tra intelligenze

Nel cuore sempre più caldo della guerra fredda tecnologica, Pechino ha svelato il suo nuovo gioiello: RoboBrain 2.0, il “cervello” open-source pensato per colonizzare le menti—pardon, i circuiti—dei robot cinesi. Una mossa che, se letta con lenti geopolitiche e una certa vena di cinismo ingegneristico, sa meno di innovazione e più di controffensiva. Sotto la patina dell’entusiasmo scientifico e delle promesse di collaborazione industriale, si cela l’inizio di un nuovo capitolo nell’eterna partita tra intelligenza naturale, artificiale e, soprattutto, geopolitica.

Il Beijing Academy of Artificial Intelligence (BAAI) gioca d’anticipo. Con un lessico che sa di startup ma una postura da think tank governativo, ha lanciato un pacchetto di modelli AI pensati non solo per far muovere meglio i robot, ma per farli “pensare” come i loro progettisti desiderano. RoboBrain 2.0 promette una spatial intelligence più raffinata (vedi alla voce “non sbattere contro i muri”) e una capacità di pianificazione che permette alle macchine di scomporre attività complesse in sequenze logiche, autonome, ottimizzate.

Rokid AR Spatial

Occhiali spaziali e prezzi scontati, la cina invade la realtà aumentata senza chiedere permesso

A prima vista sembrano solo un altro paio di occhiali tech. Ma dentro i Rokid AR Spatial c’è la Cina che, con una lente ben levigata e una mano sul chip di Qualcomm, vuole ribaltare le regole del gioco globale della realtà aumentata. E lo fa a colpi di sconto, e-commerce e strategia militare mascherata da shopping compulsivo. AliExpress come cavallo di Troia, il “BigSave” come esca dorata: benvenuti nel nuovo fronte digitale della geopolitica commerciale.

Rokid, startup di Hangzhou specializzata in eyewear aumentato, ha deciso di lanciarsi nel mercato globale con la grazia di un bulldozer in vetrina. Dal 16 giugno, proprio in mezzo alla bolgia dell’“AliExpress 618 Summer Sale”, i suoi occhiali AR Spatial saranno disponibili in offerta mondiale a 568 dollari, quasi 100 in meno rispetto al prezzo originale. Un posizionamento aggressivo che profuma di operazione d’assalto. La tecnologia? Spinta da un hub portatile che alimenta la visione computazionale spaziale con un chip Qualcomm integrato. Il visore pesa solo 75 grammi ma porta sulle spalle un carico strategico molto più pesante.

Google arma Gemini di orologio e volontà: scheduled actions ecco perché l’AI non dimentica più nulla

Nel gioco a scacchi tra Google e OpenAI, la prossima mossa si gioca sul tempo. Non nel senso generico della velocità, dove ormai tutto si misura in nanosecondi computazionali, ma nel senso umano del calendario, della pianificazione, delle piccole promesse che dimentichiamo e delle abitudini che ci raccontano chi siamo. E Google, con la sua Gemini, ha deciso di diventare un assistente con memoria e agenda. Altro che segretaria virtuale: adesso sa anche quando ricordartelo.

La funzione si chiama “scheduled actions” e sembra innocua, quasi banale. Ma chi conosce la guerra delle AI sa che sotto ogni rollout in punta di codice si nasconde una visione strategica. Tradotto: l’utente potrà dire a Gemini “ricordamelo domani alle 18” o “ogni lunedì mandami idee per il blog” e l’AI lo farà. Semplice? Solo in apparenza. Perché dietro quel “lo farà” c’è il passo definitivo verso un’AI che non reagisce più, ma agisce. È questo il punto. Non è un chatbot che risponde. È un agente che prende iniziative — su tua delega, ovvio, ma comunque in autonomia operativa.

Microsoft conquista il trono dell’intelligenza artificiale mentre Nvidia guarda dal retrovisore

Certe guerre si combattono con le armi, altre con i transistor. E poi c’è quella silenziosa, ma esplosiva, tra Microsoft e Nvidia: una battaglia che si gioca a colpi di capitalizzazione di mercato, visioni strategiche e alleanze con le AI più fameliche del pianeta. E oggi, il colosso di Redmond piazza la sua bandiera sul picco dei 3.500 miliardi di dollari, strappando per un soffio lo scettro di azienda più preziosa del mondo alla rivale siliconica di Santa Clara.

Pagina 12 di 145

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie