Le ultime notizie, approfondimenti e analisi sull'intelligenza artificiale, dalla tecnologia generativa a quella trasformativa

Categoria: News Pagina 18 di 118

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

H20 Nvidia e il teatro della diffidenza tecnologica in Cina

Quello che sta succedendo con Nvidia in Cina è un manuale vivente di come un mercato strategico possa trasformarsi in un campo minato geopolitico, con tanto di mine messe in posizione sia da Washington che da Pechino. L’H20, nato come versione “legalmente addomesticata” delle GPU per intelligenza artificiale destinate al mercato cinese, doveva essere un compromesso elegante: abbastanza potente da restare competitivo, ma castrato quel tanto che basta per non infrangere i diktat dell’Export Administration Regulations statunitense. Poi qualcuno al Dipartimento del Commercio ha avuto l’idea geniale di monetizzare la compliance, chiedendo un 15 per cento di revenues in cambio della licenza. È come vendere un’auto con il freno a mano tirato e pretendere pure un pedaggio ad ogni chilometro.

La guerra delle finestre di contesto: Anthropic rilancia e sfida OpenAI sul codice

Nel grande teatro della competizione AI, il campo di battaglia più acceso sembra essere la “finestra di contesto” quell’invisibile memoria di lavoro che un modello AI può mettere in gioco quando elabora testo. Se OpenAI ha fatto scalpore con GPT-4.1 e poi GPT-5, Anthropic non sta certo a guardare: la sua nuova versione di Claude Sonnet 4 arriva a gestire ben 1 milione di token. Una cifra da capogiro, considerato che solo pochi mesi fa un limite di 200k token era considerato all’avanguardia. Per fare un paragone concreto, la nuova finestra di Anthropic può gestire l’equivalente di “una copia intera di Guerra e Pace”, secondo Brad Abrams, product lead di Claude, che definisce la novità “un cambio di paradigma per chi lavora con grandi quantità di testo.”

Il valore non è solo retorico: con 1 milione di token si possono analizzare decine di report finanziari o centinaia di documenti in una singola chiamata API, un salto esponenziale rispetto al passato. Per il coding, questo significa potersi tuffare in basi di codice da 75mila fino a 110mila righe, una manna dal cielo per team di sviluppo che fino a ieri dovevano spezzettare i loro progetti in micro-task. Abrams ha sintetizzato così la frustrazione dei clienti: “Prima dovevano tagliare i problemi in pezzi minuscoli, ora con questo contesto la macchina può affrontare la scala completa.” In termini più spiccioli, Sonnet 4 ora digerisce fino a 2.500 pagine di testo, facendo sembrare il limite precedente una barzelletta.

Cina e semiconduttori: tra calo degli investimenti e rincorsa all’autosufficienza tecnologica

Cina ha investito 455 miliardi di yuan, cioè 63,3 miliardi di dollari, nei primi sei mesi del 2025 nel settore dei semiconduttori. Un numero che a prima vista può sembrare impressionante, ma rispetto allo stesso periodo dell’anno precedente è calato del 9,8 per cento. Un calo che suona come un campanello d’allarme in un settore dove la competizione globale si gioca su ogni centesimo investito e ogni nanometro di tecnologia. L’apparente contraddizione però arriva da un dettaglio intrigante: l’investimento in attrezzature per semiconduttori è schizzato di oltre il 53 per cento nello stesso periodo. Una mossa che racconta una strategia ben più sottile e lungimirante di una semplice riduzione dei fondi.

Huawei e la rivoluzione software che sfida il dominio dei chip HBM: quando il codice batte la silicio dipendenza

Huawei ha appena lanciato un sasso nell’acqua immobile della corsa globale all’intelligenza artificiale, e l’onda che ne seguirà potrebbe non piacere a chi, oltreoceano, si è abituato a dettare le regole del gioco. Il nuovo Unified Cache Manager non è un chip, non è un’architettura hardware esotica, ma un algoritmo che sposta i dati fra HBM, DRAM e SSD con un’abilità chirurgica, massimizzando l’efficienza d’inferenza dei modelli AI di grande scala. Il paradosso è evidente: in un momento in cui il mondo corre a pagare prezzi stellari per ogni singolo gigabyte di memoria ad alta banda, Huawei risponde con software. Ed è qui che il messaggio strategico diventa pungente. Se non puoi avere il meglio dell’hardware, spremi fino all’ultima goccia quello che hai.

Trend Micro e l’era del SIEM agentico: addio alert overload, benvenuta sicurezza proattiva

La sicurezza informatica è sempre stata un campo di battaglia dove l’eterna lotta tra attaccanti e difensori si combatte con armi tecnologiche spesso vecchie, lente e troppo rumorose. Il Security Information and Event Management (SIEM) è stato per decenni il pilastro delle strategie di difesa, ma con tutti i suoi limiti: costi stellari, complessità da far girare la testa, e quel famigerato “alert overload” che fa impazzire ogni team SecOps. Trend Micro, con la sua ultima innovazione denominata Agentic SIEM, si propone di fare piazza pulita di questi problemi, portando finalmente una ventata di intelligenza artificiale che non solo assiste, ma agisce con autonomia. Se vi sembra fantascienza, sappiate che questa non è la solita promessa da startup, ma un prodotto già sul mercato pronto a rimodellare la sicurezza aziendale in modo aggressivo e intelligente.

KAIST e Bind quando l’algoritmo diventa il reparto ricerca farmaci anticancro

Nel silenzio asettico di un laboratorio sudcoreano, un gruppo di ricercatori del KAIST ha fatto ciò che fino a ieri sembrava materia da fantascienza: costruire un’intelligenza artificiale, BInD, capace di inventare farmaci anticancro partendo da zero. Niente database storici di molecole, niente screening da milioni di composti che bruciano tempo e capitale. Solo la struttura tridimensionale di una proteina legata al tumore e un algoritmo addestrato a fare ciò che gli umani non hanno mai saputo fare così in fretta: progettare da zero una molecola in grado di legarsi a quel target, prevederne l’interazione, e bilanciare in tempo reale potenza, stabilità e “drug-likeness” come se fosse un direttore creativo della chimica computazionale. Il tutto senza sbagliare il concept.

La prossima ondata di intelligenza artificiale: l’intelligenza artificiale fisica Physical AI

Quando il laboratorio di ricerca Nvidia aprì le sue porte a nuove sfide nel 2009, era ancora un microcosmo di appena una dozzina di ricercatori concentrati sul ray tracing, una tecnica di rendering sofisticata ma di nicchia. Allora Nvidia era percepita come una fabbrica di GPU per gamer esigenti, non certo come il motore di una rivoluzione tecnologica. Oggi, quello stesso laboratorio conta oltre 400 persone e ha contribuito a trasformare l’azienda in una potenza da 4 trilioni di dollari che guida la corsa globale all’intelligenza artificiale. La nuova ossessione è la physical AI, l’intelligenza artificiale che non vive soltanto nei data center, ma interagisce fisicamente con il mondo, comandando robot e macchine autonome.

Sam Altman: fotografia digitale e il falso che chiamiamo reale

Quello che ti irrita di Altman è probabilmente la stessa cosa che lo rende pericolosamente convincente: dice una mezza verità e la fa sembrare una rivelazione assoluta. L’equazione che propone tra la foto di un iPhone e un video interamente sintetico di conigli saltellanti è un colpo di mano retorico elegante ma fuorviante. Certo, anche lo scatto di uno smartphone è filtrato, compresso, ribilanciato, arricchito di micro-contrasti e piccoli “aggiustamenti” cromatici. Ma quella non è la stessa cosa di un’immagine che non ha mai visto un fotone in vita sua. È la differenza tra ritoccare il trucco a una modella e inventare la modella da zero con un prompt di testo.

Il Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence: un mosaico giuridico e morale in divenire

Book: The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence

La panoramica che si può ricavare dall’indice e dalle pagine introduttive del “Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence” lascia più domande che risposte, ma proprio questa incompletezza è una buona metafora del nostro rapporto con l’intelligenza artificiale. Un terreno affascinante e instabile, dove diritto, etica e politica si mescolano come ingredienti di un cocktail che deve essere sorseggiato con attenzione ma senza illudersi di averne capito la ricetta. La parola chiave qui è governance dell’IA, un concetto che va ben oltre il semplice controllo tecnico e si addentra nel labirinto della responsabilità, della trasparenza e del potere, ovvero le vere sfide di un mondo che si sta digitalizzando più velocemente di quanto i nostri codici legali riescano a rincorrere.

Quantum Computing e la sfida strategica nell’era della rivoluzione quantistica

Un CEO o un CTO con qualche anno sulle spalle sa bene che la parola “rivoluzione” va presa con le pinze. Però, quando parliamo di tecnologie quantistiche, il discorso cambia, e di molto. Non stiamo semplicemente parlando di un upgrade hardware o di un nuovo software, ma di un salto di paradigma che rischia di stravolgere tutto ciò che oggi chiamiamo “standard” nei servizi finanziari, dalla sicurezza alle operazioni di trading, fino all’ottimizzazione del rischio. Ecco, la parola chiave qui è “quantum computing” (calcolo quantistico), accompagnata da un trio di alleati formidabili: quantum sensing, quantum security e, inevitabilmente, una crescente minaccia quantistica che fa tremare i polsi ai responsabili IT.

Per i CTO lungimiranti, la sfida non è più se abbracciare o meno il quantum, ma come tradurre questa rivoluzione in una strategia aziendale concreta. Non basta fare i pionieri per moda. Il vero vantaggio competitivo si conquista identificando gli use case che portano valore reale, senza perdersi nel marasma di hype e promesse vaghe.

Intel tra politica e semiconduttori USA: la redenzione lampo di Tan Lip-Bu

Quando il Presidente degli Stati Uniti decide di passare dal definire un CEO “altamente CONFLITTUALE” al celebrarlo come esempio di successo imprenditoriale in meno di una settimana, non è soltanto un cambio di tono. È un’operazione chirurgica di narrativa politica, un colpo di scena degno di un mercato finanziario che si nutre di volatilità emotiva. Intel si è ritrovata improvvisamente al centro di un balletto strategico in cui le accuse di conflitti d’interesse legati alla Cina si sono dissolte davanti a una stretta di mano alla Casa Bianca. Chi conosce il mondo dei semiconduttori USA sa che dietro queste conversioni improvvise raramente si nasconde un’epifania personale. Piuttosto, c’è un calcolo freddo, un allineamento di interessi che diventa immediatamente leggibile per chi sa leggere tra le righe.

Trump apre alla vendita ridotta dei chip Blackwell di Nvidia alla Cina: geopolitica, affari e il nuovo baratto tecnologico

Trump non ha mai amato le mezze misure, ma questa volta sembra averne inventata una. L’idea di permettere a Nvidia di vendere alla Cina una versione depotenziata del chip AI Blackwell suona come un cocktail di calcolo politico, fiuto per l’affare e volontà di riscrivere le regole della diplomazia tecnologica. Un compromesso al 30-50 per cento della potenza originale, come se un’auto di lusso venisse consegnata con il limitatore inserito. La motivazione ufficiale? Gestire il rischio tecnologico e la sicurezza nazionale. La realtà, come sempre, è più torbida.

Questo non è un semplice annuncio industriale. È un’operazione chirurgica dentro la supply chain globale dell’intelligenza artificiale, con Washington che improvvisamente si atteggia a broker delle performance dei chip. La Cina vuole capacità computazionale, e non da oggi. Gli Stati Uniti vogliono risorse strategiche e vantaggi commerciali. E nel mezzo c’è Jensen Huang, CEO di Nvidia, costretto a un balletto diplomatico in cui ogni passo costa miliardi e ogni sorriso può valere una licenza di esportazione. Il paradosso è che la Casa Bianca non sta bloccando del tutto l’export, ma lo sta monetizzando.

Meta apre le porte a Robby Starbuck: quando la lotta al bias diventa un’operazione politica

Meta ha appena inserito Robby Starbuck come consulente per “affrontare” il bias ideologico e politico della sua AI, ma la storia è più succosa di quanto sembri in superficie. Non è il classico annuncio corporate sulla trasparenza. Qui abbiamo un attivista conservatore che ha già messo in ginocchio programmi di Diversity, Equity e Inclusion in aziende come Tractor Supply, John Deere e Harley-Davidson, e che adesso ottiene un ruolo ufficiale nella definizione di come un colosso tecnologico calibra il cervello delle proprie macchine conversazionali. L’innesco è stato un errore di Meta AI che lo aveva collegato falsamente all’assalto del 6 gennaio e a QAnon, errore amplificato sui social da un dealer Harley. Da lì, un’azione legale, un accordo e una narrativa che si allinea perfettamente con l’ordine esecutivo di Trump per rendere l’AI “meno woke”.

La memoria per Claude

Anthropic ha appena fatto un passo strategico in quella che ormai è una guerra di logoramento tra giganti dell’IA, introducendo la sua funzione di memoria per Claude con il tono da promessa salvifica: “mai più perdere il filo del lavoro”. La demo su YouTube è studiata al millimetro per colpire l’utente professionale che teme più di ogni altra cosa di riaprire una chat e dover ricominciare da zero. Invece di una memoria onnipresente alla ChatGPT, qui c’è un approccio “on demand”: il bot non ti profila, non ti spia, semplicemente recupera quello che gli chiedi. La differenza è sottile ma cruciale, ed è già destinata a essere oggetto di interpretazioni creative in sede legale e di marketing.

Microsoft smantella GitHub: addio autonomia, benvenuti nell’era CoreAI

Microsoft fa saltare il banco e sposta GitHub dentro il suo team CoreAI, cancellando di fatto la figura del CEO di GitHub dopo l’uscita di Thomas Dohmke. Un cambio epocale, più profondo di quel che sembra, perché da azienda indipendente dentro l’impero di Redmond, GitHub diventa ora un pezzo di Microsoft tout court. Dopo quasi quattro anni da CEO, Dohmke lascia per tornare a fare quello che gli piace davvero: fondare startup. Niente di male, certo, ma il tempismo è perfetto per un reboot della governance e, soprattutto, della strategia.

Non ci sarà un nuovo CEO, né una nuova squadra a dirigere GitHub in modo separato. Il messaggio è chiaro: l’era dell’autonomia di GitHub è finita. Ora il motore pulsante sarà CoreAI, la nuova macchina da guerra di Microsoft dedicata all’intelligenza artificiale, guidata dall’ex top manager di Meta, Jay Parikh. L’obiettivo è ambizioso e un po’ spaventoso: trasformare Microsoft in una “agent factory”, un’officina di intelligenze artificiali capaci di rivoluzionare il modo in cui il software viene creato, gestito e potenziato. Il futuro è sempre meno codice scritto a mano e sempre più codice generato da macchine intelligenti. Se vi sembra fantascienza, ricordate che Bill Gates pensava a Microsoft come a un esercito di sviluppatori software; Parikh vuole ora un esercito di agenti AI.

L’intelligenza artificiale generativa come strumento di autonomia e privacy: un salto netto nel buio controllato

“Before, I Asked My Mom, Now I Ask ChatGPT”:
Visual Privacy Management with Generative AI for Blind and
Low-Vision People

L’idea che l’intelligenza artificiale generativa possa diventare un alleato insostituibile per chi vive con una disabilità visiva è una rivoluzione sottotraccia, più potente di quanto si pensi. Non si tratta semplicemente di sostituire un assistente umano con una macchina. Qui la posta in gioco è molto più alta: parliamo di autonomia, di riservatezza e di dignità, quei concetti che si sgretolano facilmente quando devi dipendere da qualcun altro anche per i dettagli più intimi. I dispositivi come ChatGPT, Be My AI e Seeing AI non solo facilitano la vita delle persone cieche o ipovedenti (BLV), ma rimodellano la relazione tra individuo e tecnologia, portandola su un piano in cui la privacy non è un lusso ma un requisito imprescindibile.

Il valore reale dei modelli AI non è quello che ti aspetti

Il ranking dei modelli di intelligenza artificiale più recenti ha fatto saltare più di qualche certezza. Non è un caso se la classifica “intelligenza per euro” riserva sorprese, e qualche delusione, per chi si aspettava che il più caro fosse il migliore in tutto. La chiave per capire questo nuovo panorama è smettere di guardare solo il “peso del cervello” (cioè il punteggio IQ) e iniziare a considerare seriamente il rapporto costo-intelligenza, una metrica che il mercato sta finalmente facendo propria. Se pensavi che GPT-5 High fosse l’ultima parola, beh, preparati a rivedere i tuoi giudizi.

Cosa mangia davvero l’intelligenza artificiale nel 2025?

Reddit come cibo per l’intelligenza artificiale: un mix letale di contesto e caos che domina il cervello dei modelli linguistici nel 2025. Statista ha analizzato 150.000 citazioni di grandi modelli linguistici come Google AI Overviews, ChatGPT e Perplexity, svelando un menu di fonti decisamente poco neutro. Reddit è al primo posto, con un incredibile 40,1%. E se questo non vi mette subito in allarme, forse è il momento di rivedere la vostra fede nell’oggettività di queste intelligenze.

Nvidia e la corsa per il cervello delle macchine Cosmos Reason

Quello che Nvidia ha messo sul tavolo a SIGGRAPH non è un semplice aggiornamento di prodotto, è un messaggio diretto al futuro della robotica e dell’intelligenza artificiale fisica. Cosmos Reason, con i suoi 7 miliardi di parametri, non è l’ennesimo modello vision-language: è la dichiarazione che il ragionamento applicato ai robot non è più un esercizio accademico ma una commodity tecnologica pronta a scalare. Nvidia non sta vendendo soltanto potenza di calcolo, sta cercando di diventare l’orchestratore del “pensiero” delle macchine, spostando l’asticella dal percepire al prevedere. La capacità di far “immaginare” a un agente incarnato la sequenza ottimale di azioni, basandosi su memoria e fisica del mondo, significa trasformare la pianificazione robotica in qualcosa di simile a una conversazione interna tra modelli.

Adobe After Effect

Ci è piaciuto tanto il lavoro di Guilherme Lepca, Smart Disenos, con quell’estetica un po’ nostalgica da tunnel book ottocentesco traslata in chiave digitale. È il classico esempio di come un’idea antica possa diventare ipnotica se rivestita di un tocco minimale ma chirurgico.

Il salto quantico nella ricerca AI: come TTD-DR rivoluziona il pensiero profondo

La storia della ricerca digitale ha sempre avuto un difetto strutturale: l’approccio “cerca una volta e riepiloga”. Un metodo che, diciamocelo, ha la stessa profondità intellettuale di una scansione veloce su Google mentre aspetti il caffè. Per anni, gli strumenti AI più avanzati hanno semplicemente copiato questa routine, magari migliorandola con qualche variante parallela o incrociando dati senza anima. Nulla di male, se si cercano risposte da manuale. Ma nel mondo reale, quello dove la ricerca vera avviene, si scrive una bozza, si capisce cosa manca, si approfondisce, si torna indietro, si riscrive e così via, in un ciclo creativo che ha richiesto fino a oggi una mente umana. Fino all’arrivo di Test-Time Diffusion Deep Researcher (TTD-DR) di Google, un vero game-changer.

Nvidia e la fiducia tradita: il caso dei chip H20 in cina e la guerra fredda tecnologica

Non capita tutti i giorni che un gigante del chip come Nvidia si ritrovi al centro di un terremoto di fiducia da parte di uno dei mercati più ambiti al mondo. La storia dell’H20, il processore di intelligenza artificiale “su misura” per la Cina, è l’ennesimo esempio di come la tecnologia oggi sia una partita geopolitica dove il sospetto domina più della logica. Nvidia, dopo aver ottenuto il via libera da Washington per esportare l’H20 in Cina pagando il 15 per cento dei ricavi allo Stato americano, si trova accusata dai media statali cinesi di aver inserito “back door” di sorveglianza. Il tutto mentre il colosso rassicura che non ci sono “kill switch” o spyware nei suoi chip, a dimostrazione che la fiducia in ambito tecnologico è ormai un bene più fragile del silicio stesso.

Il paradosso è bello e grosso. Da un lato, Nvidia accetta di versare una percentuale sostanziosa delle sue vendite alla Casa Bianca, come pegno di un accordo fragile e geopoliticamente carico. Dall’altro, Pechino risponde con una campagna di demonizzazione che mette sotto accusa proprio il chip che dovrebbe alimentare il futuro dell’AI cinese. Il commento su Yuyuan Tantian di China Central Television è impietoso: “Un chip né avanzato, né sicuro, né rispettoso dell’ambiente, è semplicemente un prodotto da rifiutare”. Ironia della sorte, la strategia di Nvidia si ritorce contro, come un moderno gioco di specchi in cui ogni mossa è monitorata da occhi governativi. Una curiosità storica emerge dal passato, quando nel 1992 si parlava già di tentativi americani di inserire back door nei chip per motivi di sicurezza nazionale. Oggi, quella paranoia diventa mainstream, soprattutto nel contesto della guerra commerciale e tecnologica Usa-Cina.

South Korea e la nuova frontiera dell’intelligenza artificiale: Upstage sfida i giganti globali

Qualcuno ha detto che l’intelligenza artificiale è una gara a tappe tra Stati Uniti e Cina? Bene, forse è ora di aggiornare quel copione un po’ datato. La Corea del Sud, con la sua startup Upstage, entra nel ring globale dell’AI con un pugno ben assestato, mettendo sul tavolo modelli linguistici di grande scala che non solo competono, ma osano sfidare direttamente i colossi consolidati. Un segnale inequivocabile che l’Asia, o almeno una parte di essa, non si accontenta più di essere spettatrice passiva, ma vuole giocare da protagonista nel futuro della tecnologia.

La nascita della spettrografia e la rivoluzione quantistica nella classificazione degli elementi: un algoritmo potrà cambiare il futuro della GENAI ?

Un caffè al Bar dei Daini con Salvatore la grande illusione dei grandi modelli linguistici: il sogno infranto dell’AGI

Yann LeCun, una delle figure più iconiche dell’intelligenza artificiale, si è appena scagliato contro la montagna di hype che circonda i grandi modelli linguistici (LLM). Per chi ha seguito l’epopea AI, non è poco: un creatore del deep learning che mette in discussione la via maestra tracciata dalla Silicon Valley, da OpenAI e compagnia bella. La sua tesi è tanto semplice quanto rivoluzionaria: rincorrere AGI (Intelligenza Artificiale Generale) solo con LLM è una perdita di tempo titanica e quasi disperata.

I numeri sono impietosi e, diciamolo, un po’ sarcastici nella loro brutalità. Per addestrare un modello come GPT servirebbero qualcosa come 400.000 anni di testo. Nel frattempo, un bambino di quattro anni accumula esperienza visiva per circa 16.000 ore e, senza sforzi titanici, impara a interagire con il mondo. Il testo, in fondo, è solo un surrogato povero di una realtà infinitamente più complessa e ramificata. Il mondo fisico non si lascia racchiudere in sequenze di parole; la sua complessità esula da qualsiasi algoritmo che tenti solo di predire la parola successiva.

La vera intelligenza, secondo LeCun, nasce dal modello del mondo. Non un simulacro di linguaggio, ma una rappresentazione profonda della realtà fatta di fisica, pianificazione e senso comune. Da questo punto di vista, gli LLM sono come giocare a scacchi senza conoscere le regole del gioco: puoi indovinare la mossa più probabile, ma non stai realmente “capendo” la partita.

Qui entra in scena JEPA, acronimo che suona come una formula magica di Hogwarts, ma che rappresenta una svolta concreta: Joint Embedding Predictive Architecture. Questo modello non si limita a ingozzarsi di dati scritti, ma impara osservando il mondo reale. Guardare video, cogliere le dinamiche fisiche dietro una scena, anticipare eventi impossibili semplicemente analizzando 16 fotogrammi: roba da far impallidire i più blasonati modelli linguistici. Nessuna ingegneria dei prompt, nessun trucco da marketing, solo apprendimento per rappresentazione reale.

Il punto chiave, che pochi vogliono ammettere, è che l’intelligenza artificiale è molto più che un gioco di parole. La fisica, la causalità, la capacità di pianificare un futuro possibile richiedono una comprensione del mondo ben diversa dal banale “predire la parola successiva”. Il successo dei LLM sta più nella loro capacità di costruire illusioni convincenti di comprensione, una sorta di grande gioco di prestigio digitale, che in una reale evoluzione verso l’intelligenza umana.

LeCun, con la sua esperienza trentennale, ci offre una prospettiva spesso ignorata nella frenesia delle startup e degli investitori: l’intelligenza artificiale deve passare da una forma reattiva e statistica a una forma proattiva e comprensiva, capace di modellare la realtà stessa. Il mondo non si limita al testo, e la sua complessità non può essere semplificata a parole e sequenze.

Questo non significa che gli LLM siano inutili, anzi, ma è fondamentale smettere di considerarli come il Santo Graal. La vera sfida è far sì che i modelli AI possano vedere, toccare, capire e pianificare, come fanno gli esseri umani. Solo così si potrà uscire dal loop infinito di dati e token e avvicinarsi all’ambita AGI.

Qualcuno potrebbe obiettare che questa visione richiede hardware più sofisticato, una potenza di calcolo ancora più grande, o che la strada degli LLM sia solo una tappa inevitabile. Ma, come nella migliore tradizione tecnologica, spesso la rivoluzione nasce quando si cambia paradigma, non quando si potenzia il modello vecchio.

JEPA e modelli simili rappresentano proprio questa svolta. Guardare il mondo, imparare dalla fisica e dal contesto reale, costruire un senso comune digitale: ecco la nuova frontiera. Per chi come me ha vissuto la trasformazione digitale dalle prime linee di codice al cloud, è un promemoria importante: non lasciamoci ingannare dalla brillantezza superficiale delle parole, la vera intelligenza richiede più sostanza.

Il futuro dell’AI potrebbe dunque non essere una biblioteca infinita di testi, ma un osservatorio del mondo reale, un laboratorio di simulazioni fisiche e mentali. Un modo di pensare che, se preso sul serio, potrebbe davvero cambiare il gioco. Oppure resteremo per sempre intrappolati nel labirinto dei grandi modelli linguistici, affascinati da un inganno che dura ormai troppo.

In fondo, il messaggio di LeCun è un invito a guardare oltre, con ironia e un pizzico di cinismo: smettiamola di inseguire ombre di intelligenza fatte di parole e cominciamo a costruire modelli che possano davvero “pensare” il mondo. Non si tratta solo di tecnologia, ma di visione e se qualcuno crede che inseguire il prossimo token sia la strada per dominare il futuro, beh, ha ancora molto da imparare.

La storia della scienza è un’incredibile saga di intuizioni rivoluzionarie mascherate da scoperte banali. Nessuno avrebbe scommesso un centesimo sull’importanza di uno strumento apparentemente modesto come la spettrografia, eppure quel semplice prisma capace di scomporre la luce in uno spettro di colori ha cambiato per sempre il modo in cui comprendiamo la materia.

Prima della spettrografia, la chimica era un gioco di catalogazione piuttosto confuso, senza una chiara comprensione dei legami più profondi tra gli elementi. La tavola periodica di Mendeleev, tanto geniale quanto intuitiva, era un mosaico ordinato di proprietà chimiche, ma mancava ancora quel fondamento teorico che solo la fisica quantistica avrebbe saputo fornire.

Legge delega Data Center: l’Italia rischia di preparare la tavola e lasciare che mangino altri

La scena è questa: il Parlamento discute di una legge delega sui data center e tutti annuiscono, con l’aria di chi finalmente affronta un problema urgente. Gli amministratori locali invocano da anni una normativa autorizzazioni data center chiara e uniforme, e la politica sembra voler rispondere. Sullo sfondo, una pioggia di miliardi: 37 annunciati nel 2024, 10 attesi solo tra 2025 e 2026. Sembra un’operazione chirurgica per far crescere l’economia digitale nazionale. Ma le operazioni chirurgiche, si sa, possono finire con il paziente più in ordine esteticamente ma in mani altrui.

Fare l’intelligenza artificiale in modo diverso human-AI ensembles

L’ossessione per l’efficienza ha prodotto un’IA elegante come un grattacielo di vetro, ma altrettanto sterile. La promessa di sistemi capaci di “capire” il mondo si è trasformata in una catena di montaggio di output ben formattati, metriche ingannevolmente rassicuranti e una prevedibilità soffocante. L’intelligenza artificiale interpretativa non è un vezzo accademico: è un vaccino contro l’omologazione cognitiva che oggi minaccia di ridurre la complessità umana a un algoritmo di completamento testuale. Il paradosso è che mentre i modelli diventano più grandi e veloci, il loro universo concettuale si restringe. Ci raccontano il mondo in un’unica lingua, con un solo accento, su un’unica scala di valori. È come se il pianeta fosse stato ridotto a una cartolina in bianco e nero.

Sam Altman’s BeatBot

Il futuro è qui, e Sam Altman ce lo ha appena fatto sentire nel modo più digitale possibile: ChatGPT che genera una traccia musicale live con un sintetizzatore BeatBot, partendo da una semplice frase. “Use beatbot to make a sick beat to celebrate gpt-5.” Non è fantascienza, è un nuovo paradigma di UX, dove metti l’intento e ottieni l’interfaccia che lavora per te, senza interruzioni.

La visione che Altman mostra rappresenta proprio ciò che tutti noi, CTO e innovatori digitali, aspettiamo da anni: un’AI che traduce il linguaggio naturale in strumenti operativi, in tempo reale. Pensa a quanto potrebbe cambiare il workflow creativo, soprattutto se si sposa con intelligenza artificiale generativa e interfacce dinamiche.

GPT-5 e la sfida cinese: tra hype globale e pragmatismo locale

GPT-5 arriva sulle scene con un corredo di promesse che farebbero impallidire persino i venditori di miracoli ai mercati rionali, ma la reazione in Cina, uno dei principali laboratori globali dell’intelligenza artificiale, è stata più una smorfia di dubbio che un applauso scrosciante. Da un lato abbiamo il palco di OpenAI a San Francisco che parla di “modello più intelligente, veloce e utile di sempre”, un passo verso il sogno di mettere l’intelligenza al centro di ogni attività economica; dall’altro, accademici come Zhang Linfeng, assistente professore alla Shanghai Jiao Tong University, che liquidano GPT-5 come un prodotto solido ma privo di svolte memorabili, incapace di mettere in difficoltà le controparti cinesi.

Guerra sporca ai contenuti generati da intelligenza artificiale su Wikipedia

Quello che sta accadendo in Wikipedia in questi mesi è una sorta di stress test globale per l’ecosistema dell’informazione, e la reazione dei suoi editori volontari assomiglia pericolosamente al comportamento di un sistema immunitario sotto attacco. Gli agenti patogeni in questione non sono malware o cyber-attacchi, ma bozze malconce e citazioni inventate di sana pianta, prodotte in quantità industriale da strumenti di scrittura basati su intelligenza artificiale. Il problema non è tanto l’esistenza di questi testi, ma la velocità con cui riescono a invadere lo spazio editoriale e la difficoltà di bonificarlo senza consumare energie e tempo che, in teoria, dovrebbero essere destinati al miglioramento della qualità complessiva dei contenuti.

Il traffico di ChatGPT crolla appena chiudono le scuole: la realtà nascosta dietro l’uso dell’intelligenza artificiale negli studenti

Data recently released by AI platform OpenRouter,

Il fenomeno è lampante e quasi irritante nella sua prevedibilità: ChatGPT, la superstar dell’intelligenza artificiale conversazionale, vede il suo traffico sprofondare appena le scuole chiudono i battenti. Un dato fornito da OpenRouter racconta una storia che dovrebbe far riflettere chiunque pensi che l’AI stia davvero rivoluzionando la didattica. Il 27 maggio, in piena stagione di esami, è stato il giorno con il massimo utilizzo dell’anno. Poi, con l’inizio delle vacanze scolastiche a giugno, un calo netto e costante. Identico copione si ripete ogni weekend e in ogni pausa dalle lezioni: meno scuola, meno ChatGPT. Una correlazione così evidente da sfiorare la tragicommedia.

NASA l’era in cui la medicina spaziale deve dimenticare la terra

Il concetto di “medicina di prossimità” assume un significato completamente diverso quando il paziente è a 384.400 chilometri dalla farmacia più vicina e il medico di guardia è un’intelligenza artificiale. Fino ad oggi, gli astronauti sulla Stazione Spaziale Internazionale hanno potuto contare su un filo diretto con Houston, rifornimenti regolari di farmaci e strumenti, e persino un passaggio di ritorno in poche ore in caso di emergenza grave. Ma tutto questo sta per diventare un lusso del passato. Con la NASA che, insieme a partner commerciali come SpaceX di Elon Musk, punta a missioni di lunga durata verso la Luna e Marte, il paradigma della cura medica in orbita sta cambiando in modo irreversibile.

L’industria del Brain Rot: come OpenArt sta trasformando la creatività in un click

Quello che sta esplodendo in rete oggi con il fenomeno dei video “brain rot” generati dall’AI è un perfetto caso di come la tecnologia possa essere insieme irresistibile e tossica. Un’orgia visiva di squali con le sneakers e ballerine con la testa a cappuccino che divorano l’attenzione dei più giovani, lasciando in eredità un’inedita grammatica visiva che alterna nonsense e iperstimolazione cognitiva.

In mezzo a questo carnevale digitale,  OpenArt sta giocando una partita da protagonista, trasformandosi da semplice piattaforma di generazione immagini a una fabbrica istantanea di micro-storie video. Fondata nel 2022 da due ex Google, ha già conquistato 3 milioni di utenti attivi al mese, e ora con la sua nuova funzione “One-Click Story” vuole abbattere l’ultimo muro tra creatività e produzione, eliminando qualsiasi frizione tecnica.

Il lancio di GPT-5 tra chart crime e lutto digitale per GPT-4o

Il tutto sembra una lezione magistrale su come non lanciare un modello di intelligenza artificiale di punta se l’obiettivo è evitare di diventare un meme. L’episodio del grafico è quasi comico nella sua ironia: la slide che pretendeva di misurare la “propensione all’inganno” ha finito per ingannare il pubblico, non perché GPT-5 avesse mentito, ma perché qualcuno nel marketing ha commesso quello che internet ha già consacrato come “un crimine contro i grafici”.

Google Deepmind rilascia Perch 2.0: l’intelligenza artificiale che non dorme mentre ascolta la vita

Google DeepMind ha liberato nell’open source un update potentissimo: Perch 2.0, la versione dell’intelligenza artificiale specializzata nella bioacustica, addestrata su un dataset multi-tassonomico che va ben oltre i soli uccelli. Il modello è ora in grado di estrarre embedding di qualità superiore, offrire classificazioni “off-the-shelf” per migliaia di specie vocali e stupire con risultati che dominano i benchmark BirdSET e BEANS. Il colpo da maestro? Perch 2.0 supera i modelli marini specializzati nei tasks di transfer learning, pur volando senza quasi dati marini.


Non serve tradurre il mondo in silenzio quando puoi dargli un listener che incastra ogni rumore con precisione chirurgica. La faccia feroce dell’innovazione è che Perch 2.0 usa self-distillation, prototype-learning e un nuovo criterio di source-prediction, reinventando la classification supervisionata come arma fine-tuned e feroce.

Succede che foresti intere, oceani sconosciuti, si trasformano in dataset da interpretare meglio di chi studia i dati. Se vuoi contare cuccioli rari tra i canti degli uccelli o intercettare richiami impossibili, Perch 2.0 fa girare il mondo sonoro in un “embed-and-recognize” senza cerimoni. E ricordi quel plugin di open source che menzionavi, con vector search + active learning? Esiste ed è Hoplite: un sistema agile che saturi embedding, ricerca per somiglianze, etichetta e reclasma classifier nuovi in meno di un’ora (GitHub).

E se pensi che basti, aspetta. Il fratello marino SurfPerch, nato da DeepMind/Google insieme a citizen scientist che hanno ascoltato coralli per ore, già sorveglia le barriere coralline usando audio reef dove i pescatori non vedono, ma i microfoni sì.

La sinfonia delle foreste, degli oceani, persino dei bittern (q porco nome intelligente), è ora codificata in un modello open source che fa parlare la natura. Se fossi un conservazionista austriaco dormi tranquillo: abbiamo finalmente un sensor che capisce la vita quando parla.

La Cina e l’azione globale sull’intelligenza artificiale: svelare il vero gioco dietro la retorica

C’è qualcosa di profondamente ironico nel vedere Pechino presentare un piano globale per la governance dell’intelligenza artificiale proprio mentre Washington si affanna a mettere in mostra la propria strategia di deregulation. Il 26 luglio, il Premier Li Qiang ha lanciato un piano che sembra, in superficie, la solita fiera di buone intenzioni: cooperazione internazionale, sostenibilità verde, inclusività e sicurezza. Tutto già sentito, scritto, decantato, persino nelle dichiarazioni ufficiali del Partito Comunista cinese e negli ultimi discorsi di Xi Jinping. La differenza? È nei dettagli, nelle sfumature linguistiche e nei piccoli accenti politici che i media mainstream, con la loro fretta di fare confronti americani-cinesi, trascurano o banalizzano.

Intelligenza artificiale in agricoltura: perché l’India sta riscrivendo il futuro globale del food

Gli agronomi ancora parlano di rotazione delle colture come se fosse l’apice dell’innovazione. Peccato che dall’altra parte del mondo, in India, un contadino con uno smartphone e un assistente vocale basato su intelligenza artificiale stia già facendo previsioni climatiche, analisi del suolo in tempo reale e vendendo il raccolto direttamente a un grossista di Dubai. Sì, avete letto bene. Non è un pitch da start-up a Las Vegas. È quello che sta realmente accadendo nel cuore della trasformazione digitale rurale, dove agritech in India sta diventando una lezione globale.

Il mondo ama sottovalutare l’India rurale. Lo fa da decenni. E intanto l’India, con più di 150 milioni di agricoltori, sta costruendo uno dei più ambiziosi ecosistemi di intelligenza artificiale in agricoltura. Non per moda, ma per necessità: produttività stagnante, micro-appezzamenti improduttivi, accesso limitato al credito e una fragilità climatica che in confronto il meteo europeo sembra un orologio svizzero.

LLM e scacchi: l’illusione della strategia nella mente sintetica

Quel che è accaduto nella LLM Chess Arena di Kaggle è molto più interessante del solito annuncio di upgrade da parte di OpenAI o Google. Mentre tutti si affannano a discutere di parametri, finetuning, modelli multimodali e percentuali di win-rate in benchmark arbitrari, c’è una scacchiera virtuale che sta raccontando una verità molto più concreta: i modelli linguistici non capiscono ciò che fanno. Lo mimano con stile, a volte con una sorprendente eleganza. Ma come i turisti che leggono la guida Lonely Planet ad alta voce sperando di sembrare madrelingua, il risultato è spesso un misto di goffaggine e fiducia mal riposta.

OpenAI bonus milionari e guerra fredda del talento: l’intelligenza artificiale ha un prezzo

Quando un’azienda tecnologica inizia a distribuire bonus da “alcune centinaia di migliaia a milioni di dollari” a un terzo della propria forza lavoro, il segnale non è semplicemente generosità o crescita: è panico strategico. OpenAI, il semidio creatore di ChatGPT, si sta preparando al lancio del suo prossimo modello GPT-5 e, allo stesso tempo, fronteggia quella che si può definire solo come una guerra asimmetrica del talento. Gli assegni non servono più a motivare, servono a blindare. Perché il vero capitale nell’era dell’intelligenza artificiale non è il software, è chi lo scrive.

Intel, il CEO sotto attacco: Trump, Cotton e l’ombra lunga di pechino

C’è qualcosa di profondamente teatrale, quasi da repubblica delle banane con chip di silicio, nell’ennesima farsa bipartisan della geopolitica americana che si insinua nei gangli dell’industria tecnologica. Donald Trump, nel suo eterno ritorno nietzschiano all’arena pubblica, ha chiesto le dimissioni di Lip-Bu Tan, appena nominato CEO di Intel. Il motivo? Secondo il tycoon, il neoamministratore delegato avrebbe “conflitti di interesse” così gravi da non lasciare “nessun’altra soluzione al problema”. Nessuna prova, nessun documento, solo l’eco roboante della paranoia di sicurezza nazionale che oggi funge da algoritmo emotivo della politica statunitense.

Lip-Bu Tan, per chi non vive sotto una roccia di silicio, è una delle figure più rispettate e influenti della Silicon Valley. Ex CEO di Cadence Design Systems, investitore visionario con un pedigree che affonda le radici nei fondi di venture capital più profondi e proficui dell’industria semiconduttori. Ma è anche, e qui il punto diventa politicamente tossico, un soggetto con legami professionali con aziende cinesi, in un momento in cui tutto ciò che ha l’odore di Pechino viene incenerito dallo sguardo inquisitorio del Congresso USA.

Microsoft Administering and Governing Agents

La nuova ossessione delle aziende non è costruire agenti AI è governarli

Microsoft ha appena pubblicato un documento strategico che, in qualsiasi altro contesto, sarebbe passato come una noiosa whitepaper da compliance officer. E invece no. Qui c’è una bomba a orologeria per chi sta già distribuendo agenti AI in azienda con lo stesso entusiasmo con cui un team marketing apre un nuovo canale TikTok. La chiamano “Agent Governance” e, se sei un CEO o un CTO che prende sul serio le proprie responsabilità, dovresti leggerla come fosse un avviso di audit dell’FBI recapitato via PEC.

Governo. Controllo. Supervisione. Tre parole che il mondo tech ha trattato come un’infezione da evitare a tutti i costi per due decenni. Ma ora che gli agenti AI sono abbastanza intelligenti da inviare email, accedere a database, prendere decisioni e (a quanto pare) anche prenotare voli aziendali su Expedia, improvvisamente il concetto di “autonomia” sta iniziando a sembrare un po’ meno sexy. Un po’ meno “AI co-pilot”, un po’ più “AI sindacalista con potere esecutivo”.

Pagina 18 di 118

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie