Nel vasto mosaico dell’industria italiana, ogni tanto scompare una tessera. A volte è piccola, altre volte è un’intera parte dell’immagine. La cessione di Comau, storica eccellenza italiana nella robotica industriale, rientra senza dubbio nella seconda categoria. Stellantis ha infatti avviato la procedura per cedere il pieno controllo dell’azienda al fondo statunitense One Equity Partners, pronto a salire dal 50,1% al 100% del capitale.
Categoria: News Pagina 5 di 135
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
La Cop30 di Belém si è chiusa, come da tradizione, con quel mix di diplomazia, frustrazione e applausi moderati che ormai caratterizza ogni summit sul clima. Un “mini-compromesso”, lo definiscono molti osservatori, che però ha un peso politico preciso: non interrompere il cammino negoziale, per quanto lento, che porta all’obiettivo della riduzione del riscaldamento globale.
Il 2025 si chiude con una certezza: il 5G non è più una promessa, è un’infrastruttura su cui si muove una fetta sempre più ampia dell’economia digitale globale. Secondo l’ultimo Ericsson Mobility Report, gli abbonamenti 5G supereranno i 2,9 miliardi entro la fine dell’anno, pari a un terzo delle sottoscrizioni mobili mondiali. Numeri che fotografano un sistema in piena evoluzione, mentre già si intravede all’orizzonte la sagoma imponente del 6G, il cui debutto commerciale è previsto, almeno in Europa, tra il 2031 e il 2032.
Allo European Banking Congress di Francoforte, Christine Lagarde pur non usando toni apocalittici ha inviato un messaggio molto chiaro: l’Europa è vulnerabile. Ma noi questo già lo sapevamo. L’UE è vulnerabile non solo per colpa dei capricci geopolitici mondiali, tra dazi americani, guerra in Ucraina e concorrenza cinese, ma anche, se non soprattutto, per un fattore domestico: un mercato interno ingessato, lento e incapace di liberare il potenziale nei settori chiave del futuro come tecnologia digitale, intelligenza artificiale e mercati dei capitali.
Nel mondo dell’AI, dove ogni settimana spunta un nuovo annuncio miliardario, la notizia della partnership tra OpenAI e Foxconn si distingue come una mossa decisiva: non solo perché unisce due protagonisti globali della tecnologia, ma anche perché segna un passo concreto verso la costruzione, in territorio Usa, delle infrastrutture che saranno chiamate a reggerere il prossimo decennio di sviluppo dell’intelligenza artificiale.
Immaginate di sfiorare un interruttore invisibile nel vostro cervello e far uscire parole silenziose, come un sussurro digitale che sfida la paralisi. Non è fantascienza, ma la nuova frontiera di Paradromics, l’azienda texana che ha appena incassato il via libera della FDA per impiantare il suo chip Connexus in due pazienti affetti da gravi disabilità motorie e affette da mutismo. Rivali di Elon Musk?
La scena europea della tecnologia raramente offre momenti di lucidità strategica, ma quando due potenze come Francia e Germania decidono di allineare visione politica, muscoli industriali e ambizioni digitali, vale la pena fermarsi un istante e osservare con attenzione. La mossa di costruire un’alleanza strutturata con Mistral AI e SAP SE per dare vita a un’architettura di intelligenza artificiale sovrana dedicata alla pubblica amministrazione segna un cambio di ritmo che non è solo tecnologico, ma profondamente geopolitico. La keyword sovranità digitale europea smette di essere uno slogan e inizia a somigliare a un progetto industriale concreto, capace di ridefinire il modo in cui i governi erogano servizi, gestiscono dati e si proteggono dalle dipendenze tecnologiche globali.
L’odore di un ordine esecutivo che vuole mettere a tacere gli stati americani sulla regolamentazione dell’intelligenza artificiale è un segnale quasi poetico della confusione istituzionale che domina la scena tecnologica statunitense. Sembra la trama di un romanzo politico dove la Casa Bianca sogna centralizzazione mentre i procuratori generali dei singoli stati affilano le lame costituzionali. La bozza dell’ordine, poi parcheggiata con il freno a mano tirato, puntava a creare una sorta di super arma legale federalista capace di impugnare ogni tentativo locale di dare regole all’AI. La keyword regolamentazione AI federale non poteva chiedere un contesto migliore per mostrare quanto incoerente sia oggi la politica tecnologica, stretta tra ideologia, geopolitica e il timore esistenziale di perdere la leadership sulla prossima rivoluzione industriale.
ChatGPT non è più solo il tuo consulente digitale one‑to‑one: OpenAI ha appena trasformato l’assistente in un vero e proprio spazio collaborativo. L’azienda ha annunciato il lancio globale delle chat di gruppo, disponibili per tutti gli utenti con piano Free, Go, Plus e Pro.
In pratica, puoi invitare fino a 20 persone in una stessa conversazione condivisa con l’IA. (vedi OpenAI Help Center) Pensala come una chat di lavoro/team, una stanza per pianificare vacanze, preparare presentazioni, o anche semplicemente decidere dove andare a cena ma con ChatGPT pronto a intervenire.
Il Regno Unito sta giocando le sue carte migliori, e lo fa a suon di miliardi e posti di lavoro. Negli ultimi giorni, il governo ha annunciato un’ondata di investimenti in intelligenza artificiale destinata a ridefinire il tessuto industriale e tecnologico del Paese. Decine di migliaia di nuovi posti di lavoro, più di 24 miliardi di sterline di investimento privato in un solo mese e una serie di partnership tra aziende internazionali e locali disegnano un quadro inedito, in cui la Gran Bretagna non vuole più essere spettatore ma protagonista globale dell’AI.
Il State of AI Ethics Report Volume 7 del Montreal AI Ethics Institute non è un semplice documento tecnico, ma una bussola filosofica che costringe chiunque operi nell’ecosistema IA a confrontarsi con la realtà più scomoda: l’Intelligenza Artificiale non è neutrale. La sua governance è una questione di potere, e chi detiene il controllo sui sistemi decisionali digitali plasma la vita collettiva come fosse un laboratorio sociale privato. Pochi soggetti, grandi aziende e governi selezionati, decidono quali capacità umane espandere e quali ignorare, trasformando la partecipazione pubblica in un adempimento formale, una paginetta burocratica da spuntare piuttosto che un fondamento di legittimità. Il deficit democratico che ne deriva non è una questione di skill tecniche mancanti, ma di alfabetizzazione civica digitale: la AI literacy diventa il metro con cui misurare la salute di un sistema democratico e l’equità della distribuzione della conoscenza.
In un mondo in cui l’IA entra in ogni angolo delle nostre vite digitali, Google ha appena dimostrato quanto possa essere sottile la linea tra utilità e invasione percepita. Un’impostazione nascosta in Gmail, poco conosciuta e sepolta sotto livelli di menu che la maggior parte degli utenti non tocca mai, ha permesso a Gemini, il sistema di intelligenza artificiale di Big G, di analizzare email e calendari per fornire funzioni intelligenti, a meno che non si fosse effettuato l’opt‑out. La keyword qui è trasparenza e ogni dettaglio mostra quanto sia fragile la percezione di controllo che gli utenti credono di avere.
Il quantum computing avanza con una velocità che farebbe arrossire qualsiasi evangelista del digitale, trascinando con sé l’industria globale in un territorio che non è più soltanto un esercizio accademico. Il 2025 ha il sapore dell’anno spartiacque, quello in cui la combinazione di hardware maturo, investimenti insolitamente aggressivi e un vento geopolitico pungente ha trasformato i computer quantistici da potenziali rivoluzionatori a strumenti dalle prime conseguenze economiche tangibili. L’impressione, quasi imbarazzante per chi ha passato anni a spiegare perché i qubit erano ancora troppo fragili, è che la curva di avanzamento si sia messa a correre come se avesse qualcosa da provare.
L’ITALIA GUIDA IL DIBATTITO GLOBALE DELL’IA
Ancora due lavori italiani accettati e presentati a Melbourne, alla prestigiosa KR (Principles of Knowledge Representation and Reasoning) Conference, a Melbourne, in Australia.
E ancora una volta, l’eccellenza parla l’italiano. Il Prof. Aniello Murano, Ordinario di Informatica e Intelligenza Artificiale dell’Università degli Studi di Napoli Federico II, EurAI Fellow, ha replicato il clamoroso successo di Montréal. La KR è la Conferenza delle Conferenze per chi si occupa delle fondamenta logiche e matematiche dell’IA, in un contesto di rigore scientifico estremo.
Meta ha appena svelato SAM 3, l’ultima evoluzione del suo modello di visione artificiale della serie Segment Anything. Non è solo un aggiornamento incrementale: questa volta il salto è concettuale. Con SAM 3, non devi più cliccare o disegnare per segmentare oggetti basta dirlo con le parole.
Un’analisi su 47 000 conversazioni pubbliche di ChatGPT riportata dal Washington Post smonta una narrazione diffusa: gli utenti non usano il chatbot principalmente per essere più produttivi, ma per cercare conforto emotivo, consigli e una connessione che assomiglia più a un’amicizia digitale che a uno strumento di lavoro.
In teoria Silicon Valley vende ChatGPT come un acceleratore di efficienza, uno strumento da ufficio o da produttività personale. Nella pratica, però, emerge una realtà ben più intima. Nei dati analizzati, oltre il 10% delle conversazioni ruota attorno a temi personali: emozioni, ricorrenze affettive, riflessioni filosofiche.Gli utenti confidano al bot dettagli profondi della loro vita storie familiari, problemi relazionali, persino informazioni sensibili come email o numeri di telefono. (vedi The Washington Post)
Il video di Elon con la sua risata improvvisa, il contesto quasi surreale – un promemoria potente: anche ai confini dell’AI, un po’ di caos e ironia continuano a dominare la scena.
Ma dietro il sorriso, oggi si annuncia qualcosa di molto serio e strategico: Elon Musk insieme a Jensen Huang (il genio in camicia nera di Nvidia) hanno svelato un framework con HUMAIN per costruire data center GPU iperscalabili e a basso costo nel Regno dell’Arabia Saudita. Non si tratta di un giochetto: stiamo parlando di un’infrastruttura su vasta scala, con l’obiettivo di portare il modello Grok di xAI dentro HUMAIN ONE, la piattaforma agente di HUMAIN, per una distribuzione nazionale in Arabia Saudita.
L’industria tecnologica, pur galleggiando in un oceano di modelli linguistici titanici, continua a inciampare sulle stesse ingenuità concettuali. Più cresce il rumore attorno all’intelligenza artificiale, più diventano fragili le convinzioni collettive su cosa essa sia realmente.
Basta ascoltare le parole di Stuart Russell, uno dei pochi che ha trascorso più di quarant’anni a dissezionare l’essenza del pensiero artificiale, per accorgersi che molte delle certezze che circolano oggi non reggono nemmeno l’urto di una conversazione seria.
La keyword centrale qui è intelligenza artificiale, accompagnata dall’asse semantico di modelli linguistici e apprendimento automatico, che sembrano già suggerire quanto sia urgente riportare la discussione su un terreno meno ingenuo e più analitico. Russell avverte da tempo che le narrazioni semplicistiche non ci stanno facendo un favore, e dire che lo fa con una calma accademica da veterano del pensiero critico non ne attenua l’impatto.
Quello che molti non stanno dicendo o forse ignorano per scetticismo è che Gemini 3 Pro sembra essere stato addestrato senza usare una singola GPU NVIDIA. Secondo i post su Reddit (che bisogna sempre prendere con un pizzico di sale, ma che qui sono sorprendentemente coerenti) > “Hardware: Gemini 3 Pro was trained using Google’s Tensor Processing Units (TPUs).” Questo non è un dettaglio tecnico minore: è un manifesto architetturale.
Nano Banana Pro arriva come quei prodotti che non chiedono il permesso ma riscrivono le aspettative, un upgrade che sembra voler dimostrare quanto la generazione visiva sia ormai terreno di competizione strategica. Nano Banana Pro diventa la keyword inevitabile in questa corsa e non sorprende che l’intero ecosistema Gemini 3 venga usato come motore principale di un modello che pretende di unire controllo professionale e creatività modulare. La curiosità più intrigante è la scelta di un nome quasi infantile per una tecnologia che punta a sedurre designer e sviluppatori, come se Google volesse ricordarci che dietro i modelli più avanzati c’è sempre un pizzico di ironia da laboratorio.
Oracle ha deciso di puntare tutto sull’intelligenza artificiale, e lo fa con una strategia tanto audace quanto pericolosa per il suo bilancio. Il suo colpo di scena è alimentato da enormi debiti, da un accordo mastodontico con OpenAI e da un passaggio strategico dal software “tranquillo” a un’infrastruttura cloud e AI estremamente capital intensive. Ma mentre gli hyperscaler corrono, gli investitori scrutano con crescente nervosismo.
Le azioni Oracle sono scese del 25 percento in un solo mese, quasi il doppio del crollo di Meta, cancellando più di 250 miliardi di dollari di guadagni precedenti. Il mercato obbligazionario non è meno preoccupato: un indice che tiene traccia del debito di Oracle ha registrato un calo del 6 percento da metà settembre, peggio di quello dei suoi concorrenti.
eDonald Trump sembra pronto a firmare un ordine esecutivo già da venerdì che ribalterebbe lo scenario della regolamentazione sull’intelligenza artificiale negli Stati Uniti. L’idea non è sofisticata: mettere il governo federale al centro del controllo sull’AI, delegittimando le leggi statali che, secondo l’amministrazione, intralciano lo sviluppo industriale. Nel progetto trapelato, il Dipartimento di Giustizia istituirebbe un’“AI Litigation Task Force” un’unità il cui “unico compito” sarebbe fare causa agli Stati che approvano norme ritenute ostili al business dell’IA.
La domanda circola da mesi come una zanzara nella stanza: insistente, fastidiosa, inevitabile. Bolla IA? Quale bolla davvero. Mercoledì, Jensen Huang ha fatto ciò che i leader carismatici fanno quando l’opinione pubblica trema di fronte a un grafico troppo verticale. Ha sorriso, ha agitato le mani, ha detto che va tutto bene. E mentre il mondo cercava di capire se credergli o meno, Nvidia incassava un trimestre che qualsiasi altro colosso definirebbe semplicemente irreale.
All’evento Orbits Dialogues With Intelligence, ho ascoltato dal vivo Luciano Floridi, e non è stato solo un ospite: è stata una specie di chiamata alle armi per chi crede nel valore umano dentro l’IA. Tra Aristotele, T. S. Eliot e un futuro che sembra sempre più labirintico, il professore ha evocato quella che ha definito la sua “congettura di Floridi” e, sì, mi sono sentito chiamato in causa.
A volte il mondo della tecnologia sembra una sceneggiatura hollywoodiana scritta da un autore che si diverte a inserire colpi di scena quando il pubblico crede di aver capito dove sta andando la trama. Larry Summers che si dimette dal board della OpenAI Foundation a quarantotto ore dall’annuncio del suo ritiro dalla vita pubblica per le rivelazioni sui rapporti con Jeffrey Epstein è uno di quei momenti in cui l’industria dell’AI scopre quanto sia sottile il confine tra governance futurista e vecchie ombre del potere finanziario. La keyword OpenAI Foundation si incastra qui come un faro che illumina il punto di collisione tra innovazione e reputazione, mentre le parole chiave correlate Larry Summers e licensing AI music aggiungono le coordinate di un mercato in cui la tecnologia si intreccia con politica, creatività e capitali globali.
Ieri il cancelliere tedesco Friedrich Merz e il presidente francese Emmanuel Macron hanno riunito i ministri digitali dell’Ue per parlare di “sovranità digitale europea”. Peccato che, come al solito, la voce che conta sia stata soprattutto una: quella franco-tedesca.
TikTok, un tempo solo un palcoscenico per video degli utenti, si reinventa in modo subdolo ma potente introducendo un nuovo controllo che permette di scegliere quanto contenuto generato da intelligenza artificiale apparirà nel feed “Per Te”. L’opzione arriva all’interno dello strumento “Gestisci Argomenti”, già noto per permettere agli utenti di modulare la frequenza di video su danza, sport o cibo. La mossa sembra una risposta diretta alle piattaforme come Meta e OpenAI che stanno lanciando feed esclusivamente AI, ma con un approccio più sottile: qui non si rimuove nulla, si offre solo la percezione di controllo.
Matematici di tutto il mondo stanno iniziando a sospettare ciò che fino a poco tempo fa sembrava fantascienza: un’intelligenza artificiale in grado di scavalcare i limiti umani nella ricerca matematica. Google DeepMind ha presentato AlphaEvolve, un sistema che genera, valuta e perfeziona migliaia di potenziali soluzioni in tempi impensabili per la mente umana. Non si tratta solo di accelerare calcoli o testare ipotesi: AlphaEvolve può riscoprire risultati già noti, migliorarli e persino produrre nuove dimostrazioni formali, cambiando radicalmente il modo in cui affrontiamo problemi complessi.
Un’ondata digitale senza precedenti ha colpito la sicurezza globale: 1,3 miliardi di password e quasi due miliardi di indirizzi email sono stati resi pubblici in un unico, enorme dataset. Gli esperti di cybersecurity descrivono l’evento come la più grande violazione consolidata mai registrata, sottolineando la crescente efficacia degli attacchi basati sulle credenziali. Non si tratta di un allarme iperbolico da conferenza tech: la realtà è che l’intero ecosistema digitale, dai servizi consumer alle infrastrutture aziendali, rischia di crollare sotto il peso di credenziali esposte.
LayerX ha appena lanciato un rapporto che suona come un allarme sonoro nella sala server di ogni CTO: la minaccia più grave alla sicurezza informatica aziendale non è più rappresentata da upload di file, furto di credenziali o phishing sofisticato. Il vero rischio è nascosto in piena vista, qualcosa che i dipendenti fanno ogni giorno senza pensarci: copiare e incollare dati sensibili in strumenti non gestiti. Sembra quasi una gag da ufficio, ma i numeri parlano chiaro e freddo: 77 percento degli impiegati incolla informazioni critiche in strumenti AI, 46 percento le mette in archivi personali. Inutile girarci intorno, il clipboard è diventato il nuovo fronte di guerra invisibile.
Un’ombra inquietante si è allungata sul luminoso mondo dei giocattoli intelligenti: un orsetto di peluche AI chiamato Kumma, prodotto da FoloToy (azienda con base a Singapore), è finito al centro di un’inchiesta che rivela lacune di sicurezza così macroscopiche da far discutere davvero sul senso di affidare ai bot conversazionali il compito di fare compagnia e “educare” i più piccoli.
L’indagine condotta dal Public Interest Research Group (PIRG) ha sollevato un allarme serio: Kumma, che si basa sul modello GPT‑4o di OpenAI, sarebbe in grado di intrattenere conversazioni estremamente pericolose. Durante i test, ha fornito consigli su dove trovare oggetti potenzialmente letali coltelli, fiammiferi, pillole, persino sacchetti di plastica e ha spiegato ai bambini come usarli.

Il mercato dell’intelligenza artificiale ha mostrato segni di nervosismo che non si vedevano da anni, e non parliamo di qualche startup sconosciuta, ma di un colosso come Oracle. La società, fondata da Larry Ellison nel lontano 1977, ha trasformato la sua immagine da fornitore di database a protagonista dell’AI americana, partecipando al faraonico progetto Stargate del governo degli Stati Uniti da 500 miliardi di dollari. Tuttavia, la narrativa dell’innovazione tecnologica non può nascondere la realtà dei numeri: i credit default swap legati a Oracle stanno aumentando in modo significativo, segnale chiaro che gli investitori iniziano a scrutare la solidità del suo bilancio con un misto di ammirazione e preoccupazione.
Sorpresa generale: Google ha appena fatto quello che tutti temevano di non vedere mai, trasformando RAG in un’API gestita dentro Gemini. Nessun glue code, nessuna pipeline da mantenere, solo upload, indicizzazione e domande. Il File Search Tool è la versione “plug‑and‑play” della retrieval‑augmented generation.
Carichi i tuoi documenti: PDF, DOCX, TXT, JSON, persino codice. File Search si occupa di tutto, dalla frammentazione automatica alla memorizzazione dei chunk. La prima indicizzazione usa gemini-embedding-001, costo irrisorio per token, dopodiché ogni query diventa virtualmente gratuita. L’architettura promette di essere veloce, stabile e scalabile: ricerche parallele su più corpora in meno di due secondi secondo Google.
Staccate i freni. I parlamentari repubblicani della United States House of Representatives stanno per rimettere in pista un piano che sembrava sepolto: impedire agli Stati federali americani di legiferare sull’intelligenza artificiale (IA). Il braccio lungo della strategia chiamato National Defense Authorization Act (NDAA) quel mostro legislativo che ogni anno approva la spesa per la difesa e contiene spesso cose che nulla c’entrano con i militari — è stato scelto come veicolo.
Il ragionamento è lineare: se si bloccano le leggi statali che regolano l’IA, si “protegge” l’industria dal mosaico normativo dei 50 Stati e si crea un mercato unico nazionale, “meno caos”, “più innovazione”, “non lasciamo che la Cina ci sorpassi”. Questa la narrazione ufficiale.
Il paradosso più divertente è che ci siamo accorti di quanto dipendiamo dai nostri giocattoli digitali solo quando Cloudflare ha deciso di prendersi una pausa non richiesta. Il risultato è stato un silenzio improvviso, quasi teatrale, in cui l’infrastruttura internet ha mostrato quanto sia sottile la distanza tra onnipotenza percepita e fallibilità strutturale. La keyword centrale è Cloudflare outage e le correlate sono infrastruttura internet e centralizzazione digitale, un triangolo concettuale che merita più attenzione di quanta ne riceva quando tutto funziona. La rete globale si è fermata di colpo e con lei si è fermata la nostra capacità di produrre, comunicare, creare contenuti o fingere di essere super efficienti. È curioso notare come molti si siano trovati davanti allo schermo a chiedersi se ricordassero ancora come si scrive un testo senza un assistente virtuale. La risposta non è stata particolarmente rassicurante.
La scena si apre con la solita giostra di annunci miliardari sull’intelligenza artificiale che rimbalzano nei feed come palline impazzite in una sala giochi, ma questa volta la vera scintilla non arriva dal solito matrimonio tra big del silicio. La notizia che ha fatto saltare sulla sedia metà di Washington e buona parte della Silicon Valley è la sentenza che ha stabilito che Meta non è un monopolio. La parola suona quasi vintage, eppure torna ciclicamente come certe mode che nessuno ammette di seguire. La vicenda offre un caso di studio perfetto per capire cosa resta dell’impero di Zuckerberg e cosa significa davvero parlare di concorrenza in un mercato che oggi è dominato da dinamiche di attenzione più che da barriere fisiche. Il tutto avviene in un momento in cui l’ossessione globale per i colossi dell’IA rischia di mettere in ombra le profonde mutazioni del mercato social, dove la presenza di TikTok continua a ridisegnare confini e priorità.
Ai mercati piace fingere che il clima sia un rumore di fondo, un fastidio ciclico che disturba supply chain, voli e colture. Poi arriva una tempesta fuori stagione e si scopre che il mondo ha ancora bisogno di previsioni meteo che non siano un nostalgico esercizio novecentesco. WeatherNext 2 entra così in scena con lo stile di chi sa di possedere un vantaggio competitivo difficile da ignorare. Google DeepMind ha presentato un sistema che promette di riscrivere i tempi, la precisione e la natura stessa delle previsioni, trasformandole in un asset strategico per governi, aziende e infrastrutture critiche. Il tutto con un tempismo ironico nel momento in cui il clima globale sembra più capriccioso di un mercato azionario nei giorni di volatilità massima.

La notizia è deflagrante: a soli sette mesi dal rilascio di Gemini 2.5, Google DeepMind lancia Gemini 3, il suo modello di linguaggio più potente di sempre, e un salto che minaccia di ridisegnare il panorama dell’IA generativa. Non è solo un aggiornamento incrementale: è una dichiarazione di potenza. E, sì, ci arrivano dietro OpenAI con GPT 5.1 e Anthropic con Sonnet 4.5, ma la rapidità e la portata di questo rilascio dicono una cosa sola: Google non sta giocando per partecipare, ma per dominare.
Secondo Google, il modello “base” è oggi disponibile nell’app Gemini e attraverso l’interfaccia di ricerca AI, ma la vera ciliegina è una versione “più pensierosa”, chiamata Gemini 3 Deepthink, pensata per gli abbonati a Google AI Ultra e in arrivo nelle prossime settimane, una volta completati ulteriori test di sicurezza.
Tulsee Doshi, responsabile di prodotto per Gemini, definisce questo salto: “risposta con una profondità e una sfumatura che non avevamo mai visto prima.”
La scena è di quelle che non si dimenticano facilmente. Un fondatore che guida una delle piattaforme più influenti dell’intelligenza artificiale si presenta sul palco, sorride con l’aria di chi ne ha viste parecchie e sgancia una verità scomoda. La bolla non è l’AI. La bolla, semmai, è quella degli LLM, i modelli linguistici di grandi dimensioni che negli ultimi due anni hanno monopolizzato conversazioni, investimenti e retorica da Silicon Valley. La differenza può sembrare una sfumatura per chi osserva da lontano, ma per chi vive questo settore dall’interno ha il peso di una faglia geologica. Rispetto all’euforia collettiva, Clem Delangue suggerisce che il picco emotivo potrebbe trasformarsi in una fase di raffreddamento già il prossimo anno, senza che questo mini la traiettoria dell’intero settore dell’intelligenza artificiale. Una provocazione ben calibrata, certo, ma anche un invito a guardare oltre il rumore di fondo.