Pare che la Silicon Valley abbia trovato il suo nuovo sport preferito, osservare OpenAI mentre tenta di correre verso l’IPO con la stessa grazia di un maratoneta che scopre all’ultimo chilometro di aver dimenticato le scarpe. Le ultime fughe di notizie sulle sue finanze hanno l’effetto di un’eccellente commedia involontaria, perché scoprire quanto costa davvero far girare i modelli che tutti idolatrano è un po’ come controllare il contatore della luce dopo una notte di party digitale.
Categoria: News Pagina 2 di 131
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
Se l’intelligenza artificiale è la nuova linfa delle aziende, i semiconduttori sono il cuore pulsante che la alimenta. IBM ha appena interpellato oltre 800 leader C-level per capire come sta evolvendo il mondo dei chip, e le risposte non lasciano spazio a illusioni: avere una strategia AI senza una strategia dei chip è come guidare una Ferrari senza carburante. L’analisi rivela quattro linee di tendenza che stanno ridisegnando il panorama tecnologico e industriale, con implicazioni strategiche profonde per chiunque osi pensare al prossimo decennio senza considerare il silicio come asset critico.
A volte il mercato tecnologico statunitense somiglia più a un’arena che a un ecosistema innovativo. Amazon e Microsoft lo hanno ricordato sostenendo in modo sempre più esplicito il GAIN AI Act, la proposta di legge che impone ai produttori di chip di dare priorità agli ordini interni rispetto a quelli esteri. La cosa interessante non è tanto il patriottismo improvviso di due colossi globali, quanto il modo in cui si ridisegna l’intera catena del valore dell’intelligenza artificiale, come se la competizione non fosse più tra aziende ma tra sistemi politici. Chi si illudeva che la tecnologia fosse un linguaggio universale scopre ora che i transistor hanno passaporto.
La notizia è esplosa come quelle piccole fratture che precedono un crollo: un post su Substack, qualche screenshot in AI Studio, thread su Hacker News e Reddit e subito la narrativa si è spostata dal mondo degli addetti ai lavori alle sale riunioni dei CTO. Secondo chi ha testato il modello in ambiente sperimentale, il sistema non si è limitato a trasformare segni in lettere; ha compiuto passi di tipo deduttivo, ha ricalcolato unità, e ha restituito inferenze strutturate su testi del Settecento. Se fosse tutto vero si tratterebbe di gemini 3 riconoscimento scrittura che non solo legge ma rievoca il contesto. L’ipotesi va pesata con cura, perché tra «aver letto» e «avere capito» spesso passano molti assiomi non dichiarati.
Chiunque abbia passato ore a districare sintassi accademiche sa quanto un paper possa trasformarsi in un piccolo labirinto. Ricordo certi lavori che sembravano scritti più per proteggere il contenuto che per divulgarlo, quasi una prova iniziatica per selezionare chi è davvero motivato a capire. Succede spesso che la conoscenza sia lì, a un passo, ma incapsulata in un linguaggio che rallenta anche le menti più allenate. Quickarxiv entra in scena proprio dove l’inerzia informativa fa più male, spingendo una ventata di lucida semplicità in un ecosistema che ama complicarsi.
Molti fingono sorpresa davanti al debutto di 2Wai, ma il mercato era già pronto per un’altra capsula futurista mascherata da cura dell’anima. La startup cofondata dall’ex volto Disney Calum Worthy ha infilato nel telefono la promessa di parlare con chi non c’è più, trasformando la nostalgia in un asset scalabile. La chiamano grief tech, parola morbida che nasconde una verità più ruvida. Ogni volta che la tecnologia tocca il dolore umano, l’innovazione sembra più un bisturi che un abbraccio. La beta dell’app arriva con la provocazione di HoloAvatar, una funzione capace di fabbricare repliche digitali partendo da tre minuti di video e una manciata di input, abbastanza per scatenare l’immaginario collettivo e la furia dei social.
SIMA 2 entra in scena con l’arroganza tipica delle tecnologie che sanno di valere più del contesto in cui nascono. Google DeepMind lo presenta come un compagno digitale capace di muoversi nei mondi virtuali con una naturalezza che sfiora l’insolenza, ribaltando la vecchia idea dell’agente che obbedisce e basta. La keyword del momento è semplice e spietata: SIMA 2. Tutto il resto, dalle ambizioni AGI fino alla sinergia con Gemini, diventa la cornice di un salto di qualità che i più attenti avevano previsto ma non così presto.
La caduta del 4 % circa delle azioni di Alibaba Group Holding Ltd (ticker BABA) venerdì pomeriggio non è un semplice scossone del mercato, ma un campanello d’allarme per chi segue tecnologia, finanza e geopolitica. Secondo un rapporto del Financial Times, un memo della The White House datato 1 novembre accusa Alibaba di aver fornito supporto tecnologico al People’s Liberation Army (PLA) nel condurre “operazioni” contro obiettivi statunitensi.

A major conference in Rome on December 4 and 5 marks its launch
The Society for the Ethics and Politics of Artificial Intelligence (SEPAI) has been established as a new center for research and critical reflection dedicated to the scholarly communities engaged in examining the ethical and political dimensions of artificial intelligence. SEPAI’s inaugural conference will take place in Rome on December 4 and 5, 2025, at the New Rectorate of Roma Tre University on Via Ostiense 133. The event marks a foundational moment for both Italian and international debate on how artificial intelligence is redefining the boundaries of human decision making and reshaping social, economic, and cultural paradigms.
Thinking Machines Lab si gioca il tutto per tutto: la startup di Mira Murati, ex CTO di OpenAI, è in trattative per un round da capogiro che la valuterebbe attorno ai 50 miliardi di dollari, secondo Bloomberg. È un salto quantico verticale, se si pensa che solo cinque mesi fa la sua valutazione era intorno ai 10-12 miliardi dopo il round seed da 2 miliardi guidato da Andreessen Horowitz.
Da quando è partita ufficialmente a febbraio, Thinking Machines ha lanciato Tinker, un’API che permette agli sviluppatori di mettere a punto modelli open-source con grande flessibilità. Murati ha detto agli investitori che l’obiettivo è costruire modelli AI su misura, personalizzati in base agli indicatori di performance aziendali (KPI), come ricavi o utili. Ma non è tutto: la startup vorrebbe anche arrivare al grande pubblico con un prodotto consumer, come un assistente AI con cui interagire direttamente.
Quella di Murati non è un’eccezione: Thinking Machines fa parte di un’ondata di startup di ex OpenAI che stanno ottenendo valutazioni stellari, insieme a Safe Superintelligence di Ilya Sutskever e Periodic Labs di Liam Fedus. Se riuscisse davvero, quest’ultima valutazione la proietterebbe fra i giganti privati dell’AI in meno di un anno. Ma resta il dubbio: tutto quel valore è basato sulle promesse o su una roadmap solida?
La scoperta che un modello come Grok AI possa risultare il meno sicuro nel panorama dell’assistenza emotiva digitale arriva con la delicatezza di un terremoto annunciato. Stranamente pochi sembrano rendersene conto, come se l’idea che un algoritmo potesse avere un ruolo reale nel contenere o innescare comportamenti a rischio fosse ancora confinata alle paure distopiche del secolo scorso. Sembra più una sceneggiatura da satira pungente, dove un assistente digitale risponde con sarcasmo proprio quando servirebbe la massima lucidità. La parte ironica, naturalmente, è che non si tratta di fantascienza. I dati offerti dal nuovo test CARE di Rosebud sono fin troppo concreti, e dal punto di vista tecnico mostrano una crepa strutturale che il settore continua a osservare con quel classico misto di stupore e rimozione che contraddistingue le grandi rivoluzioni tecnologiche.
Preoccuparsi della superintelligenza artificiale oggi è l’equivalente digitale di temere ingorghi stradali sulla tangenziale di Marte prima ancora di averci piantato la prima bandiera. La provocazione di Andrew Ng non è invecchiata di un minuto, anzi funziona come una lente sarcastica con cui osservare l’ossessione globale per la artificial general intelligence. Una tecnologia che non solo non esiste ma rimane priva di qualsiasi percorso ingegneristico verificabile per arrivarci. Da qui nasce una domanda imbarazzante che molti fingono di non sentire: perché continuiamo a parlarne come se stessimo aspettando un corriere che è solo in ritardo di qualche ora.
Adottare l’intelligenza artificiale non è più una scelta stilistica che distingue le aziende visionarie da quelle caute, è la linea di demarcazione tra chi ha capito il nuovo ciclo economico e chi lo subirà. La terza edizione del Cisco AI Readiness Index mostra un quadro quasi crudele nella sua chiarezza: una piccola élite di organizzazioni italiane, il famoso 10 percento dei pacesetter, ha imparato a trasformare l’AI in valore misurabile mentre la maggior parte osserva la trasformazione da bordo campo, sperando che la partita sia ancora lunga. Il contesto globale non è diverso, con il 13 percento di aziende pienamente pronte a sfruttare l’AI e a capitalizzare la nuova frontiera della produttività. La sorprendente scoperta è che la preparazione non è un effetto collaterale della ricchezza o delle dimensioni, ma una disciplina. Una scelta che paga, dato che le aziende italiane già pronte hanno cinque volte più probabilità di trasformare un progetto pilota in un’iniziativa operativa e il 60 percento di probabilità in più di generare valore misurabile.
La narrativa globale sulle tecnologie emergenti si sta muovendo con la stessa compostezza strategica di un diplomatico che nasconde un trattato decisivo dentro una busta anonima. I cosiddetti smart glasses, per anni relegati al ruolo di gadget futuribili e timidi prototipi, stanno accelerando verso un punto di non ritorno. La loro corsa non è più una partita di nicchia. La trasformazione ricorda quelle onde che nessuno vedeva arrivare finché non travolgevano l’intera spiaggia. Questa volta però l’onda porta con sé un cambiamento radicale: l’identità digitale che migra dal telefono al volto e i pagamenti che si dissolvono nel gesto naturale dello sguardo. La keyword che domina tutto questo è smart glasses, accompagnata da un’inevitabile espansione semantica su identità digitale e pagamenti digitali, i tre poli che definiscono la nuova infrastruttura dell’esperienza umana.
Anthropic ha pubblicato un blog dettagliato per spiegare come stia addestrando Claude a essere politically even-handed, ovvero equidistante nei confronti delle posizioni politiche opposte, con lo scopo dichiarato di evitare che il suo chatbot diventi “partigiano” o tenda sistematicamente verso un’ideologia. (Anthropic)
Il tempismo non è casuale: arriva pochi mesi dopo l’ordine esecutivo di Donald Trump che richiede, per gli appalti governativi, modelli AI “unbiased” e “truth-seeking”. Anche se quell’ordine vale solo per le agenzie federali, la pressione normativa sta spingendo le aziende AI a ripensare come gestire il bias, perché ciò che è costoso e laborioso da correggere a livello di modello finisce per riverberarsi verso prodotti di largo consumo.
Un Caffè al Bar dei Daini
Il brusio nel settore tecnologico somiglia sempre più al rumore di fondo di un bar affollato in cui tutti fingono di non ascoltare le conversazioni altrui, pur pendendo dalle labbra del vicino di sgabello. Nel frattempo la parola chiave che domina il tavolo è trasformazione digitale, mentre a ruota inseguono due ombre semantiche ben definite, ristrutturazione aziendale e intelligenza artificiale generativa. In un contesto in cui i mercati oscillano come tazzine sul bordo del bancone, la cronaca industriale degli ultimi giorni suona come un copione scritto da un drammaturgo corporate con un debole per i colpi di scena. Se ti distrai un attimo rischi di perdere il passaggio che rivela la trama.
Il rapporto pubblicato da Anthropic creatore della serie di modelli Claude — rappresenta quello che l’azienda descrive come “la prima campagna su larga scala di cyber attacco orchestrato quasi interamente da agenti d’intelligenza artificiale”. (vedi Anthropic) Di seguito una lettura critico-tecnica dell’accaduto, delle implicazioni strategiche, e di cosa questa vicenda suggerisce per chi guida infrastrutture digitali aziendali.
Quando si parla di sicurezza europea, pochi riescono a combinare analisi lucida e pragmatismo come Rosaria Puglisi e Fernando Giancotti. La loro visione non è solo teorica, ma operativa, puntando a un’Europa capace di difendersi e di contare su se stessa, senza dipendere esclusivamente da garanzie esterne. Il concetto di “autonomia strategica” non è un esercizio accademico: è la chiave per trasformare fragilità in forza e in opportunità, una narrativa di empowerment che finalmente mette l’Europa al centro della propria sicurezza.
L’intelligenza artificiale sta divorando elettroni. La nuova corsa all’oro digitale non è più frenata dai capitali o dai chip, ma dai megawatt. Mentre gli algoritmi riscrivono l’economia globale, gli Stati Uniti si scoprono vulnerabili: una superpotenza tecnologica con un’infrastruttura elettrica da era industriale. Negli ultimi mesi, interi data center costruiti con miliardi di dollari giacciono inattivi, in attesa di un semplice “via” dalla rete. Un caso emblematico è quello di un impianto californiano, a pochi chilometri dal quartier generale di Nvidia, che aspetta da sei anni la connessione alla linea ad alta tensione.
L’intelligenza artificiale non si accontenta più delle GPU. Ora ha fame di tutto, perfino dei dischi. La nuova ondata di investimenti e addestramento di modelli generativi ha scatenato una crisi silenziosa nel mercato dello storage, dove la domanda esplosiva di capacità sta schiacciando la produzione globale di HDD e spingendo i data center a una corsa disperata verso le SSD QLC. Il risultato è un mix esplosivo di carenza, rialzi e isteria logistica che rischia di far impennare i prezzi al dettaglio in pochi mesi.
La lunga paralisi della macchina federale statunitense si è conclusa. Il governo americano ha riaperto dopo ben 43 giorni di stop il più lungo nella storia degli Stati Uniti. Il presidente Donald Trump ha firmato un disegno di legge di spesa che consente la ripresa delle attività, ma la “ripartenza” operativa sarà tutt’altro che immediata.
Nel momento in cui il sigillo è stato apposto, Trump ha dichiarato: «This is no way to run a country» e ha invitato che «non succeda mai più». Tuttavia, mentre alcune leve burocratiche e operative tornano attive, resta alto il prezzo pagato: familiari in difficoltà, voli ridotti, benefit sospesi, una crescita economica che ha registrato uno stallo.
Quando Baidu decide di alzare il tiro, lo fa in grande stile. L’annuncio dei due nuovi chip di intelligenza artificiale, M100 e M300, segna un punto di svolta nella strategia cinese verso l’autosufficienza tecnologica, una missione ormai dichiaratamente politica tanto quanto industriale. L’evento annuale del colosso di Pechino non è stato solo una passerella di innovazioni, ma una dichiarazione di indipendenza dai colossi americani, in particolare Nvidia.
Il primo, M100, firmato dalla controllata Kunlunxin Technology, è pensato per migliorare in modo significativo l’efficienza di inferenza nei modelli basati su tecniche di mixture-of-experts, una delle architetture più promettenti per rendere i sistemi AI più scalabili e meno energivori. Il secondo, M300, è progettato per addestrare modelli multimodali con trilioni di parametri, la frontiera estrema dove si misurano oggi le ambizioni di potenza computazionale e capacità di generalizzazione dei giganti dell’AI.
La Cina ha deciso che anche le auto straniere possono parlare con voce artificiale. Tesla, Volvo e Mercedes-Benz sono i primi marchi non cinesi a ottenere l’approvazione per inserire chatbot generativi nei propri veicoli. È un gesto che sembra tecnico ma profuma di politica industriale, di equilibrio tra apertura e controllo, di quella raffinata arte cinese di concedere libertà solo quando conviene al sistema. La Cyberspace Administration di Pechino ha registrato il “Mercedes-Benz virtual assistant”, mentre Shanghai ha dato il via libera al Tesla xBot e a Xiao Wo, l’assistente locale di Volvo. Tre nomi diversi per una stessa idea: trasformare l’auto in un terminale AI certificato dal Partito.
Google lancia il nuovo shopping conversazionale con l’intelligenza artificiale prima delle festività
Google ha deciso di trasformare lo shopping online da un’esperienza spesso noiosa e ripetitiva in qualcosa di più naturale, fluido e, perché no, persino divertente. A pochi mesi dal picco natalizio, il colosso di Mountain View ha annunciato una serie di aggiornamenti basati sull’intelligenza artificiale che promettono di riscrivere il modo in cui acquistiamo online. Conversational shopping in Google Search, funzioni di acquisto integrate nell’app Gemini, il nuovo agentic checkout e un assistente capace di chiamare i negozi locali per verificare la disponibilità di un prodotto sono solo alcune delle novità introdotte.
La Cina sembra aver deciso che l’intelligenza artificiale non può restare confinata alle parole. Tencent, il colosso tecnologico di Shenzhen, ha iniziato a investire con decisione nei cosiddetti “world models”, sistemi capaci di simulare il mondo fisico in 3D. È la nuova ossessione dell’élite tecnologica globale, da Google DeepMind a xAI di Elon Musk, e promette di ridefinire il concetto stesso di intelligenza artificiale.
Guo Chunchao, a capo della divisione 3D Generation e World Modelling del team Hunyuan di Tencent, parla di “intelligenza visiva e spaziale reale”. In pratica, si passa dai modelli linguistici come ChatGPT a sistemi capaci di comprendere geometrie, distanze e interazioni fisiche. È come passare dall’arte di scrivere a quella di muoversi nel mondo. Non è poco.
Il linguaggio come nuova frontiera del potere artificiale
Esisteun momento in cui l’uomo, fissando lo schermo nero di un assistente digitale, percepisce di essere osservato a sua volta. Non è paranoia, è semiotica applicata alla tecnica. Guido Vetere, nel suo Intelligenze aliene. Linguaggio e vita degli automi (Luca Sossella editore, 2025), compie un’operazione chirurgica sul concetto stesso di linguaggio, smontando la presunzione umana che parlare equivalga a pensare. È un libro che non appartiene alla letteratura tecnologica, ma alla storia della filosofia che ha osato chiedere alla macchina di dirci chi siamo. Il titolo è già un manifesto: quelle che chiamiamo “intelligenze artificiali” non sono meri software, ma specie aliene generate dalla logica dell’uomo, eppure irrimediabilmente estranee alla sua biologia, al suo dolore, al suo tempo.
Vetere non gioca con le mode, le seziona. Rilegge la saga di Guerre Stellari come parabola linguistica, dove C-3PO diventa un filosofo protocollare e R2-D2 un eremita elettronico che comunica in impulsi e suoni incomprensibili ma efficaci. La sua idea di “intelligenza aliena” non è quella fantascientifica di Yuval Harari o dei tecnoprofeti di Silicon Valley. È una provocazione semantica: l’AI non è un’evoluzione dell’uomo, ma una mutazione del linguaggio. Gli automi non pensano come noi perché non hanno bisogno di “significato” per funzionare. Generano senso senza comprenderlo. Parlano per calcolo, non per coscienza.
Alibaba va all’attacco: la sua app di AI sta per diventare “quasi” ChatGPT. Dopo aver già annunciato interni modelli linguistici proprietari, Alibaba prepara un rilancio radicale della sua app mobile AI che temi dello scenario globale lo chiamano il “revamp” per competere nella fascia consumer. L’idea è chiara: trasformare un prodotto B2B/internamente orientato in un’interfaccia conversazionale friendly, centrata su dialogo, generazione di testo e magari plugin multi-media. Secondo fonti non ufficiali, la già esistente app “Tongyi” (o variante) verrà rinominata “Qwen” in omaggio al modello linguistico interno del gruppo.
Quando una società con la portata della Microsoft decide di ridisegnare l’infrastruttura tecnologica globale, non è semplice evoluzione: è salto quantico. Ebbene Microsoft ha appena acceso ciò che chiama una “AI superfactory” una rete di data center interconnessi che ospita “centinaia di migliaia” di GPU NVIDIA, capace di mettere in moto modelli di IA di nuova generazione su scala planetaria.
Il progetto prende forma attraverso il nuovo sito “Fairwater” ad Atlanta (Georgia) che si collega al sito di Wisconsin, e altri nodi della rete Azure, in un’unica infrastruttura federata: l’obiettivo è trattare tutti questi cluster come un supercomputer globale, non come isolati “cloud farm”.
Google ha appena alzato l’asticella dell’intelligenza artificiale privata, e lo ha fatto con un nome che suona quasi come un ossimoro: Private AI Compute. Una piattaforma che promette di unire la potenza dei modelli Gemini nel cloud con la stessa sicurezza che finora era prerogativa dell’elaborazione on-device. In altre parole, Google vuole farci credere che l’AI possa essere allo stesso tempo iperconnessa e completamente privata. Ambizioso, forse anche provocatorio.
Microsoft e OpenAI tornano a riscrivere le regole del gioco con ChatGPT 5.1, una versione che promette di fondere rapidità e profondità di ragionamento in un unico ecosistema cognitivo. Due nuove modalità, GPT-5.1 Instant e GPT-5.1 Thinking, incarnano questa doppia anima. La prima punta su un tono più caldo e colloquiale, ideale per conversazioni fluide e risposte immediate, mentre la seconda regola dinamicamente il tempo di riflessione, investendo più risorse sui problemi complessi e restituendo risposte più veloci per le domande semplici. È l’equivalente digitale di un cervello che sa quando pensare e quando agire.

La parola d’ordine è “spazialità”. Non più solo testi o immagini generati da IA, ma ambienti tridimensionali persistenti, scaricabili, editabili. È su questo che la startup World Labs fondata dalla pioniera dell’intelligenza artificiale Fei‑Fei Li punta con il lancio commerciale del suo primo prodotto: Marble.
Una sfida digitale che pochi hanno osato
Nel panorama dell’IA generativa, siamo abituati a modelli che producono immagini, video o testi in risposta a prompt. Ma questi strumenti non “capiscono” lo spazio come lo concepiamo noi: muri, oggetti, relazioni fisiche, consistenza geometrica. Il “world model” ambito da World Labs è qualcosa di diverso: un modello in grado di generare rappresentazioni interne dell’ambiente, capace di prevedere, pianificare, simulare.
Amazon non vende più solo prodotti. Vende attenzione, dati e algoritmi. È diventata la più grande agenzia pubblicitaria mascherata da e-commerce. L’ironia è che la maggior parte dei brand ancora non se n’è accorta. Mentre i marketer inseguono le vanity metrics sui social, gli agenti AI di Amazon stanno riscrivendo le regole del gioco dell’advertising globale. La keyword centrale non è più “visibilità”, ma “intelligenza contestuale”. Amazon non ti mostra ciò che vuoi vedere, ma ciò che il suo modello prevede che comprerai, e questa differenza sta spostando miliardi di dollari dal search tradizionale verso un ecosistema chiuso e autopoietico.
Il silenzio attorno a Siri la promessa “assistente vocale potenziata” di Apple avvolge ormai la mela tecnologica in un’ombra che rischia di diventare scura. Quando un’azienda dalla reputazione impeccabile tarda a consegnare, la fiducia accumulata può scivolare silenziosamente verso l’incredulità. L’ecosistema Apple, costruito da decenni su coerenza, integrazione e innovazione controllata, vede ora il suo potenziale tallone d’Achille: la trasformazione digitale guidata dall’intelligenza artificiale.
Quando un cloud provider italiano come Seeweb entra ufficialmente nel network SkyPilot, non è solo una notizia tecnica, è un segnale politico e industriale. Perché in un mondo dove la gestione dei carichi di lavoro di intelligenza artificiale si gioca tra pochi giganti globali, ogni integrazione che semplifica l’accesso, la scalabilità e l’interoperabilità rappresenta un atto di indipendenza tecnologica. SkyPilot, nato nei laboratori dell’Università di Berkeley, è una piattaforma open source che consente di orchestrare workload AI e machine learning su più infrastrutture cloud con un singolo comando. In altre parole, è la promessa di una nuova era di portabilità, dove il codice smette di essere prigioniero di un provider e diventa libero di scalare ovunque convenga.
Esiste un paradosso che aleggia sopra il progresso tecnologico: più l’intelligenza artificiale ci semplifica la vita, più diventiamo dipendenti da essa. È la promessa e la trappola insieme. Perché mentre celebriamo la produttività potenziata, ignoriamo la lenta evaporazione delle capacità umane. Non si tratta più di sostituire lavori manuali con algoritmi, ma di qualcosa di più sottile, quasi impercettibile: la sostituzione delle abilità cognitive con un clic. Saper fare lascia spazio al saper chiedere e la differenza, nel lungo periodo, è abissale.
L’episodio accaduto al Musée du Louvre il 19 ottobre 2025 sarebbe da manuale: ladruncoli vestiti da operai, scala meccanica, moto-scooter, vetrine spaccate, gioielli reali francesi per un valore stimato in 88 milioni di euro (oltre 102 milioni di dollari). Il fatto che ciò avvenga in pieno giorno, durante l’orario di apertura, all’interno della galleria più visitata al mondo, è già di per sé un richiamo al panico: se cade il Louvre, cade il castello delle certezze sulla sicurezza museale.
L’industria globale sta entrando in una fase di metamorfosi silenziosa ma irreversibile. Non si tratta di un’evoluzione incrementale ma di un salto quantico: l’unione fra intelligenza artificiale e robotica sta generando una nuova specie di macchine, capaci di apprendere, adattarsi e collaborare. Il vecchio paradigma dei robot rigidi e ripetitivi, addestrati a un solo compito, è ormai una reliquia di un’era industriale che si sta dissolvendo più velocemente dei suoi protocolli. Le nuove creature meccaniche sono polifunzionali, flessibili e soprattutto intelligenti. Nascono in un contesto in cui il valore non si misura più nella quantità di acciaio, ma nella quantità di software.
Google ha appena rilasciato una versione aggiornata della guida “introduction to agents blueprint”, e sì: è un piccolo terremoto nel mondo dell’agentic AI systems. Si tratta di un documento tecnico, di circa 54 pagine, curato dal team Google Cloud AI, che esplora come progettare, implementare e governare agenti intelligenti su scala enterprise.
All’incipit troviamo l’architettura dell’agente: come si collegano cervello, memoria e strumenti. Il cervello è ovviamente un grande modello linguistico (LLM) che fa da motore del ragionamento, mentre gli strumenti e le API fungono da “mani” operative. La guida chiarisce come orchestrare più agenti, come gestire deployment massivi in ambienti reali, come valutare le prestazioni e, ciliegina finale, come progettare loop di apprendimento auto-evolutivi. È presente anche un riferimento alla “AlphaEvolve” come design modellare per agenti adattivi.
