Eletto il nuovo Consiglio Direttivo di AixIA. È sfida ai giganti del silicio

AixIA ha ufficializzato le cariche del nuovo Direttivo: Andrea Orlandini, presidente. È primo Ricercatore in Intelligenza Artificiale e Robotica presso l’Istituto di Scienze e Tecnologie della Cognizione del CNR (Consiglio Nazionale delle Ricerche); Chiara Ghidini, vicepresidente, professoressa Ordinaria presso la Facoltà di Ingegneria della Libera Università di Bolzano, è ricercatrice di prima fascia della Fondazione Bruno Kessler; Aniello Murano, vicepresidente, Professore Ordinario di Informatica e Intelligenza Artificiale, EurAI Fellow e AAIA Fellow, vicepresidente di EURAMAS, Direttore scientifico del Laboratorio Astrea (Automated Strategic Reasoning); Gabriella Cortellessa, segretario, è Primo Ricercatore presso l’Istituto di Scienze e Tecnologie della Cognizione del CNR; Roberto Micalizio, tesoriere, è Professore Associato di Intelligenza Artificiale presso l’Università degli studi di Torino.
L’attesa sulla nuova squadra è palpabile, dettata da una duplice consapevolezza: l’altissimo profilo dei suoi componenti e la portata della sfida che li attende.
Non si tratta di un avvicendamento ai vertici di una storica Istituzione quale quella dell’AixIA, nata nel 1988 come Associazione scientifica con lo scopo di diffondere e promuovere la Ricerca nel campo dell’Intelligenza Artificiale, ma l’inizio di un mandato cruciale, in uno dei momenti più rivoluzionari e trasformativi della nostra storia tecnologica.
L’AIxIA è anche membro della European Association for Artificial Intelligence (EurAI), fondata nel 1982 per rappresentare la comunità Europea dell’Intelligenza Artificiale.
È la prova vivente che l’intelligenza Artificiale, quella vera, non è nata con ChatGPT ma nel mondo accademico, tra cervelli che non sono ancora scappati e ricercatori che hanno capito, prima di molti politici, che il futuro non sarebbe stato scritto col calamaio, ma con il silicio. Questa Associazione afferma la sovranità scientifica nazionale e impedisce che l’Italia diventi una mera colonia digitale di colossi stranieri.
In un momento storico in cui l’IA è uscita dai laboratori per diventare infrastruttura della società, la responsabilità scientifica di AixIA assume una dimensione politica e civile enorme. In questa ottica, proprio perché è l’Associazione scientifica per eccellenza di Intelligenza Artificiale, non è chiamata solo a promuovere la Ricerca, ma a guidare alla responsabilità etica e tecnica.
La fiducia, quindi, espressa a questo nuovo corso, nasce dalla consapevolezza che, mai come oggi, la competenza, rappresenti l’unico antidoto all’incertezza. Il mercato e la Ricerca guardano a questo Consiglio come al garante di un’innovazione solida, ancorata a principi di trasparenza, equità e sostenibilità, che sappia tradurre la complessità in un equilibrio tra accelerazione tecnologica e regolamentazione antropocentrica. E soprattutto, è necessario che sappia affermare la sovranità scientifica italiana in un contesto globale dominato dai grandi player extra-europei. L’elezione del presidente Orlandini, della vicepresidente Ghidini, al suo secondo mandato, del prof. Aniello Murano, come quella di tutti i componenti del Direttivo, non è solo una promozione accademica, è un segnale forte per chi pensa che l’innovazione debba per forza parlare con accento californiano.
La nomina del prof. Aniello Murano è un ponte tra il Sud e l’Europa, mette il Mezzogiorno al centro della cabina di regia nazionale, portando quella vivacità intellettuale che serve per non farsi schiacciare dai giganti del tech.
“Sono onorato di essere stato eletto insieme a colleghi di altissimo profilo – ha dichiarato il prof. Murano – e sono convinto che lavoreremo in piena sinergia per dare voce alla ricerca scientifica, alle sue applicazioni in ogni ambito per lo sviluppo culturale, sociale ed economico del nostro Paese e di tutta Europa. Valorizzeremo – ha aggiunto – tutte le realtà accademiche nazionali e comunitarie con le quali abbiamo già un dialogo costante e le aziende innovative per contribuire all’accelerazione tecnologica, operando per lo sviluppo del Paese attraverso la promozione di una Ricerca consapevole, etica, responsabile e finalizzata al bene comune”.
Il curriculum del prof. Murano è un fitto intreccio di logica, verifica formale e sistemi multi-agente, somiglia più a una mappa per navigare nel mare in tempesta della modernità che a un freddo elenco di pubblicazioni. È un uomo che ha scelto di restare e di contribuire a costruire a Napoli un polo d’eccellenza, che dialoga alla pari con Oxford e Stanford, dimostrando che la “fuga dei cervelli” non è una condanna biblica, ma una scelta che si può ribaltare con il lavoro e la competenza.
La sfida che lo attende è titanica. L’AIxIA, che da trent’anni cerca di spiegare che gli algoritmi non sono stregoneria ma matematica applicata, trova nel prof. Murano un timoniere capace di tenere insieme due mondi: l’astrazione della ricerca e la concretezza dell’impatto sociale.
La sua proiezione in questa nuova avventura è chiara: l’IA come bene comune attraverso un dialogo globale. Il prof. Murano ha sempre sostenuto che la tecnologia deve essere spiegabile. Non una scatola nera che decide del nostro destino, ma uno strumento trasparente.
In un momento in cui l’Intelligenza Artificiale sembra dominata dal lungo monologo dei giganti di oltreoceano, la sfida più alta di AixIA è di equilibrare le forze e fare dell’Europa un interlocutore competente, capace di trainare lo sviluppo e di non lasciarsi schiacciare dai “signori del silicio”.
L’apporto internazionale della ricerca del prof. Murano contribuirà a rafforzare questo dialogo necessario oltre l’Europa, senza dimenticare l’Umanesimo di cui è figlio. Il prof. federiciano sa bene che dietro ogni algoritmo c’è una responsabilità etica, un dovere verso le generazioni che verranno. Il suo apporto, come quello di tutto il Direttivo non sarà dunque solo tecnico. Sarà politico, nel senso più nobile del termine. Quello di chi vuole un’Italia capace di governare la tecnologia e non di subirla come un destino ineluttabile.
La visione del nuovo Direttivo sarà la naturale continuazione di chi ha precedentemente guidato AixIA e il dialogo con il presidente uscente Gianluigi Greco continuerà ad esser costruttivo e fattivo. Non resta che attendere una maggiore considerazione dell’AixIA da parte di tutte le forze governative nazionali e comunitarie per fare fronte comune, per lasciare che l’Associazione scientifica di Intelligenza Artificiale parli con i competitor internazionali e ridisegni il presente ed il futuro dell’IA, nel segno di un nuovo equilibrio, quello che oggi manca a causa di un oligopolio tecnologico senza precedenti.

Floriana Nappi




USA e la corsa di mezzo termine 2026 dell’intelligenza artificiale

Once upon a time, in cui le elezioni di medio termine decidevano il destino delle tasse, della sanità o di qualche guerra lontana. Quel tempo è finito. Oggi le midterm americane sono diventate un referendum implicito sull’intelligenza artificiale, una tecnologia che non chiede più il permesso e non aspetta il consenso. L’AI non è più una promessa da slide deck o un white paper da conferenza a Davos. È potere puro, capitale concentrato e attenzione pubblica continua. In politica, questa combinazione non è solo esplosiva. È radioattiva.

Ogni distretto elettorale citato sembra una scacchiera dove i pezzi non sono più candidati, ma data center, PAC multimilionari, narrative sulla sicurezza e paure molto concrete di blackout, consumo idrico e immagini nude generate da un algoritmo con il senso etico di un tostapane.

L’Italia accende i data center: come l’AI sta ridisegnando l’infrastruttura invisibile del Paese

Se oggi l’intelligenza artificiale sembra essere ovunque, il motivo è piuttosto semplice: da qualche parte, fisicamente, deve pur girare. E quel “da qualche parte” ha un nome molto concreto, molto poco poetico e sempre più strategico: data center. I numeri dell’Osservatorio Data Center del Politecnico di Milano raccontano una storia che vale la pena leggere come si leggerebbe una buona cronaca tecnologica: con la consapevolezza che non stiamo parlando solo di server e megawatt, ma del sistema nervoso dell’economia digitale e dell’AI in Italia.

2026, l’anno in cui il media planning smette di pianificare e inizia a progettare

Tutti noi che lavoriamo nel media da qualche tempo abbiamo la sensazione che le parole che usiamo ogni giorno non bastino più a spiegare quello che sta succedendo. Pianificazione, canali, funnel, copertura, frequenza. Certo, funzionano ancora. Ma non raccontano più tutto. E, forse, non raccontano nemmeno la parte più importante. Le previsioni WARC “The future of media” per il 2026 sono lì a ricordarcelo in modo piuttosto esplicito: la spesa pubblicitaria globale crescerà di oltre il 9% e arriverà intorno ai 1,3 mila miliardi di dollari. Una cifra enorme, che non dice solo che il mercato cresce, ma soprattutto che sta cambiando pelle.

Quando Stranger Things diventa Stranger AI

Un creator brasiliano, armato di Kling AI 2.6 Motion Control e probabilmente di una connessione decente, si sostituisce senza sbavature a Millie Bobby Brown, David Harbour e Finn Wolfhard. Non una parodia. Non un filtro. Un body swap totale, fluido, credibile, inquietantemente perfetto. Quattordici milioni di visualizzazioni su X dopo, Hollywood non è più un’industria creativa. È un dataset in attesa di being repurposed.

Bill Gates avverte di un’inversione del progresso globale e di un’imminente età oscura

Bill Gates ha alzato il tono nel suo lettera annuale 2026, lanciando un monito che pochi leader mondiali oserebbero articolare in pubblico: il progresso globale non avanza più. Dopo decenni di miglioramenti misurabili in salute pubblica, riduzione della povertà e sopravvivenza infantile, Gates dipinge uno scenario inquietante: il mondo rischia di entrare in una nuova “Età Oscura” entro cinque anni se le tendenze attuali non cambiano. Il messaggio, per quanto espresso con la pacatezza di un filantropo miliardario, porta con sé una gravità che ricorda più un rapporto d’intelligence che un briefing benefico.

Turchia, Pakistan e Arabia Saudita verso un patto di difesa trilaterale nel caos mediorientale

Il Medio Oriente sembra sull’orlo di un déjà vu bellico, con tensioni tra Stati Uniti e Iran che minacciano di trasformarsi in un nuovo teatro di instabilità. In questo contesto, Turchia e Pakistan hanno sollevato il sipario su un’intesa trilaterale di difesa con l’Arabia Saudita, un’operazione diplomatica che profuma di realpolitik e di un’insofferenza crescente verso Washington.

Già da giovedì scorso, Raza Hayat Harraj, ministro pakistano per la produzione della difesa, ha confermato a Reuters che il progetto è “già in cantiere”, precisando che non si tratta di un’estensione dell’accordo di mutua difesa già firmato tra Islamabad e Riyadh. Tradotto: niente garanzie automatiche di intervento militare in caso di conflitto, ma una piattaforma collaborativa per costruire capacità comuni, allenare le forze e condividere strategie, quanto basta per rafforzare la deterrenza regionale.

LINEE GUIDA PER L’IMPLEMENTAZIONE DELL’IA NEL MONDO DEL LAVORO

Tra utopia regolatoria e realtà aziendale

Il Ministero del Lavoro e delle Politiche Sociali ha finalmente deciso di uscire dall’ombra, pubblicando un documento che, sulla carta, promette di guidare imprese e lavoratori nell’adozione dell’intelligenza artificiale. Non parliamo di un semplice vademecum di buone intenzioni: è un tentativo di dettare regole chiare in un territorio che fino a ieri sembrava territorio di startup, lobby tecnologiche e consulenti futuristi.

L’IA nel mondo del lavoro non è più un’idea astratta da conferenze high-tech: sta entrando nei processi aziendali con la violenza silenziosa di un algoritmo che decide chi viene promosso, chi licenziato e, più spesso, chi resta invisibile ai radar della produttività digitale. Trasformare questa realtà in una gestione equa e inclusiva non è banale, ma il Ministero ci prova. La parola chiave sembra essere trasparenza, almeno sulla carta. Sistemi comprensibili, supervisione umana obbligatoria, tracciabilità. In pratica: niente scatole nere che decidono il destino di un dipendente senza spiegazioni plausibili.

Il punto di svolta dell’intelligenza artificiale e la fiducia digitale

La notizia è semplice e devastante: conversazioni “cancellate” su ChatGPT potrebbero non essere mai realmente sparite. Una sentenza federale, scaturita da una causa del New York Times contro OpenAI, stabilisce che anche i messaggi che gli utenti pensavano eliminati possono essere conservati e usati come prova legale. Psicologicamente, questo cambia tutto: il patto implicito tra utenti e piattaforme AI è frantumato, e ricostruire fiducia è più difficile di convincere un consiglio di amministrazione a investire in un progetto quantistico.

Groenlandia torna a segnare la mappa geopolitica globale. L’Europa schiera truppe simboliche a Nuuk per dire no alle pretese Usa

Non è solo esercitazione, è deterrenza politica pura. L’Artico non è bottino negoziabile e la sovranità conta

Un passo simbolico può dire più di mille dichiarazioni pubbliche, soprattutto quando a parlare sono truppe e navi schierate nel freddo estremo dell’Artico. I recenti movimenti militari coordinati dei Paesi europei a Nuuk non rappresentano una semplice esercitazione: rivelano una tensione latente all’interno della NATO e un’Europa intenzionata a sfidare apertamente le pretese statunitensi su territori strategici. Francia, Germania, Svezia, Norvegia, Paesi Bassi e Regno Unito hanno inviato contingenti limitati ma altamente simbolici per partecipare a Operation Arctic Endurance, guidata dalla Danimarca. Il numero esatto di truppe importa poco: il messaggio politico è chiarissimo, e Macron non si è fatto scrupoli a ribadirlo, sottolineando la responsabilità europea su Groenlandia come territorio legato all’UE e come alleato NATO.

IBM vantaggio quantistico: il conto alla rovescia che l’industria non vuole ammettere

Se pensavate che la computazione quantistica fosse ancora relegata a conferenze accademiche e diapositivi pieni di formule incomprensibili, attendete di leggere questo. IBM ha appena segnalato che il vantaggio quantistico sta passando dallo stato di promessa futuribile alla soglia operativa di ogni grande impresa. Due risultati fondamentali, due nuovi processori quantistici, e un messaggio talmente esplicito che persino il board più conservatore non potrà più ignorarlo. Il conto alla rovescia è iniziato.

La Cina presenta un sistema operativo cerebrale per robot umanoidi completamente autonomi

La Cina, con la presentazione di COSA, un sistema operativo cognitivo progettato per robot umanoidi autonomi, sembra aver scelto deliberatamente quel momento. Non stiamo parlando di un altro framework per orchestrare sensori e attuatori in un laboratorio sterilizzato, ma di un sistema pensato per sopravvivere nel mondo reale, quello sporco, imprevedibile, pieno di attriti fisici e ambiguità semantiche che fanno impazzire anche gli esseri umani. Il punto non è che un robot cammini. Il punto è che sappia perché sta camminando, dove sta andando e cosa fare quando il mondo non collabora.

Memoria Transattiva e Agentic AI: l’architettura invisibile che mancava

Tutti parlano di agentic AI con lo stesso entusiasmo con cui qualche anno fa si parlava di cloud first o data driven, ma quando arriva il momento di concedere vera autonomia agli agenti artificiali, improvvisamente le mani tremano. Troppo rischio. Troppa opacità. Troppa responsabilità distribuita. Il risultato è un esercito di bot intelligenti che restano però strumenti isolati, brillanti ma soli, incapaci di funzionare come una vera organizzazione cognitiva. Qui entra in scena una teoria nata molto prima dei transformer, ignorata per decenni dal mondo enterprise e oggi sorprendentemente attuale. La memoria transattiva.

I lavori che l intelligenza artificiale non puo sostituire ma che rischiano di scomparire per mancanza di esseri umani

Non tutti i lavori sono destinati a essere divorati da algoritmi, reti neurali e automazione cognitiva. Alcuni mestieri resistono non per nostalgia o romanticismo analogico, ma perché incorporano un livello di giudizio umano, sensibilità fisica e controllo artistico che oggi nessun modello generativo, per quanto addestrato, è in grado di replicare. Il paradosso è che proprio questi lavori artigianali insostituibili dall intelligenza artificiale sono oggi più a rischio di qualunque professione d ufficio automatizzabile. Non per colpa delle macchine, ma per l assenza crescente di persone disposte a impararli.

EMA e FDA riscrivono le regole dell’intelligenza artificiale farmaceutica

I regolatori EMA e FDA hanno smesso di parlarsi per corridoi riservati e hanno deciso di pubblicare un documento congiunto, mettendo nero su bianco dieci principi condivisi per l’uso dell’intelligenza artificiale nel ciclo di vita del farmaco. Non è una dichiarazione di intenti da convegno, ma una mossa difensiva e offensiva insieme. Difensiva perché negli ultimi anni le autorità si sono viste recapitare dossier pieni di promesse algoritmiche e poveri di prove. Offensiva perché chi governa la regolazione sa che l’intelligenza artificiale farmaceutica non è più un esperimento da laboratorio, ma una leva industriale che può comprimere tempi, costi e rischi, se gestita con disciplina.

Zuckerberg molla il metaverso e compra elettricità: Meta, AI e il ritorno brutale alla fisica

Il metaverso è morto. Non per mancanza di visione, come qualcuno proverà a raccontare nei prossimi panel patinati di Davos, ma per un motivo molto più prosaico e molto più spietato: non produceva abbastanza ritorni, non abbastanza in fretta, e soprattutto non abbastanza potere. Mark Zuckerberg lo ha capito prima di altri e ha fatto ciò che i CEO sopravvivono facendo da sempre. Ha tagliato, ha smentito se stesso e ha cambiato religione. Il risultato è un’operazione di liquidazione industriale mascherata da pivot strategico, con il metaverso trasformato in un asset contabile da ridimensionare e l’intelligenza artificiale elevata a nuova divinità aziendale.

I numeri parlano una lingua che nemmeno la narrativa più sofisticata riesce a distorcere. Mille posti di lavoro tagliati nella realtà virtuale, studi chiave chiusi, Reality Labs ridotto a una versione smagrita e molto meno ambiziosa di ciò che doveva essere il futuro dell’interazione umana. In parallelo, settanta miliardi di dollari di investimento diretto in intelligenza artificiale e una promessa che suona più come una dichiarazione di guerra industriale che come un piano aziendale: seicento miliardi di dollari in infrastrutture negli Stati Uniti entro il 2028. Non software, non avatar, non mondi digitali. Cemento, rame, acciaio, data center, reattori nucleari e chilometri quadrati di consenso politico.

Qui il punto non è che Zuckerberg abbia smesso di credere nel metaverso. Il punto è che ha smesso di credere che fosse il campo di battaglia giusto. L’intelligenza artificiale generativa ha cambiato le regole del gioco in modo brutale. Non vince chi ha l’idea più elegante, vince chi riesce a garantire calcolo continuo, energia stabile e scala industriale. La nuova unità di misura del potere tecnologico non è più il numero di utenti ma i gigawatt disponibili.

Meta Compute non è un progetto tecnologico, è un progetto infrastrutturale degno del New Deal. Data center iperscalabili alimentati da contratti a lungo termine per l’energia nucleare, una dipendenza esplicita da permessi governativi, incentivi federali e alleanze politiche. Altro che move fast and break things. Qui si tratta di move slow and convince everyone. La fisica ha fatto irruzione nella Silicon Valley e ha imposto il conto. I modelli si addestrano in settimane. Le centrali elettriche si costruiscono in anni. E se sbagli il timing, sei fuori.

Il cambio di leadership racconta più di mille comunicati stampa. Santosh Janardhan, uomo infrastrutture, viene affiancato da Daniel Gross, reclutato dalla startup di sicurezza AI SSI. Non un ricercatore accademico, non un evangelista visionario, ma qualcuno che conosce bene il concetto di frontiera, di rischio sistemico e di controllo. È un messaggio interno molto chiaro. L’era dell’AI romantica è finita. Inizia l’era dell’AI governata come un’arma strategica.

L’ingresso di Dina Powell McCormick come presidente con delega ai rapporti istituzionali è forse il segnale più rivelatore. Meta non si prepara a competere solo con OpenAI, Google o Anthropic. Si prepara a negoziare con Stati, autorità di regolazione, comunità locali e lobby energetiche. Quando un’azienda tecnologica assume figure con background politico di alto livello, non sta facendo public relations. Sta anticipando conflitti. Permessi, autorizzazioni ambientali, accesso alla rete elettrica, consenso pubblico sull’uso del nucleare. L’intelligenza artificiale non è più una questione di algoritmi, è una questione di sovranità industriale.

Il paradosso in cui Meta si trova immersa è affascinante e pericoloso. Da un lato i Superintelligence Labs guidati da Alexandr Wang promettono modelli di frontiera, nomi in codice che suonano quasi ironici come Mango e Avocado, a ricordare quanto la cultura tech ami mascherare il potere dietro nomi innocui. Dall’altro lato il vero collo di bottiglia non è la ricerca, ma l’esecuzione fisica. Non conta chi arriva primo con il modello più brillante, conta chi riesce a tenerlo acceso senza far saltare la rete elettrica di un intero Stato.

Questo ribalta completamente la narrativa classica dell’innovazione. Per anni ci siamo raccontati che il software mangia il mondo. Ora il mondo sta rispondendo mordendo il software. Territorio, energia, acqua per il raffreddamento, consenso sociale. Tutto ciò che la Silicon Valley considerava un dettaglio noioso è diventato il fattore critico di successo. Meta lo ha capito e ha fatto una scelta che molti altri dovranno imitare, magari con meno risorse e più panico.

Il metaverso, in questa storia, non è stato un errore concettuale. È stato un errore temporale. Troppo ahead of demand, troppo costoso in termini di capitale politico interno, troppo scollegato da una monetizzazione immediata. In un mondo dove l’AI promette ritorni tangibili in termini di produttività, advertising, automazione e controllo delle piattaforme, continuare a bruciare miliardi in visori VR era diventato un atto quasi ideologico. Zuckerberg ha scelto di essere pragmatico. O, per dirla senza eufemismi, ha scelto di sopravvivere.

Meta aveva provato a costruire un mondo virtuale per sfuggire ai vincoli del mondo reale. Ora è costretta a tornare con entrambi i piedi nel fango della realtà industriale. Permessi edilizi, opposizioni locali, proteste ambientali, comitati cittadini. L’AI non vive nel cloud. Vive in capannoni grandi come aeroporti e consuma energia come una città di medie dimensioni. Chi controlla l’energia controlla l’AI. Chi controlla l’AI controlla l’economia digitale dei prossimi decenni.

La vera domanda non è se Meta riuscirà a costruire abbastanza data center. È se riuscirà a farlo abbastanza in fretta senza scatenare una reazione politica e sociale che rallenti tutto. L’opinione pubblica accetta volentieri chatbot e assistenti intelligenti. È meno entusiasta quando scopre che per alimentarli serve una centrale nucleare nel raggio di pochi chilometri. Qui si giocherà la partita più delicata. Non nei benchmark, ma nei consigli comunali.

In controluce, questa mossa segna la fine simbolica di un’epoca. La Silicon Valley che prometteva mondi alternativi lascia spazio a una nuova aristocrazia tecnologica che parla il linguaggio dell’industria pesante. L’AI come acciaio del ventunesimo secolo. Il calcolo come petrolio. I data center come raffinerie. Zuckerberg non sta solo liquidando il metaverso. Sta riscrivendo il DNA di Meta per trasformarla da piattaforma sociale a potenza infrastrutturale.

Chi pensa che sia un ripiegamento non ha capito la portata del cambio di paradigma. Questo è un raddoppio della posta, non una ritirata. Solo che il tavolo non è più quello luccicante delle demo futuristiche. È quello, molto meno sexy, delle centrali elettriche, delle autorizzazioni federali e dei contratti a trent’anni. Vince chi resiste più a lungo, non chi corre più veloce.

Alla fine, la corsa all’intelligenza artificiale si sta rivelando per quello che è sempre stata sotto la superficie. Una corsa alla fisica, al territorio e al potere. Zuckerberg lo ha capito e ha agito di conseguenza. Gli altri stanno ancora discutendo di prompt.

Ernie 5.0 e il ritorno silenzioso di Baidu nell’era dei modelli sparsi

Baidu è tornata. Non con un tweet roboante, non con una demo teatrale in stile Silicon Valley, ma con una dichiarazione asciutta su X che ha il sapore della rivincita tecnica più che della vittoria mediatica. ERNIE 5.0 è ufficialmente uscito dalla fase di preview e il messaggio implicito è chiaro. Il gruppo che molti analisti occidentali avevano già archiviato come un ex gigante incapace di reggere la nuova corsa ai large language model è ancora seduto al tavolo, con una strategia che segue una logica cinese molto precisa. Efficienza prima della potenza bruta. Architettura prima del marketing. Infrastruttura prima dell’ego.

ERNIE 5.0 non è un modello che impressiona per un singolo numero da slide per investitori. È un modello che va letto come manifesto industriale. Circa due trilioni di parametri in una architettura Mixture of Experts, ma con solo il tre per cento degli esperti attivati a ogni inferenza. Chi lavora davvero con i modelli sa cosa significa. Meno calcolo per query, meno costi marginali, più complessità ingegneristica, più debito tecnico a monte, ma anche una strada più sostenibile nel lungo periodo. È l’opposto della filosofia muscolare che ha dominato la prima fase della corsa ai foundation model in Occidente, dove ogni release sembrava una gara a chi aveva più GPU e più miliardi da bruciare.

Il dato interessante non è solo la dimensione o la sparsità. È la scelta di addestrare ERNIE 5.0 nativamente come modello omni-modale. Testo, immagini, audio e video non come moduli aggiunti in un secondo momento, ma come parti integrate fin dall’inizio. Questa differenza, che a molti utenti finali sembra una sottigliezza accademica, è in realtà un cambio di paradigma architetturale. Significa che la rappresentazione latente del mondo non nasce testuale per poi essere adattata. Nasce già ibrida, con tutte le implicazioni del caso su ragionamento, allineamento cross-modale e capacità di generalizzazione. Non è un caso che Baidu insista sul termine omni-modal. È una parola che suona come branding, ma nasconde una scelta tecnica profonda.

Sul piano delle performance, Baidu rivendica risultati competitivi nella scrittura creativa, nel seguire istruzioni e nel coding. ERNIE 5.0 si posiziona nella top 10 in diverse categorie occupazionali, dalla scienza al business e finanza fino alla sanità. Qui è necessario un minimo di scetticismo da veterani del settore. I benchmark sono strumenti politici prima che scientifici. Tuttavia il rimbalzo è reale. A novembre la preview di ERNIE 5.0 era scivolata al ventiquattresimo posto su LMArena, un dato che aveva alimentato la narrativa del declino. Oggi il modello è tornato nella conversazione che conta, anche se più per recupero che per sorpasso.

Il contesto rende questo ritorno ancora più interessante. Il mercato domestico cinese dell’intelligenza artificiale è diventato una giungla ipercompetitiva. ByteDance con Doubao ha superato i cento milioni di utenti attivi mensili. DeepSeek ha innescato una guerra dei prezzi con modelli estremamente efficienti che hanno costretto Baidu a una scelta dolorosa ma razionale. Abbandonare completamente il modello di abbonamento a pagamento per il consumer. Un segnale che molti in Occidente avrebbero letto come resa. In realtà è stata una riallocazione strategica delle risorse.

Mentre il fronte consumer diventava una battaglia di margini sempre più sottili e di attenzione sempre più volatile, Baidu ha rafforzato la sua posizione nel B2B. ERNIE oggi alimenta i centri di comando delle smart city in tutta la Cina, serve tutte le banche cinesi considerate sistemicamente rilevanti e gestisce circa sedici miliardi e mezzo di chiamate API al giorno. Questo numero da solo racconta più di qualsiasi demo. Significa carichi reali, SLA stringenti, integrazioni profonde con sistemi legacy e una pressione operativa che nessun benchmark pubblico può simulare. È questo flusso di cassa enterprise che ha finanziato lo sviluppo continuo del modello mentre altri si inseguivano sui social.

C’è poi un aspetto spesso sottovalutato dagli analisti tecnici puri. L’interfaccia. Il chatbot ERNIE non è solo un endpoint di un LLM, ma un prodotto pensato per ridurre la frizione cognitiva dell’utente. Scrittura, lettura, editing di immagini e uso generale sono separati in sezioni dedicate. Sotto il cofano è sempre lo stesso modello, ma con prompt di sistema e regolazioni differenti. È una scelta apparentemente banale che in realtà dice molto sulla maturità del team di prodotto. Non costringere l’utente a diventare prompt engineer per ottenere valore. In un mercato dove molti confondono flessibilità con complessità, è una posizione quasi controculturale.

Curioso, e per certi versi controintuitivo, il fatto che l’ultima versione di ERNIE 5.0 non abbia la ricerca web attiva. È un modello offline, puro. Chi vuole informazioni aggiornate deve tornare a ERNIE 4.5. Questa scelta ha fatto storcere il naso a diversi utenti, ma è coerente con una filosofia di controllo e affidabilità. Separare il ragionamento dalla retrieval esterna riduce superfici di rischio, costi e dipendenze. È una scelta che parla più agli ingegneri che ai marketer.

Le reazioni della comunità sono state miste. C’è chi applaude il ritorno tecnico di Baidu e chi aspetta benchmark più dettagliati, promessi ma non ancora pubblicati in forma completa. Vale la pena ricordare un dettaglio che spesso viene omesso nei titoli. Anche ammesso che ERNIE 5.0 eguagli GPT-5 e Gemini 2.5 su specifiche metriche, molti laboratori occidentali stanno già lavorando su GPT-5.2 o Gemini 3. Il che rende questo rilascio più un allineamento che una rottura dello status quo. Ma nel mondo reale dell’AI industriale, il catch-up tempestivo è spesso più importante del salto in avanti.

C’è una citazione attribuita a Deng Xiaoping che torna spesso quando si parla di strategia tecnologica cinese. Non importa se il gatto è bianco o nero, l’importante è che prenda i topi. ERNIE 5.0 sembra incarnare perfettamente questa filosofia. Non è il modello più rumoroso. Non è quello che promette l’AGI su un palco. È un sistema progettato per funzionare, scalare e generare valore in contesti complessi e regolamentati. In un’epoca in cui molti confondono l’intelligenza artificiale con una demo virale, questa sobrietà è quasi sovversiva.

Chi vuole provarlo può farlo gratuitamente su ernie.baidu.com. Il vero test però non è l’esperienza del singolo utente curioso. È capire se questa combinazione di architettura sparsa, approccio omni-modale e dominio enterprise riuscirà a sostenere Baidu nel prossimo ciclo competitivo. Perché la prossima fase dell’AI non sarà vinta da chi urla più forte, ma da chi riesce a far funzionare modelli complessi sotto carichi reali, con costi sostenibili e responsabilità operative. Su questo terreno, Baidu non è affatto fuori gioco. Anzi, sembra aver appena rimesso gli scarponi da lavoro.

WhatsApp, AI e antitrust: dopo l’Italia, il Brasile diventa il nuovo laboratorio del potere algoritmico

A volte le policy smettono di essere documenti legali e diventano strumenti di potere. WhatsApp, Meta e l’intelligenza artificiale sono entrati esattamente in quella fase. Quello che sta accadendo in Brasile non è un dettaglio regolatorio locale, ma un segnale globale, di quelli che i board dovrebbero leggere con la stessa attenzione riservata ai report trimestrali. Perché quando un’autorità antitrust costringe una piattaforma a sospendere una policy e la piattaforma risponde creando un’eccezione chirurgica per un singolo Paese, non siamo più nel campo della compliance. Siamo nel campo della strategia.

Deepfake non consensuali, Grok e l’ipocrisia strutturale

Puzza di marcio quando una piattaforma digitale riesce a trasformare la violazione sistematica del consenso in una feature tollerata, monetizzata e difesa con comunicati stampa dal sapore burocratico. Le deepfake non consensuali non sono più una deviazione marginale del web oscuro, sono diventate un prodotto di massa, integrate nell’esperienza utente, distribuite tramite app ufficiali e protette dal silenzio complice di chi governa gli store digitali globali. X, con Grok incastonato come motore creativo, è oggi il caso di scuola di questa degenerazione industriale.

Chip War: tariffe sui chip AI tra Usa e Cina: il 25 per cento che ridisegna la guerra dei semiconduttori

Un numero che oggi vale più di mille discorsi strategici, 25 per cento. Non è una percentuale scelta a caso, non è nemmeno una misura tecnica. È una dichiarazione di potere. Washington ha deciso che l’accesso cinese ai chip di intelligenza artificiale avanzata deve passare da una cassa americana, anche quando quei chip non sono fisicamente prodotti negli Stati Uniti. Le nuove tariffe sui chip AI, applicate a modelli come Nvidia H200 e AMD MI325X, non sono un dettaglio commerciale ma un cambio di paradigma nella guerra dei semiconduttori tra USA e Cina. Il messaggio è brutale nella sua semplicità. Se vuoi fare AI di frontiera con tecnologia americana, paghi il pedaggio. E lo paghi a prescindere.

La job singularity secondo Vlad Tenev e l’illusione della fine del lavoro

C’è una parola che terrorizza i mercati più dei tassi di interesse e delle guerre commerciali. Disoccupazione. Appena si pronuncia insieme a intelligenza artificiale, la reazione è pavloviana. Panico, editoriali apocalittici, thread su X che annunciano la fine della classe media e corsi accelerati di falegnameria come piano B. Poi arriva Vlad Tenev, CEO di Robinhood, sale su un palco TED e decide di rovinare la festa ai catastrofisti parlando di job singularity. Non la singolarità delle macchine che ci dominano, ma quella dei lavori che esplodono. Un’esplosione cambriana, per usare la sua espressione, di nuove professioni, nuovi mestieri, nuove combinazioni uomo macchina che oggi nemmeno abbiamo il vocabolario per descrivere.

Z.ai la prima intelligenza artificiale addestrata senza Nvidia e perché dovrebbe preoccuparci tutti

Il rilascio di GLM-Image da parte di Z.AI appartiene a questa categoria. Non è solo un nuovo modello di generazione di immagini open source. È una dichiarazione strategica, silenziosa ma brutalmente chiara. La Cina può addestrare modelli di intelligenza artificiale complessi senza un singolo transistor made in USA. Nvidia non è più un prerequisito. È solo un acceleratore, e nemmeno indispensabile.

Un caffè al Bar dei Dani

Un caffè al Bar dei Dani, oggi viene lungo e leggermente amaro. Di quelli che ti tengono sveglio mentre il mondo dell’intelligenza artificiale continua a fare quello che gli riesce meglio: concentrare potere, capitali e talento come se fosse una partita a Risiko giocata da pochi adulti molto ben finanziati.

Partiamo da OpenAI, che negli ultimi mesi sembra più un aeroporto internazionale che un laboratorio di ricerca. Arrivi, partenze, ritorni clamorosi. Il rientro di Barret Zoph, Luke Metz e Sam Schoenholz da Thinking Machines Lab è una di quelle notizie che raccontano più di quanto sembri. Non è solo un “abbiamo ripreso tre cervelli bravi”. È il segnale che la guerra per il talento è entrata nella sua fase matura, quella in cui non vinci più reclutando giovani promesse ma riportando a casa chi conosce già i segreti industriali, le cicatrici e i compromessi. Thinking Machines, la creatura di Mira Murati, resta valutata dieci miliardi e sogna i cinquanta. Ma intanto OpenAI si riprende pezzi strategici della propria memoria storica. Silicon Valley, versione boomerang. Te ne vai per costruire il futuro, torni perché il futuro costa più di quanto pensassi.

Oracle OpenAI debito: quando l’intelligenza artificiale presenta il conto

C’è un momento preciso in cui la narrativa sull’intelligenza artificiale smette di essere epica e diventa improvvisamente contabile. Accade quando i modelli linguistici da miliardi di parametri incontrano i bilanci, quando le promesse di cloud infinito si scontrano con il costo molto finito del cemento, dell’energia e del debito. La causa intentata dall’Ohio Carpenters’ Pension Plan contro Oracle è esattamente questo momento. Non parla di etica dell’AI o di rischi esistenziali, ma di qualcosa di molto più concreto e, per Wall Street, infinitamente più pericoloso. La trasparenza finanziaria.

Google e la guerra totale dell’intelligenza artificiale

Vincere nell’intelligenza artificiale non è una metafora sportiva, è una strategia di dominio. Non basta avere un buon modello, serve un ecosistema che ti consenta di piegare il mercato, gli utenti e perfino il linguaggio quotidiano alla tua visione del mondo. Serve potenza computazionale quasi illimitata, prodotti usati ogni giorno da miliardi di persone, accesso profondo ai dati personali e la capacità industriale di migliorare tutto questo senza chiedere permesso a nessuno. Messa così, sembra un elenco impossibile. In realtà esiste già un’azienda che ha quasi tutte le carte in mano, e si chiama Google.

Il pentagono diventa AI-first tra Grok, Musk e la nuova corsa agli armamenti algoritmica

Il Pentagono ha deciso di smettere di fingere. Non di fingere che l’intelligenza artificiale sia importante, quello lo dice da anni, ma di fingere che sia ancora una tecnologia di supporto, una slide da PowerPoint, un progetto pilota confinato nei corridoi della difesa digitale. Le parole pronunciate dal Segretario alla Difesa Pete Hegseth a Starbase, il tempio industriale di SpaceX in Texas, segnano un cambio di postura netto, quasi brutale. L’obiettivo dichiarato è trasformare le forze armate statunitensi in una “AI-first warfighting force”, una forza militare che mette l’intelligenza artificiale al centro di ogni dominio operativo, dalla pianificazione strategica al campo di battaglia, dallo spazio al cyberspazio. Non è una metafora. È una roadmap.

Greenland, Nato e Trump: quando la sicurezza nazionale diventa una trattativa immobiliare

SCMP

Donald Trump non negozia. Compra. O almeno ci prova. La differenza è sottile solo per chi non ha mai guardato una mappa dell’Artico con gli occhi di un immobiliarista geopolitico. Greenland è tornata al centro del mondo non per i suoi ghiacci o per la cultura inuit, ma perché nella testa del presidente americano rappresenta un asset strategico che non può restare in affitto. O è nostro, o è un problema. Questo è il messaggio. Netto. Brutale. In perfetto stile Trump.

Greenland sicurezza nazionale. Il resto è rumore. Nato, Cina, Russia, missili, rotte commerciali, minerali critici. Tutto ruota intorno a questo concetto martellante, ripetuto come un mantra su Truth Social. Gli Stati Uniti hanno bisogno della Groenlandia. Non di una partnership. Non di una cooperazione rafforzata. Di possederla. E se non lo fanno loro, lo faranno altri. Fine del ragionamento. Semplificazione estrema, degna di una slide da board meeting fatta male, ma tremendamente efficace sul piano comunicativo.

Claude, Yarvin e l’illusione della neutralità algoritmica

C’è un momento preciso, nella storia recente dell’intelligenza artificiale generativa, in cui l’ingenuità collettiva si è incrinata. Non è stato un bug, né una fuga di dati, né un benchmark fallito. È stato un dialogo. Un dialogo lungo, insistente, metodico. Curtis Yarvin che parla con Claude. E Claude che, pezzo dopo pezzo, smette di recitare la parte del chatbot educato, progressista per default, e inizia a riflettere una visione del mondo radicalmente diversa. Non perché abbia cambiato idea. Ma perché non ne ha mai avute una sua.

Zhipu AI e l’illusione dell’autosufficienza: quando l’intelligenza artificiale cinese sfida Nvidia con i chip di Huawei

La notizia è stata confezionata con il tono solenne delle grandi svolte storiche, di quelle che in Cina amano definire “momenti fondativi”. Zhipu AI, fresca di IPO a Hong Kong e ormai stabilmente nel radar delle liste nere americane, annuncia che il suo nuovo modello di generazione di immagini GLM-Image è stato addestrato interamente su chip Huawei Ascend, senza alcun ricorso a semiconduttori statunitensi. Nessuna Nvidia sotto il cofano, nessun acceleratore occidentale nascosto dietro una VPN. Solo silicio domestico, framework domestico e una narrativa che profuma di autosufficienza tecnologica. Il messaggio politico è chiaro, quasi più del risultato tecnico. Pechino può fare AI avanzata da sola, anche sotto sanzioni. O almeno così vorrebbe sembrare.

Il caos oltre il report: perché Microsoft è sotto accusa e Musk è furioso con Gemini per Siri

Il mondo dell’intelligenza artificiale non è un tranquillo laboratorio di ricerca dove scienziati gentili discutono cordialmente di equazioni e metriche di accuratezza. Negli Stati Uniti la guerra di narrativa, controllo e normativa sull’AI è diventata teatro di battaglie politiche e industriali, con Microsoft al centro di una tempesta che rischia di riscrivere il tessuto competitivo del settore. Alcuni racconti recenti parlano di un “rapporto Microsoft sull’intelligenza artificiale” respinto dall’America, ma la realtà è molto più complessa e, come spesso accade, va oltre la semplificazione giornalistica.

Microsoft scopre l’elettricità e promette di non farcela pagare

Quando i data center diventano un problema politico, significa che l’innovazione ha finalmente incontrato il contatore di casa. Martedì mattina, a Washington, Brad Smith, presidente di Microsoft, ha fatto qualcosa di piuttosto raro per un colosso tecnologico. Ha parlato di elettricità come se fosse una questione sociale, non solo una riga di costo nel bilancio. Il messaggio, tradotto dal linguaggio diplomatico, è semplice. Tranquilli, non vi faremo esplodere la bolletta per alimentare l’intelligenza artificiale.

Agenti di intelligenza artificiale: perché la vera rivoluzione non è l’autonomia ma la memoria

Dopo anni di hype su modelli sempre più grandi, prompt sempre più sofisticati e demo che funzionano solo in condizioni da laboratorio, la conversazione si sta spostando dove fa più male. Quanto a lungo un agente riesce davvero a ragionare senza collassare. Quanto è capace di migliorarsi senza babysitting umano. Quanto possiamo fidarci di lui quando il contesto non è una demo ma il mondo reale, sporco, rumoroso e ostinatamente non deterministico.

Coolify vulnerabilità e la crisi di sicurezza che scuote l’ecosistema self-hosted

Coolify vulnerabilità non è più un titolo da forum per smanettoni ma una seria chiamata d’allarme per chiunque pensi che le piattaforme self-hosted open source siano immuni da rischi sistemici. Il recente annuncio di 11 falle critiche che colpiscono oltre 52.000 istanze di Coolify raggiungibili da internet non è solo un episodio di cronaca tecnica, ma un sintomo di fragilità profonda nelle piattaforme open source adottate senza adeguata disciplina di sicurezza infrastrutturale. Il problema non risiede esclusivamente nei bug tecnici scoperti, ma nella mentalità di adozione, nelle scelte architetturali e nella diffusa sottovalutazione dei rischi quando si parla di strumenti self-hosted.

L’intelligenza artificiale nel 2026 entra nel suo punto di inflessione geopolitico, commerciale e legale

Dopo anni di espansione frenetica delle capacità, il settore tecnologico sta entrando in una fase più adulta, meno romantica e decisamente più politica. Chi controlla i modelli, chi li integra nei processi reali, chi paga quando qualcosa va storto. Questa è la vera agenda. Il resto è marketing.

La keyword dominante è intelligenza artificiale 2026. Intorno orbitano concetti che fino a ieri sembravano secondari e oggi sono centrali come modelli open source, regolamentazione AI e responsabilità legale dell’AI. Google SGE ama le strutture chiare. Gli esseri umani intelligenti amano le verità scomode. Qui proviamo a soddisfare entrambi, senza illusioni.

Groenlandia, la fine dell’innocenza artica e il ritorno brutale della geopolitica

Per decenni la Groenlandia è stata raccontata come un margine. Un grande spazio bianco ai confini delle mappe mentali europee, utile per conferenze sul clima, per dichiarazioni solenni sulla cooperazione scientifica, per esercizi retorici sulla governance condivisa dell’Artico. Oggi quella narrazione è finita. Non lentamente, ma con la violenza silenziosa con cui cambiano le geometrie del potere quando il ghiaccio si ritira e lascia spazio a interessi duri, concreti, misurabili in tonnellate di minerali critici, chilometri di traiettorie missilistiche e minuti di volo tra continenti. La Groenlandia non è più un simbolo. È una realtà strategica, e l’Europa è arrivata tardi a rendersene conto.

Deepseek e l’arte di aggirare la scarsità: perché Engram cambia il gioco dell’addestramento AI

Non è il numero di parametri, non è la creatività apparente dei modelli, non è nemmeno la velocità con cui rispondono. È la memoria. La vera strozzatura industriale dell’AI moderna non è il talento ingegneristico né la teoria matematica, ma la banale, costosissima, fisica memoria ad alta banda. DeepSeek lo ha capito prima di molti. E ora lo scrive nero su bianco in un paper che farà discutere più di una keynote.

Il lavoro co firmato da Liang Wenfeng e da un gruppo di ricercatori della Peking University introduce Engram, una tecnica di conditional memory che punta a un obiettivo apparentemente eretico nel culto occidentale del brute force. Scalare i modelli in modo aggressivo senza aumentare proporzionalmente i requisiti di GPU e di HBM. In altre parole, crescere in intelligenza senza crescere in bolletta elettrica e in dipendenza da Nvidia. Per la Cina non è una scelta filosofica, è una necessità geopolitica.

Meta, Google e il potere politico dell’intelligenza artificiale

Google oggi sembra in vantaggio sull’intelligenza artificiale. Non perché sia diventata improvvisamente più simpatica, ma perché ha fatto ciò che le riesce meglio da vent’anni: occupare lo spazio prima che qualcun altro si accorga che esiste. L’accordo con Apple per portare l’AI di Mountain View dentro Siri è una di quelle mosse che, a posteriori, verranno descritte come inevitabili. Nel presente, invece, suona come una dichiarazione di potere. Quando controlli la ricerca, il browser, il sistema operativo mobile dominante e ora anche il cervello conversazionale dell’iPhone, non stai semplicemente competendo nel mercato dell’intelligenza artificiale. Stai ridisegnando i confini del potere tecnologico globale.

Apple si arrende all’AI e chiama Google: il giorno in cui cupertino ha ammesso di essere in ritardo

C’è un momento preciso in cui anche le aziende che hanno costruito imperi sull’illusione dell’autosufficienza devono guardarsi allo specchio. Per Apple quel momento è arrivato oggi, con una frase che pesa come un bilancio trimestrale sbagliato e molto più di mille keynote perfettamente coreografati. Cupertino ha deciso di affidare i suoi modelli di intelligenza artificiale di nuova generazione a Google Gemini. Traduzione per chi ama la chiarezza più della narrativa. Apple, la società che per vent’anni ha predicato l’integrazione verticale come dogma industriale, ha bussato alla porta del suo rivale storico per non restare fuori dalla partita più importante del decennio. Intelligenza artificiale generativa come keyword principale, ma anche come nervo scoperto di un’azienda che ha capito di non potersi permettere un altro rinvio.

Claude Cowork e la fine del chatbot educato: quando l’agente AI entra davvero nel tuo computer

C’è stato un momento preciso, negli ultimi anni, in cui abbiamo smesso di fingere che i chatbot fossero davvero utili. Bravi a parlare, impeccabili nel riassumere, sorprendentemente creativi nel produrre testo che sembra pensato da qualcuno che ha letto troppi manuali di management. Poi però arrivava il lavoro vero. File sparsi, cartelle indecenti, screenshot di spese che nessuno aveva voglia di trasformare in un foglio Excel, report iniziati e mai finiti. Ed è lì che Claude Cowork entra in scena, non chiedendo permesso e soprattutto non comportandosi più come un assistente gentile, ma come un collega che apre il tuo computer e si mette a lavorare.

Quando Google gioca al dottore e perde il camice

C’è qualcosa di profondamente ironico nel fatto che l’azienda che ha indicizzato il sapere umano stia inciampando proprio dove la precisione non è un optional ma una questione di vita o di qualità della vita. Le Panoramiche AI di Google Search, presentate come l’evoluzione naturale dello snippet in evidenza, promettono risposte rapide, ordinate, rassicuranti. Il problema è che la rassicurazione, in medicina, è spesso il primo sintomo di un errore concettuale. I giornalisti del Guardian hanno fatto ciò che qualsiasi CTO con un minimo di istinto da stress test farebbe: hanno provato a rompere il giocattolo. Non con prompt esoterici, ma con query banali, quotidiane, quelle che milioni di persone digitano quando sono spaventate, stanche o semplicemente confuse davanti a un referto.

Pagina 1 di 208

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie