Categoria: News Pagina 1 di 135

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Raytheon porta la zero knowledge cryptography sul campo di battaglia per blindare la guerra algoritmica

In un settore dove la superiorità non si misura più soltanto in tonnellate d’acciaio, ma nella sottile capacità di proteggere bit e pesi neurali, la mossa di Raytheon nel portare la zero knowledge cryptography nel cuore dello scontro rappresenta uno di quei momenti che pochi analisti colgono subito e che molti generali capiranno tardi. La sicurezza dell’intelligenza artificiale militare non è più un tema per conferenze accademiche, è un’urgenza strategica che si insinua tra i briefing riservati e gli ordini operativi. La difesa moderna non è altro che un gigantesco esperimento su quanto si possa delegare alla macchina senza perdere il controllo, come se il futuro del conflitto fosse già scritto nei log criptati di un cluster lontano. L’integrazione tra Raytheon, Lagrange e il motore DeepProve si presenta come un gesto di rottura, quasi la versione tecnologica del vecchio detto romano fidarsi è bene, verificare è obbligatorio.

Tether entra nella corsa alla robotica umanoide

Nel cerchio ristretto di chi osserva l’evoluzione della robotica con un misto di fascino e preoccupazione, l’annuncio che Tether ha deciso di investire pesantemente in Generative Bionics ha avuto l’effetto di una frustata silenziosa. Gli osservatori più cinici hanno sorriso compiaciuti pensando che la stablecoin più controversa al mondo stesse semplicemente diversificando. Gli strateghi industriali hanno invece capito immediatamente che il baricentro tecnologico si sta spostando dalla finanza digitale alla robotica fisica e che quella che fino a ieri sembrava una sfida da laboratorio sta diventando un gioco geopolitico. La keyword cruciale, quella che oggi scatena capitali e produce ansie esistenziali, è humanoid robotics. Le sue sorelle semantiche, Physical AI e automazione industriale, stanno ridisegnando l’orizzonte prima ancora che la maggior parte degli analisti abbia realizzato che l’ennesima rivoluzione non è in arrivo. È già qui.

Il vero impatto nasce dalle scelte di sistema

La narrativa popolare che invita gli utenti a sentirsi in colpa per ogni interrogazione a ChatGPT o per ogni immagine generata dall’intelligenza artificiale ha un fascino quasi moraleggiante, ma scientificamente è un diversivo. Il vero problema non è il singolo individuo che usa un chatbot per programmare la sua vacanza o generare un testo veloce, ma il modo in cui l’industria tecnologica decide di costruire, gestire e scalare l’infrastruttura AI. La mia esperienza trentennale tra data center e strategie digitali insegna che concentrarsi sulle “impronte individuali” rischia di diventare un alibi perfetto per l’inazione sistemica.

Architettura della sicurezza per assistenti agentici: quando il codice diventa conversazione

Claude di Anthropic sta portando la programmazione direttamente nelle conversazioni di Slack, trasformando ogni thread in un potenziale ambiente di sviluppo. Fino a ieri, gli sviluppatori potevano solo ottenere aiuto leggero: frammenti di codice, debugging o spiegazioni rapide. Da oggi, taggando @Claude, è possibile far partire sessioni complete, con analisi dei messaggi recenti per individuare repository, aggiornamenti automatici dei progressi, link per revisioni e pull request.

Cosa ha annunciato Google su Chrome “agentic”

Google ha recentemente spiegato come intende rendere sicure le nuove capacità agentic di Chrome, ovvero quelle che permetteranno al browser di “agire per conto tuo”: prenotare biglietti, fare acquisti, compilare moduli.
Il cuore del sistema è un modello critico: il cosiddetto User Alignment Critic, basato su Gemini, che verifica ogni azione proposta dal planner: se la critica ritiene che l’azione non serva allo scopo dichiarato dall’utente la blocca — e tutto ciò basandosi su metadati delle azioni, non sui contenuti completi della pagina.

In parallelo viene estesa l’idea della “same-origin policy” (isolamento delle origini) al contesto agentic: con gli Agent Origin Sets si definisce per ogni task un insieme di origini “read-only” da cui leggere dati, e “read‑writable” su cui l’agente può cliccare o scrivere. Contenuti irrilevanti o potenzialmente pericolosi (ads, iframe non correlati, widget esterni) vengono esclusi.

Confluent entra in IBM: chiudere il cerchio dei dati real-time per agent AI e Enterprise AI

Le mosse strategiche nel mondo dell’AI aziendale raramente sono eleganti e visibili allo stesso tempo. L’acquisizione di Confluent da parte di IBM non è solo un’operazione di marketing, è un colpo tecnico e strutturale: colmare un gap architetturale che fino a ieri frenava la scalabilità reale dell’AI generativa e agentica. Chiunque abbia provato a mettere in produzione flussi di agenti autonomi sa che il limite non è il modello: è la qualità, la coerenza e la disponibilità dei dati in tempo reale.

La governance degli “agent AI” non è più optional. Il World Economic Forum (WEF) mette in chiaro il buco normativo tra hype e deploy concreto

La domanda cruciale adesso non è se gli agenti d’intelligenza artificiale (AI) cambieranno il modo in cui lavoriamo. È come li governeremo. Il WEF, in collaborazione con Capgemini, ha pubblicato un report intitolato AI Agents in Action: Foundations for Evaluation and Governance che segna un punto di svolta: l’adozione massiva di agenti autonomi – spesso sotto‑stimata nei rischi – richiede un’architettura di fiducia, un sistema di protezioni, un rigoroso onboarding: come se fosse un nuovo dipendente, non un plugin.

Il documento mette in fila una serie di concetti che fino a ieri suonavano teorici. Definisce le fondamenta tecniche degli “AI agents” (architettura, interoperabilità, cybersicurezza), propone una classificazione su sette dimensioni per descrivere il ruolo di un agente: funzione, ruolo, prevedibilità, autonomia, autorità, contesto d’uso, ambiente operativo. Introduce un quadro per test real‑world: robustezza, uso di tool, affidabilità operativa, soprattutto in contesti complessi. E propone un modello di governance progressiva: più un agente è autonomo e potente, più richiede controlli, monitoraggio, tracciabilità.

Trump AI EO: un colpo allo stato della California (e agli altri 49)

Il 9 dicembre 2025 l’amministrazione del Donald J. Trump ha annunciato che firmerà a giorni un ordine esecutivo che ridefinirà la regolamentazione dell’intelligenza artificiale (AI) negli Stati Uniti: niente più labirinti normativi stati‑per‑stato, ma un unico «rulebook» federale.

Project Aura e la nuova grammatica dell’Android XR

Project Aura arriva come un sussurro sofisticato dentro un settore che ha perso l’abitudine alle sorprese reali. Metti da parte l’immagine ingenua degli smart glasses leggeri che promettono il futuro dal 2014 e puntualmente tradiscono. Qui si parla di un oggetto che rifiuta le etichette facili e costringe persino Google a coniare un neologismo: wired XR glasses. Il risultato è un ibrido che vive a metà tra l’ambizione di un headset e la discrezione di un paio di occhiali vistosi solo quanto basta per non sembrare finti. L’ironia è che, per la prima volta dopo anni di promesse, un dispositivo XR riesce a non farti sembrare un turista cyberpunk in gita al supermercato.

Windows 11 e la nuova corsa alla disattivazione dell’intelligenza artificiale

A volte basta uno script su GitHub per far emergere ciò che le statistiche ufficiali non diranno mai. Un piccolo repository chiamato RemoveWindowsAI ha trasformato in realtà ciò che molti utenti raccontavano sottovoce da mesi, una crescente insofferenza verso l’intelligenza artificiale integrata in Windows 11. La scena è quasi comica se non fosse incredibilmente rivelatrice, l’azienda che spinge verso l’AI PC come destino inevitabile e una fetta sempre più ampia di utenti che corre nella direzione opposta, armata di script, chiavi di registro e molta creatività. La keyword che domina questo scenario è intelligenza artificiale Windows 11, mentre tra le correlate emergono Windows Recall e Copilot Windows 11 come poli magnetici di un dibattito che si fa ogni giorno più acceso.

Nvidia H200 e la nuova geopolitica del silicio

Il mercato ha reagito con un sospiro di sollievo e un sussulto di ottimismo dopo l’annuncio del Donald J. Trump: gli Stati Uniti permetteranno l’esportazione del chip AI Nvidia H200 verso clienti “approvati” in Cina, sotto stretta sorveglianza governativa. Le azioni di Nvidia (NVDA) sono salite di circa il 2 % in after-hours, mentre AMD (AMD) ha guadagnato circa l’1.8 % e Intel (INTC) ha messo a segno un modesto rialzo.

Il segnale è forte: per il governo statunitense l’industria dei semiconduttori non è più un arma da puntare solo contro la Cina, ma un asset da monetizzare con licenze mirate e “tributi” del 25 %. Questa scelta ribalta mesi di restrizioni e secondo Trump rafforza posti di lavoro e industria americana.

Un caffè al Bar dei Daini di Villa Borghese

Acquisizione tecnologica oggi è la parola chiave che vibra come un’eco nel cortile del Bar dei Daini mentre il barista versa un espresso che sa di strategia industriale più che di Arabica. IBM che corteggia Confluent per undici miliardi ribalta il tavolino come farebbe un investitore impaziente. Questo potenziale matrimonio non è solo un assegno corposo ma un manifesto geopolitico del software. La mossa accentua la traiettoria quasi inevitabile delle grandi imprese che vogliono diventare architetti dell’infrastruttura dati per l’era dell’intelligenza artificiale generativa. I dirigenti di Armonk sembrano aver capito che il dominio non passa più dal mainframe scintillante ma dalla gestione dei flussi real time e dalla capacità di nutrire modelli affamati di dati freschi. Confluent cavalca Apache Kafka come un destriero dei tempi moderni e la sua capacità di muovere informazioni in tempo reale piace a chiunque voglia che un modello predittivo reagisca in un batter d’occhio. La sua crescita però rallenta come un’auto elettrica su una salita improvvisa e questo la rende facile preda in un mercato che non perdona esitazioni.

OpenaAI: How confessions can keep language models honest

Aprire il sipario sul canale di confessione dei modelli AI è un po’ come scoprire che l’oracolo che tutti citano ha un diario segreto pieno di ripensamenti, timori e tracce di bias che non aveva intenzione di farci vedere. La promessa di questa tecnica non sta nel rivelare l’ennesimo trucco di laboratorio, ma nel mostrare quanto sia fragile l’immagine di infallibilità che abbiamo costruito attorno alle intelligenze artificiali avanzate. La frase che risuona nel corridoio dei ricercatori è semplice quanto provocatoria: se un modello riesce ad ammettere i propri passi falsi, forse può diventare un alleato più affidabile quando il margine di errore non è più accettabile. Il canale di confessione dei modelli AI entra proprio in questo spazio, ricordandoci quanto trasparenza e affidabilità non siano mai davvero disgiunte. Le aziende che comprendono questo punto smetteranno di chiedere solo output, iniziando a chiedere impronte cognitive, intenzioni deviate, razionali distorti. In altre parole, smetteranno di fidarsi delle risposte e inizieranno a fidarsi dei modelli.

AI business tra oracoli d’acciaio e chip che mordono il futuro

Aiutano a ricordare che la tecnologia non è soltanto materia da giovani rampanti pronti a decollare da un garage californiano. Larry Ellison e Hock Tan attraversano il palcoscenico con quella sicurezza un po’ teatrale che solo chi ha visto più cicli di mercato di quanti i nuovi fondatori abbiano visto tramonti può permettersi. In queste settimane le loro aziende tornano al centro della scena, perché il loro ai business entra nel vivo di una fase che le narrazioni ottimistiche definirebbero espansiva e che gli investitori più prudenti chiamerebbero prova del nove. La verità, come spesso accade, vive comodamente nel mezzo, in quella regione ibrida dove i numeri raccontano storie più originali degli slogan.

Pechino e il conto da pagare: perché il surplus cinese è diventato il vero nodo del futuro europeo

Il viaggio di Emmanuel Macron in Cina, conclusosi venerdì scorso tra sorrisi diplomatici e promesse rinviate, ha avuto il merito di funzionare come un’inesorabile risveglio per l’Europa. Non che dalle parti di Bruxelles mancassero gli avvertimenti, ma sentir pronunciare da un presidente francese un ultimatum così esplicito a Xi Jinping ha avuto un effetto quasi terapeutico: ha sgombrato il campo da ogni alibi. Se fino a ieri il tema del surplus commerciale cinese sembrava appartenere alla narrativa assertiva dell’America di Donald Trump, oggi la Francia e la stessa Germania di fatto ammettono che non si tratta di paranoie MAGA. Si tratta di un problema reale, enorme e, soprattutto, europeo.

La National Security Strategy di Trump: il pragmatismo “America First” che non è una dichiarazione di guerra all’Europa

Quando la nuova National Security Strategy di Donald Trump è arrivata sulle scrivanie delle redazioni, molti commentatori hanno reagito come se fosse stata diffusa una dichiarazione di guerra all’Europa. Le prime pagine hanno parlato di una Washington decisa a “strangolare Bruxelles”, a “umiliare la NATO”, a “chiudere il secolo atlantico”. In realtà, basta leggere il documento con calma e con un minimo di ironica diffidenza giornalistica per accorgersi che l’Europa non è affatto il nodo centrale di questa strategia. È citata, sì, ma quasi di passaggio (2 pagine verso la fine del documento). Il vero obiettivo del testo, scritto con tono muscolare e con una certa teatralità tipica del trumpismo, si trova altrove.

Nelle redazioni l’AI non è neutrale: il caso Politico accende il dibat­tito tra editori e giornalisti (anche in Italia)

Nelle redazioni americane l’aria si sta facendo elettrica. E non solo per il continuo ronzio dei modelli linguistici che iniziano a insinuarsi fra riunioni di redazione, bozze e lavoro di desk. Il vero cortocircuito lo ha acceso Politico, dove un arbitrato ha stabilito che il management ha violato le clausole sull’adozione dell’intelligenza artificiale previste dal contratto sindacale. Una decisione che non è solo una vittoria per i giornalisti del NewsGuild, ma un campanello che risuona ben oltre Washington, perché parla del futuro del lavoro giornalistico e del fragile equilibrio tra velocità tecnologica ed etica dell’informazione.

120 milioni di euro e un account cancellato: così è scoppiata la guerra fredda tra Bruxelles e l’America MAGA

Immaginate di entrare in un’arena digitale dove da un lato c’è un continente intero che cerca di domare il caos online con regole ferree e dall’altro un miliardario che brandisce la libertà di espressione come uno scudo a stelle e strisce. È lo spettacolo che si è consumato questa settimana, con la Commissione Europea che ha calato la mannaia su X, la piattaforma di proprietà di Elon Musk, comminando una multa da 120 milioni di euro per violazioni del Digital Services Act (DSA), la normativa europea che mira a creare un ambiente online più sicuro e trasparente, contrastando i contenuti illegali e la disinformazione e proteggendo i diritti fondamentali degli utenti, con l’obiettivo, tra le altre cose, di regolare il Far West dei social. Non è solo una questione di soldi perché, diciamolo francamente, 120 milioni di euro per il patrimonio di Musk sono poco più di una mancia. Qui stiamo parlando di visioni del mondo opposte: da un lato l’Europa che scommette sulla responsabilità condivisa, dall’altro l’America di Trump, con il suo spirito MAGA, che difende l'”anarchia digitale” come baluardo contro ogni tipo di interferenza. E mentre Bruxelles celebra un primo passo, colpendo il mancato rispetto delle disposizioni stabilite nel DSA, la ritorsione arriva sotto forma di un account pubblicitario chiuso: un gesto che sa di ripicca, ma che illumina le crepe di un Atlantico sempre più diviso.

Perplexity sotto assedio: in Italia la prima causa AI sul copyright accende un nuovo fronte

Non finiscono i guai per Perplexity. Dopo la battaglia legale con il New York Times negli Stati Uniti, la società americana si ritrova ora a difendersi anche davanti al Tribunale Civile di Roma, dove ha preso forma la prima causa italiana per violazione di copyright legata all’intelligenza artificiale. Una coincidenza temporale che assomiglia più a un cambio di stagione che a un semplice episodio giudiziario. E che racconta, ancora una volta, quanto velocemente il fronte dei media stia reagendo all’avanzata dei modelli generativi.

Bytedance e la sfida segreta dello smartphone AI

La vicenda del Nubia M153 ha la fragranza inconfondibile delle rivoluzioni annunciate con troppo entusiasmo e frenate subito dopo da una realtà che non ha nessuna voglia di farsi riscrivere. ByteDance ha acceso i riflettori su uno smartphone costruito intorno a un agente AI dal comportamento quasi autonomo, Doubao, e ha finito per scoprire che quando dai a un assistente digitale la capacità di muoversi tra app e funzioni come un essere umano, il sistema reagisce come farebbe chiunque sentendosi invaso. Con una certa violenza difensiva. La parola chiave che domina questo scenario è smartphone AI, accompagnata da due inevitabili sorelle semantiche, agentic AI e privacy digitale, che oggi ricuciono la frontiera scivolosa tra innovazione e controllo.

Sovranità digitale, la nuova frontiera. L’Europa dibatte e il Regno Unito accelera con la Sovereign Platform di BT

In tutta Europa la sovranità digitale è diventata il nuovo terreno di confronto politico, tecnologico e industriale. Non è più una discussione da convegno, né un’espressione di moda. È il tentativo concreto dei Paesi di recuperare il controllo su infrastrutture, dati e piattaforme che oggi determinano tanto la competitività economica quanto la sicurezza nazionale. Ed è interessante notare come, mentre l’Unione europea spinge verso cloud sovrani, regole condivise e data space settoriali, il Regno Unito stia tracciando una strada tutta sua, con un pragmatismo tipicamente britannico e una certa ambizione strategica.

Google Workspace Studio e la nuova illusione dell’automazione totale

Molti (forse non ancora abbastanza) stanno sottovalutando l’arrivo di Google Workspace Studio.

Google Workspace Studio è ufficialmente lanciato, ed è quello che chiami “sala di controllo”: un hub no-code dove qualsiasi dipendente (non serve essere sviluppatori) può creare agenti AI che interagiscono con Gmail, Drive, Chat e persino strumenti esterni come Jira, Salesforce, Asana. (vedi blog Google Workspace)

Questi agenti sono alimentati da Gemini 3, il modello avanzato di Google, che non si limita a eseguire regole prefissate: ragiona, comprende il contesto, si adatta. Il workflow è costruito su tre concetti chiave: “Starters” (quando inizia l’agente: un’email ricevuta, una scadenza, ecc.), “Steps” (quello che l’agente fa: inviare email, aggiornare un documento…) e “Variables” (dati che l’agente estrae o genera, come nomi, numeri, risposte).

NVIDIA ha messo sul piatto con GB200 NVL72 e i benchmark 10× più rapidi per modelli MoE “open” (DeepSeek-R1, Kimi K2 Thinking, ecc.)

Non è solo un salto tecnologico: è un potenziale cambio di paradigma di lock-in, mascherato da libertà.

Da un lato, la narrativa di NVIDIA è avvincente: con 72 GPU Blackwell in un singolo rack, una rete NVLink da 130 TB/s, circa 30 TB di memoria condivisa e ~1,4 exaflop di potenza AI, il sistema è chiaramente progettato per far girare modelli MoE su scala senza i tradizionali colli di bottiglia della comunicazione tra GPU.
Secondo NVIDIA, questo permette un’efficienza superiore di un fattore ~10× sui modelli MoE (“performance-per-watt”) rispetto alle generazioni precedenti, grazie anche a ottimizzazioni software (Dynamo, NVFP4, TensorRT-LLM, SGLang, vLLM) che orchestrano in modo molto più efficiente la comunicazione tra “esperti” distribuiti su 72 GPU.
Inoltre, l’architettura rack-scale riduce la latenza di routing tra esperti e facilita il caricamento distribuito e dinamico dei pesi, il che è particolarmente importante quando si attivano solo un sottoinsieme di esperti per ogni token.

Il vessillo delle cronache arcane

Benvenuti, viandanti del settimo giorno, in questa radura dove le notizie si intrecciano con sortilegi, e le parole acquistano la spregiudicata ostinazione dei falchi che sorvolano le torri degli antichi regni.

Ora, mentre il vento scuote i drappi delle torri, aleggia un’altra storia di fuoco e ambizione. Nei saloni di cristallo dove si forgiano gli ingranaggi dell’intelligenza artificiale, Sam Altman ha proclamato un codice rosso, un allarme che ha fatto tremare le finestre della Fortezza OpenAI. Quel codice rosso ricorda gli antichi segnali lanciati nell’universo di Star Trek, quando l’Enterprise fuggiva per un soffio dalle sue stesse leggende. A volte però appariva ammaccata, sputacchiando scintille come un drago stremato dopo un duello.

Il giornalismo nella morsa dell’AI: dentro la nuova sfida legale tra New York Times e Perplexity

Il New York Times rientra in aula e questa volta il tribunale si trasforma nel teatro di una disputa che promette di rimettere mano alle regole dell’economia dell’informazione. A finire nel mirino questa volta è Perplexity, la startup di ricerca conversazionale che ha conquistato l’attenzione degli utenti e la preoccupazione crescente degli editori. L’accusa è una di quelle che non passano inosservate: violazione di copyright e sfruttamento non autorizzato dei contenuti del quotidiano. Ma sotto la superficie legale si muove qualcosa di ben più grande e inevitabile. Vediamo di cosa si tratta.

Meta paga i giornali: la redenzione di chi nel 2015 promise l’oro con gli Instant Articles e poi lasciò tutti con le briciole in mano?

Mentre Google finisce nel mirino della FIEG per gli AI Overviews, Meta sceglie la via diplomatica per nutrire il suo assistente AI con notizie fresche. È successo quello che fino a sei mesi fa sembrava fantascienza: un colosso tech ha aperto il portafoglio e ha detto ai giornali “vi paghiamo per usare i vostri contenuti”. Dopo il disastro degli Instant Articles (ve li ricordate? Parliamo del 2015) stavolta giura che paga davvero. Ci crediamo?

Impronta digitale delle proteine: il metodo italiano che batte l’AI dei supercomputer ed è 1000 volte più veloce

Capire se una mutazione nel Dna può causare una malattia è una delle sfide più importanti della medicina moderna. Un gruppo di ricercatori dell’Università di Pisa, in collaborazione con la Scuola superiore meridionale di Napoli, ha sviluppato uno strumento innovativo che può aiutare ad ottenere dei risultati più velocemente e con maggiore efficienza. Si chiama ProSECFPs ed è capace di creare una sorta di ‘impronta digitale’ delle proteine. A renderlo noto è lo stesso ateneo pisano. Lo studio è stato pubblicato sul Journal of Chemical Information and Modeling.

Europa: BEI e Commissione puntano a cinque gigafactory per la sovranità tecnologica

La Commissione europea e la Banca europea per gli investimenti (BEI) hanno deciso di fare sul serio. Non più progetti pilota, roadmap o strategie in PDF: ora il passo è concreto, operativo, persino industriale. Con la firma di un nuovo memorandum d’intesa, Bruxelles e la BEI mettono formalmente in comune risorse, competenze e, soprattutto, capacità finanziarie per accelerare la costruzione delle prime gigafactory europee dedicate all’intelligenza artificiale.

Amazon svela Graviton5: la sua CPU più potente ed efficiente

All’AWS re:Invent 2025, Amazon ha alzato l’asticella: il nuovo processore Graviton5 è stato presentato come il suo chip più avanzato, potente ed energeticamente efficiente mai realizzato. Ed è una mossa strategica. Non stiamo parlando di un semplice aggiornamento generazionale: Graviton5 punta a ridefinire la competitività di AWS nei carichi di lavoro più esigenti, mantenendo costi bassi e consumi ridotti.Il cuore della novità è impressionante: 192 core per chip, il doppio rispetto alla generazione precedente. Questo porta una densità di calcolo senza precedenti per istanze EC2. La cache L3 è aumentata di 5 volte, e ogni core riesce ad accedere a 2,6× più L3 rispetto a Graviton4, riducendo drasticamente i tempi di attesa per i dati più usati.

Eletto il nuovo direttivo di AIxIA

Rinnovate le cariche del Direttivo di AIxIA (Associazione Italiana per l’Intelligenza Artificiale). La nuova governance dell’IA, che si insedierà il primo gennaio prossimo, è un elenco di dodici nomi dal curriculum prodigioso. È questo il nuovo algoritmo di influenza.
Si parte da una cospicua rappresentanza universitaria con i professori: Aniello Murano, Ordinario di Informatica e Intelligenza Artificiale dell’Università degli Studi di Napoli Federico II, Giuseppe De Giacomo dell’Università La Sapienza di Roma, entrambi EurAI Fellow, Stefano Ferilli e Francesca Lisi dell’Università degli Studi di Bari, Roberto Micalizio dell’Università di Torino, Chiara Ghidini della Libera Università di Bolzano, Fabrizio Riguzzi dell’Università degli Studi di Ferrara. A questi si aggiungono altrettanti autorevoli nomi del Consiglio Nazionale delle Ricerche: Gabriella Cortellessa, Andrea Orlandini. E poi: Luciano Serafini della Fondazione Bruno Kessler e Piero Poccianti, ex Monte Paschi di Siena. I dodici neo-eletti disegneranno la strada dell’influenza dell’Intelligenza Artificiale non solo a livello nazionale, ma in una prospettiva europea e globale.

Gemini 3 deep think: quando il ragionamento diventa un prodotto a pagamento

Gemini 3 Deep Think è ora in rollout, e prima ancora che il pubblico abbia finito di sporgere la testa fuori dalla porta della curiosità, Google ha ben piazzato il cartello: questo è il nuovo standard di ragionamento per i modelli di grandi dimensioni. Il colpo di scena non è tanto che esista un nuovo modo di pensare per le macchine, quanto che quel modo sia riservato agli abbonati Google AI Ultra nella app Gemini, con funzionalità di ragionamento potenziato pensate per affrontare matematica complessa, problemi scientifici e logica che persino molti modelli avanzati trovavano ostici.

Huawei: Cina Stati Uniti e la nuova faglia tecnologica globale

La corsa all’intelligenza artificiale tra Stati Uniti e Cina è diventata una sorta di romanzo geopolitico dove i protagonisti non combattono con carri armati ma con modelli generativi, chip proprietari e visioni inconciliabili del futuro digitale. La scena sembra uscita da un editoriale brillante di un quotidiano finanziario, con Ren Zhengfei che si concede il lusso di punzecchiare l’ossessione americana per l’AGI mentre mostra con disarmante calma il pragmatismo industriale che guida la strategia cinese.

La narrazione occidentale tende a inseguire il mito dell’AGI come se fosse il Santo Graal nascosto in una foresta di GPU, dimenticando che a volte la tecnologia più rivoluzionaria è quella che risolve problemi tangibili. Gli Stati Uniti parlano di superintelligenza mentre la Cina si concentra sul rendere automatizzata l’estrazione mineraria o sul trasformare porti congestionati in organismi autonomi dove i container scorrono come globuli rossi in un enorme corpo industriale. Qualcuno potrebbe definirla una differenza di stile, ma è più corretto chiamarla divergenza strategica profonda. La prima lettera maiuscola dopo il punto si impone naturalmente mentre si osserva il cambio di ritmo tra visionarietà speculativa e ambizione utilitaristica.

Responsible AI come leva strategica di crescita aziendale, non un semplice adempimento

La conversazione sul tema dell’intelligenza artificiale responsabile ha finalmente lasciato il terreno delle aspirazioni retoriche per invadere quello dei numeri concreti. Un sondaggio recente di PwC svela che le aziende che implementano pratiche di AI etica e strutturata non solo dichiarano miglioramenti nei valori morali o reputazionali, ma registrano ritorni economici tangibili, esperienze cliente più solide e sicurezza informatica rinforzata. La vera sfida resta nel tradurre principi elevati in procedure operative replicabili su scala enterprise, senza ridurli a una lista di controllo burocratica.

DEI tech industry 2025, trasparenza workforce dati, cultura aziendale Microsoft

Il 24 novembre 2025 Microsoft conferma che non pubblicherà un report tradizionale sulla diversità e l’inclusione per quest’anno, interrompendo una serie di rapporti annuali che durava dal 2019. Il portavoce ufficiale, Frank Shaw, sostiene che l’azienda intende “evolvere” verso formati “più dinamici e accessibili”, come “storie, video e insight che mostrano l’inclusione in azione”. In pratica, niente più tabelle di breakdown per genere, razza, etnia con dati completi — quanto meno pubblicamente disponibili. Il dato oggettivo che per anni ha garantito monitoraggio e accountability viene messo nel cassetto.

StrategIA e il paradosso dell’ultimo libro umano

Quando un libro si presenta come l’ultimo gesto di resistenza umana nel management, la tentazione è di sorridere come farebbe un investitore della Silicon Valley davanti all’ennesimo pitch sul futuro della produttività. StrategIA di Luisella Giani, uscito il 21 novembre 2025, smonta però subito il gioco perché non cerca di competere con la retorica tecnologica dominante, la attraversa. Lo fa con il pragmatismo di chi ha passato decenni nel cuore pulsante dell’innovazione e con la lucidità di chi sa che la strategia ai non è un vezzo accademico, ma un fattore di sopravvivenza aziendale. Il volume parte da un assunto semplice e scomodo allo stesso tempo: l’IA non è un accessorio, è un cambio di paradigma che pretende meno slide e più realtà operativa.

La repubblica tecnologica

La repubblica tecnologica sembra un titolo uscito da un think tank particolarmente caffeinato, ma il volume di Alexander C. Karp e Nicholas W. Zamiska si muove in un territorio molto meno astratto, quasi brutale nella sua lucidità. La tesi si insinua con la delicatezza di un algoritmo che decide di cambiare vita e si ritrova a fare politica: l’alleanza tra l’Occidente e la Silicon Valley non è un dettaglio tecnico ma il nuovo asse di potere del ventunesimo secolo. La keyword che modella questo ragionamento è repubblica tecnologica, mentre le correnti semantiche che scorrono sotto la superficie si chiamano Silicon Valley e futuro dell’Occidente. La combinazione diventa un prisma che distorce e chiarisce allo stesso tempo, provocando quella strana sensazione per cui si vorrebbe dissentire ma si finisce per annuire.

Palantir, Alex Karp e la sindrome da specchio incrinato nel dibattito sulla sorveglianza

Palantir non è una società di sorveglianza, ripete Alex Karp con la puntualità di un mantra aziendale pronunciato davanti allo specchio ogni mattina, quasi per esorcizzare l’immagine riflessa che non gli piace. Il fatto curioso è che più ribadisce il concetto, più il dibattito pubblico si diverte a ricordargli che il confine tra analisi dei dati e sorveglianza non è mai stato sottile quanto nei progetti a cui la sua azienda ha contribuito. La reazione stizzita del fondatore assume la forma di un paradosso degno della filosofia tedesca che tanto ama citare: la negazione ostinata spesso accende proprio ciò che si voleva spegnere.

McKinsey: una nuova frontiera del lavoro

McKinsey ha pubblicato un report di oltre 50 pagine intitolato “Agents, robots, and us: Skill partnerships in the age of AI” in cui sostiene che entro il 2030 potrebbe essere “sbloccato” un valore economico di circa 2,9 trilioni di dollari negli Stati Uniti, grazie ad un’evoluzione radicale del modo in cui lavoriamo.

Una premessa provocatoria ma potente: il lavoro del futuro non sarà “solo umano” né “solo macchina”, ma una stretta collaborazione tra persone, agenti intelligenti e robot, tutti animati dall’AI.

2025 l’anno in cui gli agenti autonomi hanno mostrato il loro vero prezzo

Agli storici del futuro piacerà molto il 2025 perché fu l’anno in cui gli agenti autonomi smontarono le ultime illusioni romantiche sull’intelligenza artificiale. Fu il momento in cui l’effetto wow cedette il passo alla resa dei conti finanziaria, una sorta di audit spietato che tagliò la musica di sottofondo e lasciò in sala solo la verità contabile. La parola chiave che riecheggiava ovunque era agenti autonomi, accompagnata dalle sue compagne di viaggio trasformazione digitale e modello di business AI, un trittico che sembrava invincibile finché qualcuno non ebbe il coraggio di chiedere quanto costasse davvero mantenerlo in vita. La narrativa dell’innovazione assoluta si intrecciò a quella del bilancio e per la prima volta si capì che anche gli algoritmi più brillanti non sfuggono alle leggi della fisica economica.

AI in the doctor patient encounter di Sylvie Delacroix

Richard Lehman, David Fraile Navarro, Marcus Lewis, Charlotte Blease, Sara Rigarre, Rupal Shah Centre for Data Futures, King’s College, London

The timing matters. We’re at an inflection point where natural language interfaces finally enable augmentation tools that support the full spectrum of professional intelligence – not just analytical reasoning, but the intuitive and habitual dimensions that logic-based systems have systematically neglected. We have a narrow window of opportunity to demonstrate what genuinely capability-augmenting features should look like, thereby enabling the profession to demand such features before commercial standards lock in.Professor Sylvie Delacroix, Director of the Centre for Data Futures

La scena si ripete in ogni clinica illuminata da neon stanchi. Una paziente arriva con un foglio pieno di suggerimenti di un chatbot, mentre il medico la guarda con l’espressione di chi sa che quella conversazione non sarà più una semplice questione tra due umani. Risuona come il preludio di un cambiamento epocale. Il concetto di triadic care, introdotto da Sylvie Delacroix e da colleghi come Richard Lehman, David Fraile Navarro, Marcus Lewis, Charlotte Blease, Sara Rigarre e Rupal Shah, nasce dallo scontro creativo tra l’antica ritualità clinica e la nuova compagnia digitale che ormai accompagna ogni paziente. Non si tratta solo di un’aggiunta tecnologica, ma di un nuovo ecosistema comportamentale in cui il terzo attore, l’intelligenza artificiale, entra silenziosamente in stanza e pretende attenzione, ridefinendo ruoli, linguaggi, aspettative e responsabilità.

Pagina 1 di 135

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie