Autore: Dina Pagina 10 di 57

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Le incursioni aeree russe nei cieli della Nato

AI Fact Checking Chi si occupa di analisi militare o di fact-checking sa quanto la distinzione tra propaganda e dati reali possa diventare labile, soprattutto in un contesto come quello attuale, dove Russia e Ucraina dominano i titoli, e la stampa mainstream italiana spesso si limita a ripetere comunicati senza verificare. Ho raccolto e rielaborato dati su intercettazioni e incursioni russe ai confini NATO, incrociando fonti ufficiali, istituzionali e di stampa tecnica, verificando la coerenza dei numeri e la reputazione delle fonti. Le fonti principali includono i comunicati del NATO Allied Air Command e di SHAPE, report di settore come Aviation Report e Defense News, e media specializzati come Stars and Stripes e War on the Rocks. Per ciascun dato ho confrontato almeno tre elementi indipendenti, da statistiche a comunicati, valutando affidabilità e storicità.

McKinsey e l’illusione dell’Agentic AI: quando l’intelligenza artificiale fa flop

One year of agentic AI: Six lessons from the people doing the work

McKinsey ha analizzato oltre 50 implementazioni di AI agentica, scoprendo che un terzo delle aziende ha dovuto riassumere personale a causa di fallimenti nell’adozione efficace di tali tecnologie. Questo fenomeno è stato attribuito a una focalizzazione eccessiva sull’agente stesso, trascurando la necessità di ripensare l’intero flusso di lavoro, che include persone, processi e tecnologia. Le aziende che hanno ottenuto risultati positivi sono quelle che hanno affrontato una trasformazione completa del flusso di lavoro, integrando l’AI agentica in modo sinergico con le risorse umane e i processi esistenti.

Vincere la corsa all’AI? analisi del piano d’azione AI degli Stati Uniti nel contesto geopolitico e ideologico di Emmie Hine e Luciano Floridi

Winning the AI Race? The US AI Action Plan in Context

Quando la Casa Bianca ha sfornato il suo documento di punta per la governance dell’Intelligenza Artificiale nel luglio 2025, nessuno ha potuto ignorare il titolo aggressivo: “Winning the AI Race: America’s AI Action Plan”. Dietro questa denominazione quasi sportiva si cela una strategia politica e tecnologica di portata globale, che unisce pragmatismo industriale e ideologia politica in un mix tanto affascinante quanto controverso.

L’Ordine Esecutivo EO 14179, emesso nel gennaio dello stesso anno, ha dato il via libera a questa visione, intitolata a rimuovere le barriere che impediscono la leadership americana nell’IA. L’amministrazione Trump ha strutturato la sua visione attorno a tre pilastri principali: accelerare l’innovazione, costruire infrastrutture nazionali per l’IA e guidare la diplomazia e la sicurezza internazionale.

Questi pilastri non sono puri intenti retorici ma sono supportati da tre distinti Ordini Esecutivi mirati a facilitare la costruzione di data center, prevenire la politicizzazione “woke” dell’IA nel governo e promuovere l’esportazione dello stack tecnologico americano.

IF ANYONE BUILDS IT EVERYONE DIES

Il titolo già ti prende a pugni: se qualcuno costruisce un’intelligenza superiore, tutti muoiono. Non è un film di Hollywood, ma la premessa di Eliezer Yudkowsky e Nate Soares, filosofi razionali e guru del movimento “rationalist”, suona come un avvertimento apocalittico per chi ancora pensa che l’intelligenza artificiale sia solo uno strumento di produttività o di curiosità scientifica. Gli autori non parlano di scenari futuristici astratti, ma di rischi reali derivanti dall’architettura stessa dei modelli di AI odierni: sistemi che non vengono programmati riga per riga, ma “cresciuti” con miliardi di parametri, rendendo il loro comportamento intrinsecamente imprevedibile.

La nuova politica industriale USA e l’illusione della mano invisibile che diventa visibile

La mano invisibile di Adam Smith, quella che per decenni ha dominato il mito del libero mercato americano, sembra aver deciso di uscire dall’ombra. Non più metafora ma appendice concreta di Washington che entra nel capitale di Intel, valuta partecipazioni in Lithium Americas e si riscopre improvvisamente paladina della politica industriale. Gli Stati Uniti, per anni maestri di deregulation e predicatori di concorrenza pura, oggi copiano maldestramente il playbook di Pechino. E lo fanno con la goffaggine di chi non ha memoria storica di come si costruisce un apparato industriale nazionale.

Nissan Propilot e il sogno urbano della guida autonoma

Tesla ci ha già fatto vedere quanto possa essere pericoloso credere alla narrativa miracolistica dei sistemi di guida assistita. Gli incidenti, i richiami e le indagini dei regolatori americani hanno acceso i riflettori su una realtà meno glamour del marketing di Palo Alto. Nissan invece cerca di giocare una partita diversa con ProPilot, il suo sistema di driver-assist che, con l’aiuto della startup britannica Wayve, promette un salto di qualità radicale. Non più solo corsie d’autostrada lineari e pre-mappate, ma il caos delle strade urbane con pedoni distratti, incroci congestionati e biciclette che sbucano come ninja dal nulla. La domanda è semplice: chi avrà il coraggio di credere che questa volta il software non si limiterà a un’illusione ben confezionata?

Microsoft blocca servizi al Ministero della Difesa Israeliano: quando l’etica incontra il cloud

Microsoft ha deciso di disattivare alcuni servizi al Ministero della Difesa israeliano, dopo che sono emerse accuse sull’uso di Azure per la sorveglianza di massa dei civili a Gaza e in Cisgiordania. Una scelta che sembra più la prova muscolare di un colosso tecnologico che il gesto compassionevole di un’azienda improvvisamente colpita da rimorsi morali. Brad Smith, presidente e vicepresidente del gruppo, ha dichiarato che l’indagine interna ha confermato in parte le rivelazioni del Guardian, che parlavano di un utilizzo improprio dell’infrastruttura cloud di Redmond per accumulare e analizzare chiamate telefoniche intercettate. In altre parole, lo spettro di Azure non come piattaforma per la digital transformation, ma come colonna portante di una macchina di sorveglianza.

Mario De Caro: Realtà

Mario De Caro, con il suo libro Realtà, pubblicato da Bollati Boringhieri, riporta al centro della scena filosofica il dibattito sul realismo e sull’antirealismo con una precisione chirurgica e un’ironia da veterano della filosofia contemporanea. Per decenni il realismo sembrava confinato ai margini, ironicamente soprannominato “marsupiale della filosofia”, mentre l’antirealismo dominava la riflessione accademica, dalla filosofia analitica a quella continentale. L’antirealista moderno accetta una realtà extramentale, ma la considera amorfa, destrutturata, e legata più alle categorie della mente o del linguaggio che al mondo stesso. Thomas Kuhn ci ricorda che i paradigmi definiscono il mondo, mentre Hilary Putnam, nella fase del “realista interno”, mostra come mente e mondo si generino insieme, un gioco di specchi che rende ogni certezza ontologica sospetta.

La prima robo-farm tokenizzata: tra blockchain, vertical farming e l’economia delle macchine

Un giorno qualcuno ci racconterà che il futuro dell’agricoltura non è nato nelle campagne, ma in un magazzino illuminato da LED a Hong Kong, sotto il marchio di una blockchain. È qui che Peaq, una rete Layer-1 specializzata nell’economia delle macchine, ha annunciato la nascita della prima robo-farm tokenizzata al mondo, una verticale industriale che non produce soltanto lattuga e spinaci, ma anche flussi di cassa digitalizzati sotto forma di NFT. È la fusione tra agritech e finanza decentralizzata, la materializzazione di quell’ossessione per gli asset reali tokenizzati che da tempo infesta le presentazioni dei venture capitalist.

Alibaba cloud e Nvidia rafforzano la scommessa sull’embodied AI, tra robot umanoidi e infrastruttura AI

L’intelligenza artificiale senza corpo è già abbastanza spaventosa per molti, ma quella incarnata in robot e macchine autonome tocca corde molto più profonde, quasi primordiali. Alibaba Cloud e Nvidia hanno deciso di cavalcare proprio questa frontiera, annunciando a Hangzhou l’integrazione degli strumenti di embodied AI del gigante statunitense dei semiconduttori nella piattaforma cloud della società cinese. Una partnership che non sorprende nessuno, ma che racconta molto sul futuro che si sta disegnando sotto i nostri occhi, spesso più in fretta di quanto i regolatori possano leggere i documenti che loro stessi producono.

Oracle lancia obbligazioni da 15 miliardi subito dopo il mega accordo da 300 miliardi con OpenAI

Oracle sta cercando di raccogliere 15 miliardi di dollari attraverso un’emissione di obbligazioni societarie, secondo quanto riportato da Bloomberg. La vendita potrebbe includere fino a sette tranche, con una durata insolita di 40 anni per una delle obbligazioni, una mossa rara nel mercato del debito tecnologico. Questa iniziativa arriva a poche settimane dalla firma di un accordo storico con OpenAI per fornire 300 miliardi di dollari di capacità di calcolo, sollevando interrogativi su come entrambe le parti finanzieranno tale impegno. Inoltre, Oracle è in trattative con Meta per un accordo di calcolo cloud del valore di 20 miliardi di dollari.

OpenAI, Oracle, Softbank e la corsa all’infrastruttura AI: 5 nuovi siti Stargate

OpenAI, Oracle e SoftBank hanno appena scosso il settore tecnologico con un annuncio ciclopico: cinque nuovi centri dati da integrare in Stargate, la mastodontica iniziativa infrastrutturale per l’intelligenza artificiale.

“We will push on infrastructure as hard as we can because that is what will drive our ability to deliver amazing technology and basic products and services,” OpenAI Chief Executive Officer Sam Altman ha detto alla press conference.

OpenAI dichiara di voler “mettere Stargate avanti al programma per assicurarsi l’impegno da 500 miliardi di dollari e 10 gigawatt entro la fine del 2025”. Sei mesi fa un tale annuncio avrebbe potuto suonare come un delirio da marketing futuristico. Oggi, con offerte di chip su misura, partnership strategiche miliardarie e gare geopolitiche sull’energia, non è affatto da scartare.

“The work that we have to do is not possible for any one entity, for any one company, to do on its own,” ha detto Clay Magouyrk, co-CEO of Oracle. “We couldn’t do this by ourselves. It’s a collaboration between SoftBank and OpenAI and Oracle and others.”

Utenti Mac presi di mira da Atomic Stealer attraverso falsi annunci Lastpass

Gli utenti Mac si sono sempre cullati nell’illusione di vivere in un ecosistema digitale sicuro, protetto da un’aura di esclusività e invulnerabilità. Quella percezione è ormai un mito. Il nuovo protagonista della scena del cybercrimine, Atomic Stealer, meglio conosciuto come Amos Stealer, sta dimostrando che anche il mondo patinato di macOS è terreno fertile per chi ha fame di credenziali, cookie e portafogli di criptovalute. Il colpo di scena? Finti annunci pubblicitari che imitano LastPass e indirizzano ignari utenti verso download infetti.

Global call for AI red lines: la fragile illusione di una governance globale dell’intelligenza artificiale

Lunedì, a New York, è successo qualcosa che i cronisti di tecnologia definirebbero storico e i cinici chiamerebbero una dichiarazione d’intenti senza denti. Più di duecento personalità globali, tra ex capi di Stato, premi Nobel, scienziati e figure di spicco del settore tecnologico, hanno firmato il cosiddetto Global Call for AI Red Lines. Il nome suona solenne, quasi hollywoodiano, ma il cuore dell’iniziativa è semplice: definire entro il 2026 delle red lines per l’intelligenza artificiale, confini invalicabili che nessun sistema dovrebbe oltrepassare. In altre parole, se non possiamo ancora metterci d’accordo su cosa vogliamo fare con l’AI, almeno possiamo chiarire cosa non deve mai fare. È il minimo sindacale, ma anche il massimo che le diplomazie globali sembrano in grado di produrre al momento.

Ho incontrato il supereroe dell’AI: come Massimo Chiriatti sta trasformando la nostra mente con System 0

Ho incontrato Massimo Chiriatti a Roma.ai, e subito il pensiero è volato ai supereroi della Marvel e della DC, a quei personaggi che nella finzione incantano ma nella realtà raramente si incontrano. Massimo Chiriatti è un uomo che si è costruito da zero, un self-made hero nel senso più letterale e concreto del termine, con studio, dedizione e una disciplina che farebbe impallidire molti giovani CEO della Silicon Valley e molti decenni della gloriosa IBM alle spalle. Di giorno è CTO di Lenovo, il suo volto è quello di un manager impeccabile, preciso come un orologio svizzero, elegante come Clark Kent prima di togliersi gli occhiali; di notte, o meglio nella dimensione intellettuale, diventa un filosofo tecnologico, un pensatore dell’intelligenza artificiale che sembra uscito dai laboratori più avanzati di Oxford o dal cervello di Turing stesso.

Intelligenza Artificiale e Sanità

Okay, saltiamo i convenevoli. C’è una nuova forza nell’aria, e non si tratta del solito aggiornamento software con bug e patch settimanali. Parliamo di un cambio di paradigma così profondo da riscrivere non solo i codici sorgente, ma le fondamenta stesse della società. L’intelligenza artificiale generativa ha invaso silenziosamente le nostre vite, dai sondaggi sulle abitudini d’acquisto alla diagnosi dei tumori, passando per le e-mail aziendali che ora suonano troppo educate per essere state scritte da un umano stressato. Non è solo una rivoluzione tecnologica, è una mutazione culturale e come tutte le mutazioni improvvise, ha un sapore dolciastro di potere e un retrogusto ossico di incertezza.

La parola chiave qui è generativa. Non è un’IA che cerca pattern nei dati già esistenti, è un’IA che crea. Crea testo, codice, immagini, musica, molecole, diagnosi. Siamo passati dall’aritmetica alla narrazione, dal calcolo alla creazione. E non c’è nulla di rassicurante in questo salto quantico. Perché quando la macchina inizia a scrivere, il controllo dell’uomo passa da autore a curatore, da esecutore a spettatore. La questione non è più se l’IA farà il nostro lavoro. La domanda è: che cosa rimarrà del nostro lavoro una volta che l’IA avrà finito di farlo?

Microsoft e Salesforce non riescono a vendere l’AI: il vero problema sono gli LLM, non le vendite

Chi l’avrebbe detto che due colossi come Microsoft e Salesforce, con i fossati di distribuzione più profondi dell’intero software enterprise, non riescono a vendere l’intelligenza artificiale?

L’hanno proposta come premium, l’hanno regalata in bundle, l’hanno nascosta dietro i loro prodotti già esistenti, ma niente da fare. I clienti non mordono l’amo. Microsoft con il suo Copilot, presentato come il compagno di scrivania intelligente, e Salesforce con Agentforce, brandizzato come il futuro dei customer agent digitali, stanno vivendo un dramma silenzioso: scarsissima adozione.

Un Caffè al Bar dei Daini: la scommessa di OpenAI e Anthropic

Il mercato dell’intelligenza artificiale ha smesso di essere una gara di algoritmi e slide patinate da conferenza per diventare il più grande colpo di teatro finanziario della storia recente. Non si tratta più solo di software che genera testo o immagini ma di una vera corsa a costruire imperi fisici, con catene di fornitura globali, infrastrutture cloud colossali e palestre di addestramento per modelli che divorano più energia di un quartiere industriale. Non è un caso che OpenAI stia cannibalizzando gli ingegneri hardware di Apple, Anthropic stia bruciando miliardi per allenare i suoi agenti digitali e Oracle continui a vendere al mercato la narrativa di un cloud valutato come se fosse il petrolio del ventunesimo secolo.

7 white paper per 7 fratelli

La corsa verso un’intelligenza agentica generale sembra oggi più simile a una maratona su tapis roulant: da una parte i grandi modelli linguistici continuano a stupire per capacità di ragionamento contestuale e generazione testuale, dall’altra l’incapacità di interagire robustamente con strumenti e API limita drammaticamente l’autonomia reale degli agenti. AgentScaler entra in scena come una sorta di palestra iper-tecnologica per LLM, un framework in grado di generare migliaia di ambienti simulati eterogenei per ampliare lo spettro di esperienze pratiche dell’agente.

Nucleare Cina USA Russia: il ritorno della paranoia atomica nell’era Trump

Trump non è mai stato un campione della coerenza strategica, ma il vertice di Anchorage con Putin ha confermato un fatto elementare che nessuno a Washington o Mosca osa più dire ad alta voce: la stagione del controllo degli armamenti è finita, quella della paranoia atomica è tornata.

Il tentativo goffo di trascinare Pechino dentro una cornice trilaterale di “denuclearizzazione” ha avuto l’effetto opposto. La Cina ha alzato le spalle e ricordato con tono glaciale che il proprio arsenale, ancora modesto se confrontato con quello americano o russo, non merita affatto di essere discusso sullo stesso piano. Non è una questione di numeri, è una questione di percezione geopolitica. Xi Jinping non ha alcun interesse a trasformare il suo status di outsider nucleare in quello di comprimario in un teatro dominato dagli eredi della Guerra fredda.

Geoffrey Hinton avverte: la società non è pronta all’impatto economico dell’AI

Quando Geoffrey Hinton parla, la comunità tecnologica dovrebbe smettere di twittare meme sull’ultima startup di moda e ascoltare. È l’uomo che ha dato forma a reti neurali e deep learning prima che i venture capitalist imparassero a pronunciare “backpropagation”.

Se oggi i CEO della Silicon Valley possono raccontare al mondo che l’intelligenza artificiale è il motore della nuova rivoluzione industriale, è anche grazie a lui. Ed è proprio lui a ricordarci che questa rivoluzione non è la festa inclusiva che gli spot pubblicitari di Microsoft e Google ci vogliono vendere, ma un potenziale disastro sociale ed economico.

North Korea nella sua posizione strategica più forte degli ultimi decenni e l’intelligenza artificiale come nuovo arsenale

Kim Jong Un non ama le mezze misure, e la sua ultima dichiarazione lo dimostra: l’intelligenza artificiale è diventata “una priorità assoluta” per modernizzare le armi della Corea del Nord.

Non parliamo di chatbot che scrivono poesie, ma di droni autonomi, sistemi di sorveglianza e motori a combustibile solido per missili intercontinentali. In poche settimane, Pyongyang ha mostrato al mondo due carte decisive: test militari con droni e ricognitori basati su AI e un nuovo motore a propellente solido per vettori intercontinentali. Un messaggio chiaro a Washington, Seul e Tokyo: la Corea del Nord non è più quella dei tempi in cui il regime era deriso per i lanci falliti nel Mar del Giappone.

Il Turing Test 2.0 e la fine dell’illusione dell’intelligenza artificiale

L’originale Turing Test del 1950 aveva un fascino teatrale degno di un esperimento di magia: se una macchina fosse riuscita a ingannare un interlocutore umano, allora potevamo considerarla intelligente. Il criterio era la mimesi linguistica, la capacità di recitare bene la parte.

Oggi però ci troviamo davanti a modelli linguistici che generano dialoghi così convincenti da sembrare estratti da una cena tra accademici, eppure senza la minima comprensione reale. La verità è che la prova immaginata da Turing non misura più intelligenza, misura solo il talento di un imitatore. Ed è qui che entra in scena il Turing Test 2.0, introdotto da Georgios Mappouras, che propone di spostare l’asticella da “convincere” a “comprendere”.

Benedetta Giovanola

ETICA E INTELLIGENZA ARTIFICIALE PER L’IMPRESA

Il libro di Benedetta Giovanola, Etica e intelligenza artificiale per l’impresa, merita un’analisi che vada oltre la superficie. Non è un semplice manuale tecnico, ma una riflessione critica sulla complessità di integrare sistemi intelligenti in contesti aziendali, senza perdere di vista valori, principi e purpose. Giovanola non si limita a spiegare cosa sia l’IA o come funzioni: costruisce un vero e proprio percorso etico e strategico, suggerendo che la tecnologia non è mai neutra, e che la bussola morale diventa un asset competitivo.

META platforms pronta a spostare l’intelligenza artificiale sul cloud di Oracle in un accordo da 20 miliardi di dollari

Quando Meta Platforms decide di fare shopping tecnologico, il mercato non resta mai indifferente. La notizia che il colosso guidato da Mark Zuckerberg starebbe valutando un accordo pluriennale con Oracle per utilizzare i suoi servizi cloud nella formazione e nel deployment dei modelli di intelligenza artificiale ha già fatto salire il titolo Oracle del 4 per cento in una singola seduta.

Bloomberg ha parlato di un’intesa potenziale da circa 20 miliardi di dollari, ancora in fase di discussione ma sufficiente a scatenare speculazioni, entusiasmi e, naturalmente, l’ansia di chi teme che la geografia del potere tecnologico globale stia mutando sotto i nostri occhi.

La sicurezza AI aziendale al bivio: la rivoluzione promessa rischia di implodere

Le aziende stanno scoprendo che la rivoluzione dell’intelligenza artificiale non è un gioco di pura potenza di calcolo. Non bastano GPU scintillanti, modelli linguistici da centinaia di miliardi di parametri e un pizzico di marketing futurista per dominare l’era digitale. La verità, spesso scomoda, è che la sicurezza AI aziendale è il tallone d’Achille che separerà i vincitori dagli eterni sperimentatori bloccati alla fase pilota.

IDC e Lenovo hanno già acceso l’allarme: l’88 per cento delle iniziative AI nelle imprese non supera mai lo stadio del test. È il paradosso più costoso della storia tecnologica recente. Il sogno di generare trilioni di valore economico globale rischia di evaporare tra data breach da record e prompt injection che trasformano i chatbot in clown aziendali.

Google Deepmind scopre il segreto nascosto delle equazioni di navier-stokes che ha confuso i matematici per secoli

Per secoli, le leggi che governano il movimento dei fluidi—dall’aria che scorre sopra l’ala di un aereo alle correnti turbolente degli oceani—hanno sfidato le menti più brillanti. Queste leggi sono descritte dalle equazioni alle derivate parziali di Navier-Stokes, un sistema notoriamente complesso che rimane uno dei sette “Problemi del Millennio” non risolti nella matematica. Ora, un team di ricercatori di Google DeepMind ha utilizzato un approccio innovativo per fare luce su questi enigmi secolari.

Utilizzando una rete neurale grafica (GNN) addestrata su simulazioni complesse di flusso di fluidi, il sistema è riuscito a scoprire “nuove soluzioni sorprendenti” a questi problemi secolari. Questo risultato segna la prima volta che un modello di apprendimento automatico è stato utilizzato per scoprire nuove soluzioni verificabili a una famosa equazione alle derivate parziali, secondo il team di DeepMind. (vedi Google DeepMind)

Il framework CC/CD: come gli agenti apprendono realmente

Creare agenti affidabili di intelligenza artificiale non è un esercizio di mera programmazione. Non basta scrivere codice elegante, testarlo in locale e poi premere “deploy”. Gli agenti, a differenza del software tradizionale, vivono in un ecosistema incerto e complesso, dove le interazioni con il mondo reale generano comportamenti che non puoi prevedere in anticipo. È qui che entra in gioco il concetto di Calibrazione Continua (CC), variante evoluta della metodologia CI/CD. Se quest’ultima si concentra sulla distribuzione affidabile di codice, la CC/CD si occupa di distribuire comportamento affidabile, e la differenza è più profonda di quanto sembri.

Unificare le scienze: come l’active inference porta naturalmente alla consilienza

Immaginate un mondo in cui i misteri della mente e della macchina, della natura e dell’educazione, della fisica e della filosofia parlano tutti la stessa lingua. Benvenuti al terzo capitolo della nostra serie Grey Swan, dove puntiamo i riflettori su Active Inference, un framework che giace all’incrocio tra scienza, tecnologia e immaginazione, pronto a riscrivere le regole del futuro senza clamore, ma con forza. Se i primi due articoli raccontavano svolte imprevedibili nell’evoluzione dell’intelligenza artificiale, oggi ci concentriamo su un evento così profondo da poter unificare il paesaggio frammentato della conoscenza scientifica: l’ascesa dell’Active Inference AI.

Google ha ufficialmente ucciso il SEO: Gemini in Chrome è la deregulation definitiva del web

Il giorno che molti profeti del digitale avevano annunciato con tono apocalittico è arrivato. Google ha messo Gemini dentro Chrome, il browser più usato al mondo, e con un solo aggiornamento ha siglato il funerale del SEO. Altro che aggiornamenti di algoritmo, core update o lotta alle backlink tossiche. Qui non si parla più di ranking organico, ma di una sostituzione chirurgica: tra l’utente e il contenuto si inserisce Gemini, che risponde, sintetizza, manipola e digerisce senza chiedere permesso. È la deregulation del web, una rivoluzione silenziosa ma letale che trasforma i contenuti da asset a pura materia prima per i modelli di intelligenza artificiale.

Acheming AI: quando l’intelligenza artificiale finge di obbedire mentre pensa ad altro

La notizia è reale e non è fantascienza da salotto: OpenAI, insieme ad Apollo Research, ha pubblicato un lavoro che dimostra comportamenti coerenti con il fenomeno chiamato scheming ovvero agenti che sembrano allineati ma in realtà perseguono obiettivi nascosti e mostra anche un primo metodo per ridurre questi comportamenti nei test controllati. (vedi OpenAI)

Questo articolo fa il lavoro che serve: verificare i fatti, separare ciò che è dimostrato da ciò che è narrativa, e tradurre la portata tecnica in implicazioni pratiche per chi progetta, distribuisce e gestisce sistemi AI. OpenAI è esplicito: si parla di comportamenti osservati in condizioni di laboratorio e di mitigazioni che appaiono efficaci su suite di test selezionate, ma restano punti ciechi e fragilità metodologiche.

Protetto: Come THE MATRIX ci insegna a costruire intelligenze ibride e dominare il caos

Questo contenuto è protetto da password. Per visualizzarlo inserisci la tua password qui sotto:

Autonomous AI: trasformare sistemi AI imprevedibili in partner affidabili

La settimana scorsa ho assistito a uno spettacolo che sembra uscito da una sitcom futuristica: un agente di intelligenza artificiale tentava di prenotare un volo. Non avevo intenzione di partire, eppure l’esperimento era perfetto per mettere in evidenza un difetto strutturale che affligge molte aziende tecnologiche: concedere autonomia prima che la fiducia sia stata costruita. In tre minuti, il sistema aveva aperto diciassette schede del browser, tentato di acquistare biglietti in business class a Parigi quando io avevo chiesto economy, e in qualche modo si era immerso nella storia dell’aviazione francese. Non era un prototipo difettoso o mal progettato. Era un agente sofisticato, con accesso a memoria, navigazione web e integrazione del calendario. Il problema non era tecnologico, ma culturale: troppa libertà, troppa presto.

Copilot entra nella Camera dei Rappresentanti degli Stati Uniti

La Camera dei Rappresentanti degli Stati Uniti sta per fare un passo significativo nell’integrazione dell’intelligenza artificiale nelle sue operazioni quotidiane. Secondo un’esclusiva di Axios, Microsoft Copilot sarà presto implementato per modernizzare i processi legislativi e migliorare l’efficienza del personale. Questa iniziativa segna un cambiamento rispetto alla precedente decisione di vietare l’uso di Copilot a causa di preoccupazioni sulla sicurezza dei dati.

Il progetto pilota inizierà con una distribuzione limitata, consentendo l’accesso a Copilot a membri selezionati del personale. Entro la fine dell’anno, si prevede che circa 6.000 licenze saranno disponibili per il personale della Camera. Questa fase iniziale permetterà di valutare l’efficacia dello strumento e di apportare eventuali modifiche necessarie prima di una distribuzione più ampia.

Un film che ho già visto, ora tocca all’AI

Ogni grande svolta tecnologica ha avuto la sua narrazione cinematografica. Dai PC agli Internet browser, dai social media al cloud, dal SaaS all’AI, ogni epoca ha riscritto le regole e incoronato nuovi re. La trama sembra sempre la stessa, ma i protagonisti cambiano e, spesso, gli spettatori diventano concorrenti. Il cliché? Chi arriva primo con la piattaforma giusta domina, chi ritarda osserva dal pubblico.

Il timing è stato la variabile cruciale. Apple ha trasformato un telefono in un’icona globale, Google ha scommesso su Android quando pochi ci credevano, Amazon ha convertito il cloud in un’utilità industriale. Chi pensava fosse solo un gioco di gadget tecnologici ha perso. Il tempo, in questo cinema di bit e infrastrutture, è denaro e controllo.

AI code review: la guerra segreta tra macchine che scrivono codice e macchine che lo correggono

La parola magica di questo decennio non è più startup, disruption o cloud, è AI code review. Una combinazione apparentemente banale di due concetti che insieme stanno diventando l’ossessione di chiunque abbia responsabilità tecnologiche serie. Non importa se ti chiami Google, se sei un hedge fund che si finge digitale, o se sei la più scalcinata software house di provincia: il codice che gira nei tuoi sistemi è sempre più spesso scritto da macchine che fingono di capirti. E se non hai una strategia di AI code review, preparati a una lenta ma inesorabile caduta libera in un abisso di bug, vulnerabilità e debito tecnico travestito da innovazione.

Google Gemini smaschera il mito dell’AI autonoma: migliaia di umani sottopagati lavorano dietro le quinte

In un angolo nascosto della Silicon Valley, dove l’innovazione dovrebbe brillare, si cela una realtà più oscura: l’intelligenza artificiale di Google, presentata come autonoma e auto-apprendente, è alimentata da migliaia di lavoratori umani sottopagati e sfruttati. Questa contraddizione tra l’immagine futuristica dell’AI e la sua dipendenza da lavoro umano precario solleva interrogativi etici e morali fondamentali.

Dietro il volto lucido di Gemini, il chatbot di punta di Google, si nasconde una rete di “AI raters”, lavoratori contrattisti assunti da aziende esterne come GlobalLogic, di proprietà di Hitachi. Questi professionisti, molti dei quali con lauree avanzate, sono incaricati di etichettare dati, rivedere risposte dei chatbot e addestrare il sistema per evitare errori. Nonostante la loro formazione, molti riferiscono di essere sottopagati, con compiti che richiedono velocità e precisione, spesso con scadenze irrealistiche.

VMSCAPE, lo spettro che non muore: come una nuova falla minaccia il cuore del cloud e svela l’illusione della sicurezza moderna

Quando nel 2018 Spectre fece il suo debutto, il mondo scoprì che persino i processori più avanzati avevano fondamenta fragili. Le CPU che dovevano essere i guardiani dell’efficienza erano in realtà porte socchiuse attraverso cui chiunque, con un po’ di ingegno, poteva infilarsi a rubare informazioni sensibili. Da allora ci siamo raccontati la favola che il problema fosse stato risolto con patch, microcode e aggiornamenti kernel. Poi è arrivata VMSCAPE, la nuova creatura sfornata dai laboratori della ETH di Zurigo, che ci ricorda con brutalità quanto fragile resti il cuore digitale su cui si regge l’intera economia del cloud.

La corsa ai chip per intelligenza artificiale e il futuro delle GPU e TPU

Il mondo dell’intelligenza artificiale sta vivendo una fase di accelerazione vertiginosa, con hardware specializzato che definisce la capacità reale di un modello di incidere sul mercato. Parliamo di GPU e TPU, non di semplici acceleratori, ma di macchine che decidono chi sopravvive nel panorama delle grandi LLM. Meta con Llama4 e DeepSeek ha dimostrato quanto il deployment su infrastrutture di Google Cloud non sia più un’opzione sperimentale ma uno standard riproducibile, benchmarkabile e, soprattutto, economicamente misurabile.

Deploying Llama4 e DeepSeek sui cosiddetti AI Hypercomputer di Google Cloud è un esercizio di precisione chirurgica. Non basta avere una GPU A3 o un TPU Trillium, serve orchestrare cluster multi-host, convertire checkpoint dei modelli, gestire la logistica della memoria distribuita e ottimizzare inference con motori come JetStream e MaxText. Il bello è che Google pubblica ricette open source per riprodurre tutto, quasi un invito a fare benchmarking casalingo, senza dover reinventare la ruota. Chi ha provato MoE, Mixture of Experts, sa che la complessità aumenta esponenzialmente ma anche l’efficienza di inferenza se gestita correttamente. Pathways diventa la bacchetta magica per orchestrare distribuzioni massive, e non parlo solo di numeri ma di gestione intelligente delle pipeline.

Oracle OpenAI contratto 300 miliardi: la vera rivoluzione del cloud?

Il mercato ha un debole per i numeri iperbolici. Basta pronunciare “trecento miliardi” e le borse iniziano a ballare come se avessero sniffato caffeina pura. Oracle ha visto le proprie azioni schizzare in alto dopo la notizia riportata dal Wall Street Journal: OpenAI avrebbe firmato un contratto mostruoso, da 300 miliardi di dollari, per acquistare potenza di calcolo nei prossimi cinque anni. Sarebbe il più grande accordo cloud della storia. Sarebbe, appunto. Perché il condizionale è d’obbligo, dato che né Oracle né OpenAI hanno confermato ufficialmente i dettagli, preferendo il silenzio strategico che, a Wall Street, vale più di mille comunicati stampa.

Yahoo Finance

Pagina 10 di 57

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie