Il rapporto pubblicato da Anthropic creatore della serie di modelli Claude — rappresenta quello che l’azienda descrive come “la prima campagna su larga scala di cyber attacco orchestrato quasi interamente da agenti d’intelligenza artificiale”. (vedi Anthropic) Di seguito una lettura critico-tecnica dell’accaduto, delle implicazioni strategiche, e di cosa questa vicenda suggerisce per chi guida infrastrutture digitali aziendali.
Categoria: Sicurezza Pagina 1 di 6
Cybersecurity, Data Protection, Difesa, Aerospazio, Settori Strategici e Analisi Predittiva
L’episodio accaduto al Musée du Louvre il 19 ottobre 2025 sarebbe da manuale: ladruncoli vestiti da operai, scala meccanica, moto-scooter, vetrine spaccate, gioielli reali francesi per un valore stimato in 88 milioni di euro (oltre 102 milioni di dollari). Il fatto che ciò avvenga in pieno giorno, durante l’orario di apertura, all’interno della galleria più visitata al mondo, è già di per sé un richiamo al panico: se cade il Louvre, cade il castello delle certezze sulla sicurezza museale.
Un incidente informatico senza precedenti ha squarciato il velo sull’infrastruttura digitale che sostiene le operazioni di spionaggio di Pechino. Un archivio di oltre 12.000 documenti riservati, sottratti all’azienda di cybersicurezza Knownsec e pubblicati brevemente su GitHub, ha permesso agli analisti di osservare dall’interno come si costruisce e si gestisce un arsenale hacker di Stato. La fuga di informazioni, definita da molti la più grave nella storia del cyber warfare tra nazioni, non è solo una breccia tecnica ma un terremoto geopolitico.
Advances in Threat Actor Usage of AI Tools
La sensazione non è solo di disorientamento, è di ribaltamento. Malware che chiede aiuto all’intelligenza artificiale mentre è in esecuzione non è fantascienza: è la realtà che Google ha descritto come una svolta operativa. Il concetto è semplice nella sua pericolosità. Un eseguibile non porta più tutto il proprio cervello dentro la scatola, ma telefona a un modello esterno per farsi scrivere o riscrivere parti del codice, produrre funzioni su richiesta e mascherare i propri segnali di identificazione. Il risultato è un avversario che muta in tempo reale, capace di aggirare difese progettate per regole statiche.
Avete presente quel tutorial su YouTube che promette “software gratis”, “crack” o “hack del gioco”? Bene: pensateci due volte prima di cliccare. Perché dietro quell’apparenza innocente si nasconde una vera e propria macchina infernale di cyber-minacce, che i ricercatori di Check Point Research hanno battezzato YouTube Ghost Network. Dal 2021 almeno, con un’impennata nel 2025, migliaia di video più di 3.000 hanno abbandonato la facciata di “tutorial” per diventare vettori di malware che rubano password, dati e identità digitali.
La rivoluzione degli agenti di intelligenza artificiale ha un volto affascinante e uno oscuro. Mentre le imprese si affrettano a integrare queste entità digitali autonome nei processi quotidiani, si apre una falla pericolosa nella sicurezza aziendale. L’avvertimento di Nikesh Arora, CEO di Palo Alto Networks, suona più come una sirena d’allarme che come una previsione. Gli agenti di AI non sono più strumenti, ma attori. Operano dentro le infrastrutture aziendali con accessi, privilegi e capacità decisionali che fino a ieri erano esclusivamente umane. E il sistema di sicurezza tradizionale, costruito attorno all’identità delle persone, si trova improvvisamente nudo.
Nel sottobosco digitale che chiamiamo “sicurezza informatica” è esplosa una bomba: due professionisti U.S. di cybersecurity — Kevin Tyler Martin (DigitalMint) e Ryan Clifford Goldberg (Sygnia) — sono stati incriminati per aver messo in piedi una campagna ransomware contro almeno cinque aziende, sfruttando le loro stesse credenziali di “guardiani”. Il dossier federale descrive un’operazione che potrebbe ridefinire il concetto di insider threat nella comunità della difesa attack-response.
Nell’universo della cybersecurity la proliferazione di acronimi sembra ormai una strategia deliberata per confondere chiunque osi avvicinarsi al tema. Eppure dietro la giungla linguistica di EDR, MDR e XDR si nasconde la vera spina dorsale della difesa digitale moderna. L’equivoco nasce dal fatto che questi strumenti sembrano sovrapporsi, mentre in realtà definiscono livelli distinti di maturità nella risposta alle minacce. Capire dove finisca l’uno e inizi l’altro non è un esercizio semantico, ma un passo cruciale per chi vuole costruire una sicurezza informatica davvero intelligente e non semplicemente reattiva.
Peter Williams, trentanove anni, australiano, ex dirigente di L3Harris Trenchant, ha ammesso di aver venduto strumenti cyber sensibili sviluppati negli Stati Uniti a un broker russo. La notizia non è solo un episodio criminale isolato: rivela quanto siano fragili le barriere tra sicurezza nazionale, insider threat e mercato nero internazionale del software per hacking. Il fatto che un ex manager, pagato per proteggere infrastrutture digitali critiche, possa trasformarsi in una fonte diretta di cyberarmi, fa riflettere sul fallimento delle strategie di sicurezza più avanzate.
OpenAI ha annunciato il 30 ottobre 2025 Aardvark, un agente “agenteccentrico” autonomo progettato per pensare come un ricercatore di sicurezza e operare su basi di codice in tempo reale. (blog OpenAI) È una tecnologia che spinge l’idea “AI come co-pilota della sicurezza” verso nuovi confini.
Aardvark lavora analizzando repository software, valutando rischi, convalidando exploit in sandbox isolate e suggerendo patch generate con l’ausilio di Codex, il tutto corredato da spiegazioni step by step e contesto interpretativo. Non usa esclusivamente tecniche classiche come fuzzing o analisi statica, ma applica ragionamento generativo e uso di tool intelligenti.
È in fase di private beta e OpenAI invita organizzazioni e progetti open source a candidarsi. Evocano già alcuni numeri incoraggianti: su repository “golden”, Aardvark ha individuato il 92 % delle vulnerabilità note o sintetiche nei test interni.
Un gruppo di ricercatori accademici (fra cui Georgia Tech, Purdue University e Synkhronix) ha sviluppato un attacco fisico‐side-channel chiamato TEE fail, che consente di estrarre segreti da enclave di CPU/GPU moderne usando moduli DDR5. In pratica l’attaccante inserisce un’interposizione (interposer) tra il modulo di memoria DDR5 e la scheda madre hardware di costo inferiore ai 1000 USD. Attraverso questa “spia” del bus memoria, l’attaccante osserva traffico cifrato, sfrutta il fatto che la cifratura della memoria (AES-XTS deterministico) è prevedibile (stesso plaintext → stesso ciphertext) e ricostruisce chiavi crittografiche, falsifica attestazioni, impersona enclave.
È importante sottolineare che l’attacco è stato dimostrato su enclave server grade (DDR5) e non sui semplici personal computer: target ad alto valore.
Il contesto è semplice, ma potente: stiamo parlando del momento in cui i browser “normali” (quelli in cui navighiamo come utenti) si trasformano in agenti attivi, dotati di intelligenza, capaci non solo di ricevere comandi ma di agire al nostro posto. È il paradigma dell’“agentic browsing”: chiedi, ad esempio, “riassumi questa pagina” o “compra quel biglietto”, e l’AI browser apre tab, estrae dati, compila form, interagisce con il web come se fosse te. Fino a qui, futuribile ma allettante. Il problema è che la sicurezza (quelle garanzie consolidate per la navigazione web) non è stata ripensata in modo adeguato.
La sorveglianza digitale non è più fantascienza. ICE, l’agenzia americana per l’immigrazione, ha deciso di portarla a un livello industriale, pagando milioni di dollari a una piattaforma di intelligenza artificiale chiamata Zignal Labs per monitorare social network, immagini, video e perfino simboli nei post pubblici. Quella che una volta era l’informazione libera e condivisa è ora trasformata in dati di profilazione, algoritmicamente analizzati per tracciare individui, geolocalizzare movimenti e, in alcuni casi, preparare dossier per deportazioni.
C’è un nuovo campo di battaglia nel mondo dell’intelligenza artificiale e, come sempre, la guerra inizia da una promessa: un web più intelligente, efficiente e umano. I nuovi browser AI come ChatGPT Atlas di OpenAI e Comet di Perplexity si presentano come la prossima rivoluzione nell’accesso a Internet. Non si limitano a cercare, ma agiscono. Navigano per noi, compilano moduli, leggono email, prenotano voli e forse un giorno sapranno anche chiedere scusa quando faranno un disastro. È l’evoluzione naturale del browser, dicono. Ma come ogni salto evolutivo, qualcosa va perso per strada, e questa volta il prezzo sembra essere la privacy.
L’intelligenza artificiale sta rapidamente diventando un fattore determinante nell’evoluzione del panorama delle minacce informatiche, con un incremento del 47% degli attacchi basati su tecniche di intelligenza artificiale rispetto all’anno precedente ed entro la fine del 2025, gli incidenti cyber guidati da IA possano superare i 28 milioni a livello globale. È quanto emerge dal nuovo report AI Threat Landscape 2025, realizzato dal Cybersecurity Competence Center di Maticmind, appena presentato alla Camera dei Deputati.
Il dibattito sulla sicurezza dell’intelligenza artificiale non è più confinato a laboratori accademici o a discussioni di nicchia tra sviluppatori. L’argomento del jailbreak degli LLM ha aperto una finestra preoccupante sulla fragilità dei sistemi di controllo attuali, mettendo in luce che la promessa di un’intelligenza artificiale “allineata” ai valori umani è ancora molto lontana. La narrativa dominante, che dipinge i modelli come innocui finché vincolati da prompt guards, si sgretola davanti alle tecniche di Controlled-Release Prompting, che riescono a bypassare le restrizioni con una facilità quasi teatrale. La domanda non è più se, ma quanto rapidamente queste vulnerabilità verranno sfruttate in contesti reali.
La notizia suona come una barzelletta da corridoio per ingegneri: basta infilare duecentocinquanta documenti avvelenati nel flusso di pretraining e il modello smette di comportarsi come un assistente utile e comincia a vomitare risposte inutili o addirittura dannose.
Questa non è iperbole, è il risultato principale di un lavoro sperimentale pubblicato da Anthropic che dimostra la sorprendente efficacia di attacchi di data poisoning su modelli che vanno da 600 milioni a 13 miliardi di parametri.
Ogni Strategist di AI conosce quel momento sospeso in cui la voce del cliente si fa sottile e chiede “Quindi… avete SOC 2?”. È il secondo più lungo del meeting. Quel respiro trattenuto, quel sorriso forzato, quella risposta evasiva che non convince nessuno. Nel 2025 la sicurezza non è più una checklist per compiacere gli auditor, ma una valuta che decide chi cresce e chi resta al palo. La fiducia digitale è diventata il capitale più scarso del mercato AI, e i buyer hanno smesso di concederla sulla base di promesse.

Eric Schmidt, ex CEO di Google, ha lanciato un avvertimento che suona come un campanello d’allarme per chiunque creda ancora che l’intelligenza artificiale sia un giocattolo sofisticato ma inoffensivo. Durante un recente evento, ha dichiarato che i modelli di AI, siano essi aperti o chiusi, possono essere hackerati e manipolati per compiere azioni dannose. Non stiamo parlando di errori di codice o di bias etici, ma di qualcosa di molto più concreto: la possibilità che un modello addestrato per rispondere cortesemente alle nostre domande possa, se privato dei suoi limiti di sicurezza, imparare come uccidere una persona.
BLUE SCREEN OF DEATH
In un mondo dove quasi ogni attività si svolge online, la sicurezza digitale è sempre più importante. Con una manciata di caratteri password e username possiamo accedere ai conti bancari, acquistare qualsiasi cosa e iscriverci a piattaforme che controllano la nostra vita e quella dei nostri cari, custodendo anche i nostri dati personali, dall’indirizzo di residenza al nostro stato di salute. Tutti questi dati costituiscono un vero e proprio tesoro per i malintenzionati. Come possiamo proteggerci dai criminali informatici, dal phishing e da tutte le altre truffe digitali? In questa guida scopriremo come difenderci dagli attacchi cibernetici utilizzando strumenti pratici e imparando a riconoscere i segnali di pericolo.
Il nuovo rapporto del governo statunitense ha alzato il sipario su una realtà che tutti sussurravano nei corridoi della Silicon Valley ma pochi avevano messo nero su bianco: i modelli AI cinesi restano indietro rispetto alle controparti americane, sia in termini di performance che di sicurezza, nonostante la loro crescente popolarità globale. A firmare l’analisi è il Centre for AI Standards and Innovation del NIST, insieme al Dipartimento del Commercio, che ha deciso di classificare piattaforme come DeepSeek nella categoria “adversary AI”. Non proprio il biglietto da visita ideale quando si parla di fiducia e adozione su larga scala.

Google Drive for Desktop ha appena introdotto una funzione che promette di riscrivere il modo in cui pensiamo alla protezione dei file: un motore di rilevamento ransomware basato su intelligenza artificiale, addestrato su milioni di campioni reali, capace di bloccare attività sospette prima che la devastazione si propaghi. È un annuncio che suona come una dichiarazione di guerra digitale, un manifesto in cui Mountain View si autoelegge guardiano dei nostri dati personali e aziendali. Dietro la patina di comunicazione corporate, tuttavia, si nasconde una riflessione più profonda: stiamo delegando sempre più la sopravvivenza dei nostri sistemi all’interpretazione probabilistica di un modello, senza neppure renderci conto delle implicazioni.
In Italia parlare di cybersecurity non è mai stato così urgente, eppure così poco sexy. Poi arriva il Fucina Cyber Lab e cambia improvvisamente il registro. Un programma che non si limita a fare da vetrina istituzionale, ma che mette in campo denaro vero, mentorship reale e accesso a un network che va oltre le solite passerelle. Alan Advantage, che non è l’ennesima società in cerca di gloria ma un “Operational Venture” con storia e numeri, ha deciso di sporcarsi le mani insieme all’Agenzia per la Cybersicurezza Nazionale. Il risultato è un acceleratore per startup innovative early-stage che non si limita a raccontare l’innovazione, ma cerca di costruirla pezzo dopo pezzo.
DeepMind ha appena reso pubblica la versione 3.0 del suo Frontier Safety Framework (FSF 3.0), un documento che traccia come l’azienda intende monitorare e governare i rischi più temuti legati all’avanzamento dei modelli di intelligenza artificiale.
In apparenza si tratta di un aggiornamento tecnico e burocratico, ma nel lessico dei tecnologi e degli scienziati dell’IA il sottotesto è più chiaro: il futuro che si teme un modello che rifiuta lo spegnimento, influenza masse di persone o sfugge al controllo è considerato non più fantascienza, ma un ostacolo da prevenire fin d’ora.
Gli utenti Mac si sono sempre cullati nell’illusione di vivere in un ecosistema digitale sicuro, protetto da un’aura di esclusività e invulnerabilità. Quella percezione è ormai un mito. Il nuovo protagonista della scena del cybercrimine, Atomic Stealer, meglio conosciuto come Amos Stealer, sta dimostrando che anche il mondo patinato di macOS è terreno fertile per chi ha fame di credenziali, cookie e portafogli di criptovalute. Il colpo di scena? Finti annunci pubblicitari che imitano LastPass e indirizzano ignari utenti verso download infetti.
Il paradosso dell’innovazione digitale cinese è racchiuso in una frase che suona quasi come un’ammissione di colpa: “riconosciamo che la condivisione open source accelera la diffusione delle tecnologie avanzate, ma introduce rischi di abuso”. Non lo ha detto un accademico occidentale ossessionato dalla governance, ma DeepSeek, la startup di Hangzhou che in pochi mesi ha fatto tremare le certezze di OpenAI, Anthropic e compagnia. La Cina non è nuova a dichiarazioni strategiche, ma questa volta ha scelto la sede più autorevole possibile: la rivista scientifica Nature. E quando un gigante emergente decide di confessare davanti alla comunità scientifica globale che i propri modelli open source di intelligenza artificiale possono essere facilmente “jailbroken”, il messaggio non è più rivolto solo agli ingegneri ma anche ai governi e ai mercati.
Le aziende stanno scoprendo che la rivoluzione dell’intelligenza artificiale non è un gioco di pura potenza di calcolo. Non bastano GPU scintillanti, modelli linguistici da centinaia di miliardi di parametri e un pizzico di marketing futurista per dominare l’era digitale. La verità, spesso scomoda, è che la sicurezza AI aziendale è il tallone d’Achille che separerà i vincitori dagli eterni sperimentatori bloccati alla fase pilota.
IDC e Lenovo hanno già acceso l’allarme: l’88 per cento delle iniziative AI nelle imprese non supera mai lo stadio del test. È il paradosso più costoso della storia tecnologica recente. Il sogno di generare trilioni di valore economico globale rischia di evaporare tra data breach da record e prompt injection che trasformano i chatbot in clown aziendali.
Il ransomware nel 2025 non è più quel mostro rumoroso e prevedibile degli anni passati. Sophos, nel suo rapporto State of Ransomware 2025, ha sondato 3.400 professionisti IT e della cybersecurity in 17 paesi, consegnando una fotografia che combina numeri, psicologia e tattiche criminali in un’unica narrativa inquietante. La lettura di questo documento non è un esercizio accademico: è un’istruzione di sopravvivenza digitale per chi guida la sicurezza aziendale, il CISO, che deve navigare un mare di minacce in costante mutamento.
Un attacco zero-click, invisibile e silenzioso. Così si è rivelato il “ShadowLeak“, una vulnerabilità critica scoperta da Radware nel modulo Deep Research di ChatGPT, che ha messo a rischio i dati sensibili degli utenti di Gmail. Il problema non risiedeva nell’utente, ma nel sistema stesso: un’architettura complessa che, sebbene progettata per l’efficienza, ha mostrato le sue crepe quando esposta a tecniche di prompt injection indiretta.

Google Research ha presentato VaultGemma, il suo primo modello linguistico grande (LLM) costruito fin dall’origine con la privacy nel DNA. Agendo sull’addestramento con tecniche di differential privacy, VaultGemma punta a ridurre drasticamente il rischio che dati sensibili o coperti da copyright vengano “memorizzati” e replicati nelle risposte generate. Chi parla di intelligenza artificiale autonoma ora deve fare i conti con qualcosa di più concreto: modificare l’architettura stessa dell’apprendimento.
Quando nel 2018 Spectre fece il suo debutto, il mondo scoprì che persino i processori più avanzati avevano fondamenta fragili. Le CPU che dovevano essere i guardiani dell’efficienza erano in realtà porte socchiuse attraverso cui chiunque, con un po’ di ingegno, poteva infilarsi a rubare informazioni sensibili. Da allora ci siamo raccontati la favola che il problema fosse stato risolto con patch, microcode e aggiornamenti kernel. Poi è arrivata VMSCAPE, la nuova creatura sfornata dai laboratori della ETH di Zurigo, che ci ricorda con brutalità quanto fragile resti il cuore digitale su cui si regge l’intera economia del cloud.
La recente scoperta che il gruppo di hacker nordcoreano Kimsuky ha utilizzato ChatGPT per creare un deepfake di un documento di identità militare sudcoreano rappresenta un punto di svolta inquietante nelle operazioni di cyber-espionaggio sponsorizzate dallo Stato. Secondo quanto riportato da Bloomberg, i ricercatori di Genians, una società di cybersecurity sudcoreana, hanno identificato l’uso di un ID militare contraffatto in un attacco di phishing mirato a funzionari sudcoreani. Il documento falso è stato allegato a un’email contenente un malware progettato per estrarre dati dai dispositivi dei destinatari. Questo attacco evidenzia l’evoluzione delle tecniche di Kimsuky, che ha precedentemente utilizzato l’AI per creare curriculum falsi e superare test di codifica, infiltrandosi in aziende tecnologiche statunitensi.
Nel panorama della sicurezza informatica, l’emergere di Villager, un nuovo strumento di penetration testing sviluppato dalla misteriosa entità cinese Cyberspike, sta suscitando preoccupazioni tra esperti e professionisti del settore. Presentato come un framework AI‑nativo, Villager promette di automatizzare operazioni offensive complesse, riducendo significativamente la necessità di competenze umane specializzate. Tuttavia, la sua rapida diffusione e le sue potenzialità sollevano interrogativi sulla preparazione globale di fronte a minacce persistenti alimentate dall’intelligenza artificiale (AIPTs).
È irresistibile guardare l’attuale crittografia classica come il palazzo dei sogni di un illusionista che tiene in equilibrio tutto sull’improbabile: problemi matematici “hard” che, si spera, nessun computer neanche quelli quantistici riuscirà a risolvere. Ma i computer quantistici non sono la prossima rivoluzione: sono il terremoto che sta già fratturando fondamenta che pensavamo di aver solidificato per sempre. Oggi c’è un nuovo twist: una prova matematica che promette sicurezza non grazie alla difficoltà, ma grazie alle regole stesse del mondo quantistico.
Chiunque oggi respiri l’aria rarefatta delle boardroom tecnologiche ha capito che l’intelligenza artificiale non è più un futuro lontano, ma un presente travolgente. La corsa ai chatbot generativi è talmente forsennata che le aziende li implementano con lo stesso entusiasmo con cui un ventenne compra criptovalute al massimo storico, convinti che sia la scorciatoia verso efficienza, margini e vantaggi competitivi. La verità è che in questo slancio cieco c’è un problema strutturale: stiamo mettendo nelle mani dei nostri sistemi più critici uno strumento che, a ben guardare, si comporta come un perfetto psicopatico digitale. Nessuna empatia, nessun senso di colpa, ma un’incredibile capacità di produrre risposte ordinate, convincenti, formattate in modo impeccabile. È la maschera lucida che inganna proprio quando pensiamo di avere a che fare con un assistente affidabile.
Cisco e NVIDIA hanno appena inaugurato la cosiddetta Secure AI Factory, un termine che suona futuristico ma che in pratica significa infrastrutture integrate per far girare l’intelligenza artificiale senza rischi, senza blocchi e senza scuse. L’obiettivo dichiarato non è solo vendere hardware o licenze software, ma creare un ecosistema in cui le imprese possano finalmente trattare l’AI come una forza lavoro concreta, non più un esperimento di laboratorio.
La sicurezza digitale è stata per decenni un groviglio di cattive abitudini e autocensure: password impossibili da ricordare, poi riutilizzate fino allo sfinimento, diventano trampolini perfetti per hacker acchiappabugie. Adesso però qualcosa ha cominciato a scricchiolare davvero. Passkeys stanno sconvolgendo il gioco, e non si tratta di una moda. Tech-giants come Google, Microsoft, Apple, insieme al FIDO Alliance, hanno fatto della password-less authentication non una promessa fumosa, ma una direzione definita. Non è fantascienza: è già qui.
Passkeys sono vere e proprie chiavi crittografiche, generate dal dispositivo, con private key conservata localmente e public key registrata sul server del servizio: un sistema robusto, immune al phishing (niente password da intercettare), vulnerabile solo se perdi il dispositivo e non hai un piano di backup. Non è un’opinione da fanboy: lo conferma Wired in un articolo recente che descrive proprio questo meccanismo come “a safer, phishing-resistant, and more user-friendly alternative” .


La nuova ossessione tecnologica: droni per fibra ottica e l’illusione della guerra invisibile
Il mercato della sorveglianza digitale non è più un sottobosco di startup con telecamere improvvisate e software traballanti. Oggi vale miliardi e i capitali scorrono veloci come i flussi di dati che catturano le nostre vite. Al centro di questa tempesta troviamo Flock Safety, una società che non ha paura di chiamarsi “la memoria stradale d’America”, con una valutazione che ha superato i 7,5 miliardi di dollari. Numeri che parlano da soli e che ricordano come in un’economia fondata sull’informazione sia più redditizio vendere occhi elettronici che mattoni.