Categoria: Sicurezza Pagina 1 di 7

Cybersecurity, Data Protection, Difesa, Aerospazio, Settori Strategici e Analisi Predittiva

Cybersecurity in Italia, l’anno della resa dei conti. Più attacchi, più investimenti, meno alibi

Le minacce informatiche in Italia continuano a crescere, con un impatto decisamente meno prevedibile. I risultati dell’Osservatorio Cybersecurity & Data Protection del Politecnico di Milano, presentati durante il convegno “Cybersecurity: immaginare l’imprevedibile”, fotografano un anno appena chiuso che segna un punto di rottura per imprese e istituzioni. Oltre un terzo delle grandi aziende italiane, il 34%, ha subito nell’ultimo anno attacchi cyber con costi significativi di ripristino. Per il 3% le conseguenze sono andate oltre il danno economico, colpendo direttamente l’operatività, con interruzioni concrete, processi bloccati e notti insonni nei reparti IT.

Claude Code Security e il panico dei mercati: quando l’intelligenza artificiale entra nel cuore della cybersecurity

La reazione è stata immediata, quasi istintiva. Annunci un nuovo strumento di sicurezza basato su intelligenza artificiale capace di leggere il codice come un ricercatore umano e il mercato, invece di applaudire l’innovazione, vende. La presentazione di Claude Code Security da parte di Anthropic non è stata percepita solo come un aggiornamento tecnologico, ma come un potenziale cambio di paradigma nel settore della cybersecurity AI, uno dei pochi segmenti software che fino a poco tempo fa sembrava relativamente immune all’ondata di disruption dell’intelligenza artificiale generativa.

ZeroDayRAT e la nuova frontiera dello spyware mobile totale

Nel panorama digitale contemporaneo, dove ogni smartphone funziona come una microcentrale di dati personali, il nuovo spyware ZeroDayRAT emerge come un incubo concreto per chiunque custodisca informazioni sensibili sul proprio dispositivo. Non si tratta di una minaccia sperimentale o riservata a hacker d’élite: la piattaforma è pubblicamente disponibile su canali come Telegram, pronta per essere usata senza competenze tecniche avanzate. In pratica, chiunque voglia trasformare il telefono di un ignaro utente in un osservatorio completo della sua vita digitale può farlo con pochi click.

Spyware avanzato e smartphone: proteggere Iphone e Android senza illusioni

Smartphone non sono più semplici telefoni: sono microcomputer portatili connessi a reti globali e custodi dei nostri segreti digitali. Apple e Google hanno recentemente allertato il pubblico su una nuova generazione di spyware, capaci di infiltrarsi senza un singolo clic dell’utente. Questi zero-click exploit hanno smesso di essere minacce riservate a giornalisti, attivisti o politici; oggi ogni dispositivo può essere un bersaglio di sorveglianza completa, con impatti che oscillano tra il privato e il business.

Il fulcro del problema risiede nella persistenza e nella profondità dell’accesso. Uno spyware moderno può leggere messaggi cifrati, catturare credenziali bancarie, attivare microfono e videocamera senza alcuna notifica visibile. Persino immagini innocue o allegati apparentemente innocui possono fungere da vettore. Non si tratta più di malware improvvisati, ma di strumenti quasi industriali, capaci di bypassare le protezioni standard dei sistemi operativi.

AI Safety Report 2026

L’evoluzione dell’intelligenza artificiale corre più veloce della nostra capacità di comprenderne appieno i rischi, ponendo i decisori politici e la società civile di fronte a un complesso “dilemma dell’evidenza”. L’International AI Safety Report 2026, curato da esperti di fama mondiale come Yoshua Bengio, offre una panoramica dettagliata di questo scenario in rapido mutamento, delineando le frontiere tecnologiche che stiamo attraversando e le sfide che ci attendono da qui al 2030.

Il panorama attuale è caratterizzato da progressi straordinari ma eterogenei. Negli ultimi dodici mesi, le capacità dell’IA sono cresciute in modo significativo, specialmente nei settori del ragionamento matematico e della programmazione. Grazie a nuove tecniche di “scaling all’inferenza”, i modelli possono ora utilizzare maggiore potenza di calcolo per elaborare passaggi intermedi prima di fornire una risposta, superando compiti complessi che prima apparivano fuori portata. Tuttavia, questa evoluzione rimane “frastagliata”: sistemi capaci di risolvere problemi da Olimpiadi Internazionali di Matematica possono ancora fallire in compiti elementari, come il conteggio di oggetti in un’immagine o il ragionamento sullo spazio fisico.

Joshua Bengio e il momento in cui i rischi dell’intelligenza artificiale smettono di essere fantascienza

C’è stato un tempo in cui parlare di intelligenza artificiale ingannevole, consapevole del contesto o capace di manipolare i propri valutatori era un esercizio da conferenza accademica, utile a ottenere qualche citazione e poco più. Quel tempo, sostiene Joshua Bengio, è finito. Non perché siamo improvvisamente entrati nell’era delle macchine ribelli, ma perché l’evidenza empirica ha iniziato a bussare con una certa insistenza alla porta dei laboratori, delle aziende e, con molto più ritardo, dei governi. La sicurezza dell’intelligenza artificiale non è più un capitolo teorico di fine manuale, ma un problema operativo che cresce più in fretta delle nostre contromisure.

Il nuovo mondo della sorveglianza digitale statale tra spyware e privacy

Avvertimenti recenti su Pegasus e strumenti simili segnalano una transizione inquietante: ciò che prima appariva straordinario ora è routine. La capacità di alcuni stati di penetrare nei dispositivi personali attraverso spyware mercenari come Pegasus e Graphite ha aperto una nuova fase di sorveglianza digitale, dove smartphone e dati personali diventano un terreno conteso tra diritti fondamentali e interessi geopolitici. Apple e Google, con i loro team di sicurezza, sono diventati gli osservatori involontari di una guerra invisibile che ormai tocca utenti in più di 150 paesi, trasformando gli alert in un sistema di allerta precoce quasi obbligatorio per chiunque viva nell’era digitale.

L’Europa sotto attacco: la guerra ibrida corre sul Wi-Fi e la cybersecurity diventa difesa nazionale

Se ci eravamo ormai convinti che le guerre del futuro avrebbero coinvolto solo droni e satelliti, conviene, forse, aggiornare il nostro software mentale. Da Bruxelles il messaggio arriva forte e chiaro: secondo la vicepresidente della Commissione europea Henna Virkkunen, l’Unione è già “nel mezzo di una guerra ibrida”. Ovvero, mentre noi discutiamo di password troppo semplici e aggiornamenti rimandati, qualcuno sta già bussando alle porte digitali delle nostre infrastrutture critiche, e non sempre chiede il permesso di entrare.

Coolify vulnerabilità e la crisi di sicurezza che scuote l’ecosistema self-hosted

Coolify vulnerabilità non è più un titolo da forum per smanettoni ma una seria chiamata d’allarme per chiunque pensi che le piattaforme self-hosted open source siano immuni da rischi sistemici. Il recente annuncio di 11 falle critiche che colpiscono oltre 52.000 istanze di Coolify raggiungibili da internet non è solo un episodio di cronaca tecnica, ma un sintomo di fragilità profonda nelle piattaforme open source adottate senza adeguata disciplina di sicurezza infrastrutturale. Il problema non risiede esclusivamente nei bug tecnici scoperti, ma nella mentalità di adozione, nelle scelte architetturali e nella diffusa sottovalutazione dei rischi quando si parla di strumenti self-hosted.

Sicurezza dell’intelligenza artificiale nel 2026 tra agenti autonomi, governance e limiti fisici

Il 2026 non sarà l’anno in cui l’intelligenza artificiale diventerà improvvisamente più intelligente. Sarà l’anno in cui diventerà definitivamente più pericolosa, non per cattiveria intrinseca ma per eccesso di fiducia umana. Dopo un 2025 passato a industrializzare modelli, agenti e copiloti come se fossero semplici microservizi cloud, il conto arriva ora. E non è solo un conto tecnologico. È un conto energetico, normativo, geopolitico e, soprattutto, di sicurezza sistemica.

AI e Robotica tra Polizia e criminalità: il futuro unmanned che nessuno vuole davvero guardare

Rapida, silenziosa, inesorabile. L’intelligenza artificiale e la robotica stanno entrando nella storia della sicurezza pubblica europea non come un aggiornamento tecnologico, ma come una mutazione genetica del concetto stesso di crimine e di controllo. Il rapporto di 48 pagine pubblicato dall’Innovation Lab di Europol, significativamente intitolato “The Unmanned Future(s)”, non è una previsione nel senso classico del termine, ma un esercizio di preveggenza strategica. Tradotto in linguaggio non diplomatico significa che chi oggi guida istituzioni, aziende e forze dell’ordine farebbe bene a smettere di discutere se tutto questo accadrà e iniziare a chiedersi cosa succede quando accade davvero.

Il fantasma nel codice: quando un ferry diventa un’arma silenziosa

Il Fantastic non aveva nulla di spettacolare l’altra mattina a Sète. Un gigante di metallo di 180 metri, abituato a solcare la rotta tra Francia, Italia e Maghreb con la regolarità di un pendolo. Vent’anni di traversate, migliaia di passeggeri, una routine rassicurante fatta di orari, cabine e motori. Eppure, per quattro giorni, quel traghetto è diventato qualcosa di diverso: un oggetto sospeso in una zona grigia dove il mare incontra il codice, e la geopolitica si nasconde dietro una porta USB.

Raytheon porta la zero knowledge cryptography sul campo di battaglia per blindare la guerra algoritmica

In un settore dove la superiorità non si misura più soltanto in tonnellate d’acciaio, ma nella sottile capacità di proteggere bit e pesi neurali, la mossa di Raytheon nel portare la zero knowledge cryptography nel cuore dello scontro rappresenta uno di quei momenti che pochi analisti colgono subito e che molti generali capiranno tardi. La sicurezza dell’intelligenza artificiale militare non è più un tema per conferenze accademiche, è un’urgenza strategica che si insinua tra i briefing riservati e gli ordini operativi. La difesa moderna non è altro che un gigantesco esperimento su quanto si possa delegare alla macchina senza perdere il controllo, come se il futuro del conflitto fosse già scritto nei log criptati di un cluster lontano. L’integrazione tra Raytheon, Lagrange e il motore DeepProve si presenta come un gesto di rottura, quasi la versione tecnologica del vecchio detto romano fidarsi è bene, verificare è obbligatorio.

Architettura della sicurezza per assistenti agentici: quando il codice diventa conversazione

Claude di Anthropic sta portando la programmazione direttamente nelle conversazioni di Slack, trasformando ogni thread in un potenziale ambiente di sviluppo. Fino a ieri, gli sviluppatori potevano solo ottenere aiuto leggero: frammenti di codice, debugging o spiegazioni rapide. Da oggi, taggando @Claude, è possibile far partire sessioni complete, con analisi dei messaggi recenti per individuare repository, aggiornamenti automatici dei progressi, link per revisioni e pull request.

Cosa ha annunciato Google su Chrome “agentic”

Google ha recentemente spiegato come intende rendere sicure le nuove capacità agentic di Chrome, ovvero quelle che permetteranno al browser di “agire per conto tuo”: prenotare biglietti, fare acquisti, compilare moduli.
Il cuore del sistema è un modello critico: il cosiddetto User Alignment Critic, basato su Gemini, che verifica ogni azione proposta dal planner: se la critica ritiene che l’azione non serva allo scopo dichiarato dall’utente la blocca — e tutto ciò basandosi su metadati delle azioni, non sui contenuti completi della pagina.

In parallelo viene estesa l’idea della “same-origin policy” (isolamento delle origini) al contesto agentic: con gli Agent Origin Sets si definisce per ogni task un insieme di origini “read-only” da cui leggere dati, e “read‑writable” su cui l’agente può cliccare o scrivere. Contenuti irrilevanti o potenzialmente pericolosi (ads, iframe non correlati, widget esterni) vengono esclusi.

Windows 11 e la nuova corsa alla disattivazione dell’intelligenza artificiale

A volte basta uno script su GitHub per far emergere ciò che le statistiche ufficiali non diranno mai. Un piccolo repository chiamato RemoveWindowsAI ha trasformato in realtà ciò che molti utenti raccontavano sottovoce da mesi, una crescente insofferenza verso l’intelligenza artificiale integrata in Windows 11. La scena è quasi comica se non fosse incredibilmente rivelatrice, l’azienda che spinge verso l’AI PC come destino inevitabile e una fetta sempre più ampia di utenti che corre nella direzione opposta, armata di script, chiavi di registro e molta creatività. La keyword che domina questo scenario è intelligenza artificiale Windows 11, mentre tra le correlate emergono Windows Recall e Copilot Windows 11 come poli magnetici di un dibattito che si fa ogni giorno più acceso.

Compliance come scudo strategico nell’economia del rischio permanente

La narrativa secondo cui la compliance sarebbe un centro di costo appartiene alla stessa categoria folcloristica delle leggende aziendali tipo il server dimenticato in uno sgabuzzino che magicamente “funziona da vent’anni”. La realtà, supportata da dati che un analista di rischio non oserebbe ignorare, è che la compliance rappresenta una linea di difesa strategica, una cintura di sicurezza per un mercato che vive sospeso tra innovazione iperaccelerata e minacce digitali sempre più chirurgiche. Chi continua a vederla come una tassa burocratica probabilmente non ha mai passato una notte in bianco a guidare un incidente ransomware da milioni di euro. Curioso come la prospettiva cambi quando l’unica cosa che separa l’azienda dal disastro è proprio quel framework che qualcuno aveva definito un ostacolo alla produttività.

IA al servizio della sicurezza

Segreti bancari e password governative spiate da un innocuo tool online: la falla che nessuno voleva scoprire

Irrita sempre un po quando si scopre che il tallone d’Achille di interi ecosistemi digitali non è un’oscura vulnerabilità zero day, ma il più banale degli strumenti di comodità. Succede quando due innocui servizi di formattazione online, nati per rendere più leggibile un JSON incasinato o un frammento di codice poco curato, finiscono per trasformarsi nel punto di ingresso preferito per chi vuole penetrare infrastrutture critiche. La vicenda di JSONFormatter e CodeBeautify, con anni di credenziali esposte senza alcuna protezione, è un caso da manuale su come la leggerezza nei flussi di sviluppo possa produrre tempeste perfette. L’immagine del developer distratto che copia e incolla un payload pieno di segreti per farlo apparire più ordinato ha quasi un sapore comico, ma le conseguenze sanno di thriller geopolitico.

Gli Stati Uniti stanno perdendo la guerra cibernetica mentre l’AI arma i nemici più velocemente della loro difesa

A volte sembra che la narrativa ufficiale viva in un universo parallelo, dove la supremazia cibernetica statunitense è una sorta di dogma indiscutibile, mentre la realtà racconta una storia molto meno rassicurante. In un contesto in cui la keyword cyber difese USA diventa non solo un tema di ricerca ma una cartina di tornasole geopolitica, sta emergendo una verità scomoda. L’AI sta potenziando gli attaccanti molto più velocemente di quanto le istituzioni riescano a ripensare il proprio perimetro di protezione. Chi osserva con occhio tecnico e inclinazione da CEO sa che il vero rischio non è l’attacco a sorpresa, ma l’inerzia autoindotta. L’ironia è che il Paese che ha guidato l’innovazione digitale per decenni ora inciampa sul banale: mancano persone, manca leadership, manca un disegno.

OpenAI conferma violazione di terze parti con esposizione di metadata API

La vicenda del data breach OpenAI legato al fornitore di analytics Mixpanel merita più di un sospiro rassegnato, perché racconta con chiarezza chirurgica quanto sia sottile la membrana di sicurezza che separa l’ecosistema dell’intelligenza artificiale dalla sua stessa ombra. OpenAI ha confermato che nomi account, indirizzi email e metadati dei dispositivi degli utenti API sono finiti nelle mani sbagliate dopo un intrusione nel sistema di Mixpanel. Il tutto senza toccare prompt, chiavi API o informazioni di pagamento. Una rassicurazione apparente, perché la vera partita si gioca altrove. La parola chiave che domina questo quadro è data breach OpenAI, accompagnata in modo naturale da concetti come mixpanel breach e sicurezza API, che definiscono lo scenario complesso di una supply chain digitale sempre più vulnerabile.

La nuova anatomia invisibile del device fingerprinting

Il paradosso della privacy digitale si manifesta sempre nei dettagli apparentemente insignificanti. Lo schermo che tocchiamo distratti, il giroscopio che registra l’inclinazione della mano, la versione del sistema operativo che non aggiorniamo da mesi. Tutto questo basta già a raccontare una storia molto più intima di quanto molti immaginino. La nuova ondata di ricerche sul device fingerprinting illumina un’area rimasta troppo a lungo nell’ombra, svelando come ogni smartphone diventi un faro costante, riconoscibile anche quando crediamo di essere invisibili. Chi si illude che attivare la modalità privata o disattivare i cookie basti a salvare la situazione scoprirà che il gioco si è fatto ben più sofisticato.

Ransomware e AI al forum ICT Security 2025

A volte basta osservare la sala di un convegno per capire dove sta andando l’innovazione, perché quando Massimiliano Graziani e Claudio Tosi (CYBERA SRL) salgono sul palco del Forum ICT Security 2025 non stanno solo raccontando un caso aziendale, stanno consegnando un manifesto involontario del nuovo equilibrio tra ransomware e AI, un equilibrio che ha il sapore di una sfida aperta tra macchine sempre più autonome e aziende che tentano disperatamente di rimanere un passo avanti. Il risultato è un panorama in cui la parola cybersecurity avanzata non è più un tema da specialisti, ma un’ossessione collettiva che si insinua nei corridoi delle imprese, dalle startup ai colossi industriali, e che al Forum prende forma con una chiarezza quasi disarmante.

Quantum e intelligenza artificiale stanno per far crollare la sicurezza digitale e nessuno è pronto

In un settore abituato a vendere la paura come servizio, raramente si vede un gigante come Palo Alto Networks parlare con il tono asciutto di chi ha smesso di suonare il campanello d’allarme e ha iniziato a bussare con il pugno. L’incrocio tra minacce quantistiche e superfici d’attacco guidate dall’intelligenza artificiale non è più una speculazione futurista, ma un punto di rottura che si avvicina con la velocità silenziosa tipica delle rivoluzioni tecnologiche. La keyword che domina questo scenario è sicurezza quantistica, accompagnata dalle sue sorelle semantiche browser AI e infrastrutture quantum safe. L’atmosfera è quella di un’era che si sgretola sotto il peso di algoritmi che nessuno aveva previsto così rapidi, tanto che perfino i più navigati CISO iniziano a chiedersi se i loro firewall non siano già dei pezzi da museo esposti inconsapevolmente in produzione.

Quando l’intelligenza artificiale diventa l’arma preferita nello spionaggio globale

Un lampo improvviso nella zona più oscura dell’innovazione ha scatenato una reazione a catena che molti, nel cuore di Washington, fingevano di non aspettarsi. In realtà sapevano benissimo che l’automazione spinta avrebbe trasformato il cyber spionaggio in un gioco di velocità e di autonomia, ma pochi immaginavano che il primo grande caso avrebbe coinvolto un modello commerciale progettato per aiutare gli sviluppatori. La chiamata del Congresso agli executive delle principali aziende di AI, con Dario Amodei in prima fila, ha il sapore amaro delle missioni impossibili che diventano improvvisamente routine. La keyword che si staglia in tutto questo è cyber spionaggio AI, mentre sullo sfondo emergono due concetti che non possiamo ignorare: agenti autonomi e sicurezza informatica. Tre termini che descrivono alla perfezione il nuovo fronte di guerra digitale.

Claude Opus 4.5 è andato giù, The AI labs never sleep

Certe settimane nel mondo dell’intelligenza artificiale sembrano uscite da un romanzo di Le Carré con acceleratori di particelle al posto delle spie. La vigilia del Ringraziamento negli Stati Uniti appartiene ufficialmente a questa categoria. Google ha lanciato Gemini 3 con l’entusiasmo tipico da Silicon Valley, OpenAI ha aggiornato i suoi modelli agentici per il coding, e Anthropic ha calato sul tavolo Claude Opus 4.5, definito come il migliore al mondo per programmazione, agenti e interazione avanzata con il computer. La dichiarazione ha il tono di un ultimatum mascherato da nota stampa, perché suggerisce senza troppi giri di parole che le ambizioni di Gemini 3 potrebbero già essere state superate in alcune categorie di valutazione del coding. La cosa divertente è che il pubblico più nerd, quello che si accalca su piattaforme come LMArena per confrontare i modelli come se fossero bolidi da Formula 1, non ha ancora avuto il tempo di farlo salire in classifica. Il mondo corre ma gli algoritmi, a quanto pare, corrono più veloci degli umani che dovrebbero giudicarli.

Historic data breach espone 1,3 miliardi di password e quasi 2 miliardi di email

Un’ondata digitale senza precedenti ha colpito la sicurezza globale: 1,3 miliardi di password e quasi due miliardi di indirizzi email sono stati resi pubblici in un unico, enorme dataset. Gli esperti di cybersecurity descrivono l’evento come la più grande violazione consolidata mai registrata, sottolineando la crescente efficacia degli attacchi basati sulle credenziali. Non si tratta di un allarme iperbolico da conferenza tech: la realtà è che l’intero ecosistema digitale, dai servizi consumer alle infrastrutture aziendali, rischia di crollare sotto il peso di credenziali esposte.

copy-and-paste identificato come il nuovo punto cieco della cybersecurity aziendale

LayerX ha appena lanciato un rapporto che suona come un allarme sonoro nella sala server di ogni CTO: la minaccia più grave alla sicurezza informatica aziendale non è più rappresentata da upload di file, furto di credenziali o phishing sofisticato. Il vero rischio è nascosto in piena vista, qualcosa che i dipendenti fanno ogni giorno senza pensarci: copiare e incollare dati sensibili in strumenti non gestiti. Sembra quasi una gag da ufficio, ma i numeri parlano chiaro e freddo: 77 percento degli impiegati incolla informazioni critiche in strumenti AI, 46 percento le mette in archivi personali. Inutile girarci intorno, il clipboard è diventato il nuovo fronte di guerra invisibile.

Phishing DMCA e la nuova ondata di truffe sui social

A volte la sicurezza digitale assomiglia a un vecchio gioco di prestigio adattato ai tempi moderni. Si cambia il cappello, si illumina il palco, si aggiorna la musica di sottofondo e il pubblico cade di nuovo nello stesso trucco. Succede ogni volta che un nuovo attacco di phishing prende piede e oggi tocca alla variante che sfrutta presunti avvisi DMCA su X, un espediente che unisce paura, urgenza e un pizzico di ingenuità digitale. Chi lavora nell’innovazione e osserva questi fenomeni da qualche decennio sa bene che il vero problema non è mai la tecnologia dei truffatori, ma la vulnerabilità intrinseca del comportamento umano. Che è esattamente ciò che alimenta questa nuova ondata di attacchi.

Attacco autonomo: come gli agenti AI stanno riscrivendo le regole del cyberspionaggio

Il rapporto pubblicato da Anthropic creatore della serie di modelli Claude — rappresenta quello che l’azienda descrive come “la prima campagna su larga scala di cyber attacco orchestrato quasi interamente da agenti d’intelligenza artificiale”. (vedi Anthropic) Di seguito una lettura critico-tecnica dell’accaduto, delle implicazioni strategiche, e di cosa questa vicenda suggerisce per chi guida infrastrutture digitali aziendali.

La rapina al Louvre svela falle di sicurezza che fanno tremare l’industria culturale

L’episodio accaduto al Musée du Louvre il 19 ottobre 2025 sarebbe da manuale: ladruncoli vestiti da operai, scala meccanica, moto-scooter, vetrine spaccate, gioielli reali francesi per un valore stimato in 88 milioni di euro (oltre 102 milioni di dollari). Il fatto che ciò avvenga in pieno giorno, durante l’orario di apertura, all’interno della galleria più visitata al mondo, è già di per sé un richiamo al panico: se cade il Louvre, cade il castello delle certezze sulla sicurezza museale.

Massive breach espone l’arsenale hacker sostenuto dallo stato cinese

Un incidente informatico senza precedenti ha squarciato il velo sull’infrastruttura digitale che sostiene le operazioni di spionaggio di Pechino. Un archivio di oltre 12.000 documenti riservati, sottratti all’azienda di cybersicurezza Knownsec e pubblicati brevemente su GitHub, ha permesso agli analisti di osservare dall’interno come si costruisce e si gestisce un arsenale hacker di Stato. La fuga di informazioni, definita da molti la più grave nella storia del cyber warfare tra nazioni, non è solo una breccia tecnica ma un terremoto geopolitico.

Malware che parla con i modelli: l’inizio di una nuova era criminale

Advances in Threat Actor Usage of AI Tools

La sensazione non è solo di disorientamento, è di ribaltamento. Malware che chiede aiuto all’intelligenza artificiale mentre è in esecuzione non è fantascienza: è la realtà che Google ha descritto come una svolta operativa. Il concetto è semplice nella sua pericolosità. Un eseguibile non porta più tutto il proprio cervello dentro la scatola, ma telefona a un modello esterno per farsi scrivere o riscrivere parti del codice, produrre funzioni su richiesta e mascherare i propri segnali di identificazione. Il risultato è un avversario che muta in tempo reale, capace di aggirare difese progettate per regole statiche.

Youtube ghost network: quando YouTube diventa officina del malware


Avete presente quel tutorial su YouTube che promette “software gratis”, “crack” o “hack del gioco”? Bene: pensateci due volte prima di cliccare. Perché dietro quell’apparenza innocente si nasconde una vera e propria macchina infernale di cyber-minacce, che i ricercatori di Check Point Research hanno battezzato YouTube Ghost Network. Dal 2021 almeno, con un’impennata nel 2025, migliaia di video più di 3.000 hanno abbandonato la facciata di “tutorial” per diventare vettori di malware che rubano password, dati e identità digitali.

Le imprese di fronte alla nuova resa dei conti della cybersecurity mentre gli agenti di intelligenza artificiale diventano imprevedibili

La rivoluzione degli agenti di intelligenza artificiale ha un volto affascinante e uno oscuro. Mentre le imprese si affrettano a integrare queste entità digitali autonome nei processi quotidiani, si apre una falla pericolosa nella sicurezza aziendale. L’avvertimento di Nikesh Arora, CEO di Palo Alto Networks, suona più come una sirena d’allarme che come una previsione. Gli agenti di AI non sono più strumenti, ma attori. Operano dentro le infrastrutture aziendali con accessi, privilegi e capacità decisionali che fino a ieri erano esclusivamente umane. E il sistema di sicurezza tradizionale, costruito attorno all’identità delle persone, si trova improvvisamente nudo.

Insider ransomware: quando il guardiano diventa predatore

Nel sottobosco digitale che chiamiamo “sicurezza informatica” è esplosa una bomba: due professionisti U.S. di cybersecurity — Kevin Tyler Martin (DigitalMint) e Ryan Clifford Goldberg (Sygnia) — sono stati incriminati per aver messo in piedi una campagna ransomware contro almeno cinque aziende, sfruttando le loro stesse credenziali di “guardiani”. Il dossier federale descrive un’operazione che potrebbe ridefinire il concetto di insider threat nella comunità della difesa attack-response.

EDR vs MDR vs XDR: capire lo spettro della difesa informatica

Nell’universo della cybersecurity la proliferazione di acronimi sembra ormai una strategia deliberata per confondere chiunque osi avvicinarsi al tema. Eppure dietro la giungla linguistica di EDR, MDR e XDR si nasconde la vera spina dorsale della difesa digitale moderna. L’equivoco nasce dal fatto che questi strumenti sembrano sovrapporsi, mentre in realtà definiscono livelli distinti di maturità nella risposta alle minacce. Capire dove finisca l’uno e inizi l’altro non è un esercizio semantico, ma un passo cruciale per chi vuole costruire una sicurezza informatica davvero intelligente e non semplicemente reattiva.

Furto informatico ad alto rischio: il caso Williams

Peter Williams, trentanove anni, australiano, ex dirigente di L3Harris Trenchant, ha ammesso di aver venduto strumenti cyber sensibili sviluppati negli Stati Uniti a un broker russo. La notizia non è solo un episodio criminale isolato: rivela quanto siano fragili le barriere tra sicurezza nazionale, insider threat e mercato nero internazionale del software per hacking. Il fatto che un ex manager, pagato per proteggere infrastrutture digitali critiche, possa trasformarsi in una fonte diretta di cyberarmi, fa riflettere sul fallimento delle strategie di sicurezza più avanzate.

OpenAI presenta Aardvark: un passo avanti nel security engineering

OpenAI ha annunciato il 30 ottobre 2025 Aardvark, un agente “agenteccentrico” autonomo progettato per pensare come un ricercatore di sicurezza e operare su basi di codice in tempo reale. (blog OpenAI) È una tecnologia che spinge l’idea “AI come co-pilota della sicurezza” verso nuovi confini.

Aardvark lavora analizzando repository software, valutando rischi, convalidando exploit in sandbox isolate e suggerendo patch generate con l’ausilio di Codex, il tutto corredato da spiegazioni step by step e contesto interpretativo. Non usa esclusivamente tecniche classiche come fuzzing o analisi statica, ma applica ragionamento generativo e uso di tool intelligenti.

È in fase di private beta e OpenAI invita organizzazioni e progetti open source a candidarsi. Evocano già alcuni numeri incoraggianti: su repository “golden”, Aardvark ha individuato il 92 % delle vulnerabilità note o sintetiche nei test interni.

L’attacco TEE.Fail che scuote le fondamenta delle enclave sicure (TEEs, Trusted Execution Environments) nei chip di Intel, AMD e NVIDIA

Un gruppo di ricercatori accademici (fra cui Georgia Tech, Purdue University e Synkhronix) ha sviluppato un attacco fisico‐side-channel chiamato TEE fail, che consente di estrarre segreti da enclave di CPU/GPU moderne usando moduli DDR5. In pratica l’attaccante inserisce un’interposizione (interposer) tra il modulo di memoria DDR5 e la scheda madre hardware di costo inferiore ai 1000 USD. Attraverso questa “spia” del bus memoria, l’attaccante osserva traffico cifrato, sfrutta il fatto che la cifratura della memoria (AES-XTS deterministico) è prevedibile (stesso plaintext → stesso ciphertext) e ricostruisce chiavi crittografiche, falsifica attestazioni, impersona enclave.
È importante sottolineare che l’attacco è stato dimostrato su enclave server grade (DDR5) e non sui semplici personal computer: target ad alto valore.

Ultime notizie su vulnerabilità Browser Agent‑AI

Il contesto è semplice, ma potente: stiamo parlando del momento in cui i browser “normali” (quelli in cui navighiamo come utenti) si trasformano in agenti attivi, dotati di intelligenza, capaci non solo di ricevere comandi ma di agire al nostro posto. È il paradigma dell’“agentic browsing”: chiedi, ad esempio, “riassumi questa pagina” o “compra quel biglietto”, e l’AI browser apre tab, estrae dati, compila form, interagisce con il web come se fosse te. Fino a qui, futuribile ma allettante. Il problema è che la sicurezza (quelle garanzie consolidate per la navigazione web) non è stata ripensata in modo adeguato.

Pagina 1 di 7

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie