Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Sicurezza Pagina 3 di 4

Cybersecurity, Data Protection, Difesa, Aerospazio, Settori Strategici e Analisi Predittiva

Il Futuro della Sicurezza: Test Nucleari, NIST, collaborazione e condivisione

Recentemente, diversi sviluppi chiave nel campo dell’intelligenza artificiale (IA) e della sicurezza nucleare hanno attirato l’attenzione globale. Gli Stati Uniti e il Regno Unito sono al centro di iniziative volte a proteggere i sistemi critici da possibili minacce provenienti dall’uso dell’IA, mentre si aprono nuove discussioni internazionali riguardo alle politiche di test e cooperazione tra paesi. Il Dipartimento dell’Energia degli Stati Uniti, il NIST e l’Istituto Britannico per la Sicurezza dell’Intelligenza Artificiale sono tra i principali attori in questo scenario in evoluzione.

Il rischio dell’Intelligenza Artificiale e la minaccia della Cina: una nuova visione sulla sicurezza e l’innovazione

La crescente competizione tra potenze globali, in particolare l’Occidente e la Cina, ha posto l’intelligenza artificiale (IA) al centro di una battaglia tecnologica che potrebbe determinare il futuro dell’economia globale e della sicurezza internazionale.

Questa settimana BSA | L’alleanza del software ha chiesto Trump e JD Vance di affrontare le leggi che potrebbero “bloccare l’uso dell’intelligenza artificiale“. Ha anche chiesto “una legge nazionale per obbligare chi sviluppa e usa l’AI ad alto rischio a gestire i rischi e fare valutazioni d’impatto“.

Parallelamente alcuni analisti hanno dichiarato che “Sconfiggere la Cina” non implica necessariamente compromettere la sicurezza, ma anzi potrebbe rappresentare un’opportunità per accelerare l’innovazione, come sottolineato dal fatto che i test di sicurezza siano relativamente economici rispetto ai costi di formazione.

Apple introduce una funzione di riavvio automatico nascosto per la sicurezza in iOS 18.1

Nel recente aggiornamento di iOS 18.1, Apple ha introdotto una funzione di riavvio automatico nascosto che ha destato non poca curiosità e attenzione. Questa novità, implementata in modo discreto, mira a rafforzare la sicurezza del sistema operativo, intervenendo automaticamente nel caso in cui venga rilevata un’anomalia, una potenziale minaccia di sicurezza o un comportamento sospetto che potrebbe compromettere l’integrità del dispositivo.

Meta e la Finzione delle “Protezioni” nell’Intelligenza Artificiale: Un’Illusione di Sicurezza

Meta, purtroppo, sta cercando di presentare come sicuro e controllato un sistema che, in realtà, è ben lungi dall’essere in grado di impedire l’uso improprio delle sue tecnologie. Nonostante l’impegno apparente nella protezione della sicurezza, l’azienda sta creando una finzione ben orchestrata, nel tentativo di nascondere la verità: una volta che un modello AI come Llama viene rilasciato al pubblico, diventa impossibile garantire che non venga utilizzato per scopi dannosi. La recente vicenda che ha visto l’esercito cinese utilizzare Llama di Meta ne è un chiaro esempio, e la risposta dell’azienda una dichiarazione che condanna l’uso non autorizzato appare ridicola, considerando la natura aperta e pubblica dei modelli che ha rilasciato.

Il Futuro della Sicurezza nell’Intelligenza Artificiale: Le Prime Vulnerabilità di Google DeepMind e Anthropic

L’intelligenza artificiale sta rapidamente evolvendo, e con essa emerge anche una nuova e complessa frontiera: la sicurezza. Due recenti sviluppi hanno messo in evidenza la necessità di riflessioni più approfondite sulla protezione dei modelli AI, dimostrando che anche le intelligenze più avanzate non sono immuni da vulnerabilità.

Il Pentagono assegna il primo contratto di difesa basato su intelligenza artificiale generativa a Jericho Security

Il Pentagono ha recentemente assegnato il suo primo contratto di difesa basato sull’intelligenza artificiale generativa (GenAI) a Jericho Security, una startup innovativa nel campo della cybersecurity. Questo contratto segna un passo significativo nell’integrazione delle tecnologie avanzate nella strategia di difesa degli Stati Uniti, evidenziando l’importanza crescente dell’AI generativa nella protezione delle infrastrutture critiche e nella prevenzione delle minacce informatiche.

La Governance dell’Intelligenza Artificiale negli Stati Uniti: Implicazioni di un Nuovo Ordine Esecutivo

La discussione sulla governance dell’intelligenza artificiale negli Stati Uniti è stata recentemente intensificata, con un focus particolare sull’ordine esecutivo (EO) emesso sotto l’amministrazione Biden e le sue implicazioni per enti chiave come il National Institute of Standards and Technology (NIST) e l’AI Safety Institute (AISI). In una riflessione precedente, avevo sottolineato che gran parte di questa governance si fonda sull’EO, incluso l’AISI, ma alcuni lettori hanno prontamente fatto notare che l’AISI non è effettivamente menzionato nell’EO. Questo spunto di riflessione merita una correzione e una comprensione più approfondita, specialmente alla luce di alcune nuove informazioni emerse recentemente.

Crosetto: Un Futuro Sicuro con l’Intelligenza Artificiale Ibrida

L’Italia sta puntando in modo deciso sull’intelligenza artificiale (IA) come pilastro della sicurezza nazionale. In questo contesto, il ministro della Difesa Guido Crosetto ha delineato una strategia volta a integrare tecnologie ibride avanzate nel settore della cybersecurity. Questo approccio prevede la combinazione di IA, cloud computing e infrastrutture digitali spaziali, mirando a proteggere le infrastrutture critiche e a rispondere a minacce sempre più sofisticate. Tale strategia punta a rendere l’Italia resiliente e capace di difendersi da attacchi informatici che spaziano da attori statali a gruppi criminali e terroristici, spesso intenzionati a destabilizzare il paese attraverso il cyberspazio.

Vietnam: la proposta di legge Data Protection Laws

REUTERS: Il panorama tecnologico globale sta affrontando un nuovo dibattito sull’equilibrio tra protezione dei dati e opportunità di investimento, come dimostrato dalla recente proposta di legge in Vietnam che cerca di inasprire le regole sulla protezione dei dati e limitare i trasferimenti di dati all’estero. Un gruppo commerciale che rappresenta le aziende tecnologiche statunitensi ha avvertito il governo vietnamita che tali normative potrebbero ostacolare la crescita delle aziende di social media e degli operatori di data center nel paese.

Vietnam si è affermato come uno dei mercati più grandi per Facebook, di proprietà di Meta Platforms, e altre piattaforme online. Il paese ha anche l’intenzione di espandere la propria industria dei data center attraverso investimenti esteri nei prossimi anni. Tuttavia, la proposta di legge attualmente in discussione potrebbe cambiare drasticamente il panorama dell’industria tech.

Strategie per la Sopravvivenza: L’Analisi del Global Catastrophic Risk Management Act e la Sfida delle Minacce Esistenziali

Le minacce catastrofiche ed esistenziali rappresentano un pericolo concreto per la civiltà umana, poiché pongono in gioco la sopravvivenza e il benessere a lungo termine dell’umanità. È con questa consapevolezza che il Congresso degli Stati Uniti ha approvato nel 2022 il Global Catastrophic Risk Management Act, una legge che delega al Dipartimento di Sicurezza Interna e alla Federal Emergency Management Agency (FEMA) il compito di coordinare un’analisi globale delle minacce catastrofiche e dei rischi correlati. Per realizzare questo obiettivo, la Direzione per la Scienza e la Tecnologia del Dipartimento di Sicurezza Interna, insieme a FEMA, ha richiesto il supporto del Homeland Security Operational Analysis Center. I risultati emersi da questa analisi rappresentano un importante passo avanti nella comprensione e nella gestione di rischi che potrebbero influire profondamente sull’umanità.

Anthropic Lancia l’Allarme: Regolamentazione Urgente sull’IA per Evitare Rischi Catastrofici

Anthropic, uno dei protagonisti più attivi nel campo dell’Intelligenza Artificiale (IA), ha recentemente sollecitato i governi di tutto il mondo ad adottare misure rapide e incisive per regolamentare i rischi potenzialmente catastrofici legati all’avanzamento dell’IA. Secondo l’azienda, il tempo per un’azione preventiva si sta rapidamente esaurendo, e ogni ritardo potrebbe compromettere seriamente la capacità dei governi di prevenire potenziali crisi legate a questa tecnologia.

L’azienda sottolinea che il ritmo dello sviluppo dell’IA è tale da giustificare questa urgenza. Circa un anno fa, Anthropic aveva avvisato che i modelli di IA di frontiera avrebbero potuto presentare rischi significativi nel campo della sicurezza informatica e delle minacce chimiche, biologiche, radiologiche e nucleari (CBRN) entro un periodo di 2-3 anni. Oggi, l’azienda avverte che siamo già molto più vicini a quel tipo di rischi di quanto si pensasse inizialmente.

Deeplomacy système d’alerte précoce, Diplomatie Prédictive : Un Bouclier Contre l’Instabilité

À mesure que les relations internationales deviennent de plus en plus complexes, Deeplomacy, une plateforme développée par 2i3T à l’Université de Turin, se distingue comme un phare d’innovation. Sa mission ambitieuse : transformer l’incertitude en actions ciblées grâce à l’intelligence artificielle et à l’apprentissage automatique. Avec une augmentation de 12 % des conflits mondiaux par rapport à 2022 et une hausse impressionnante de 40 % depuis 2020, il est évident que les approches traditionnelles de la diplomatie et de la gestion des crises nécessitent une mise à jour révolutionnaire.

L’Intelligenza Artificiale nel campo di battaglia: l’approccio della Cina all’AI militare

A settembre, il tenente generale He Lei, ex vicedirettore dell’Accademia delle scienze militari (AMS), ha esortato le Nazioni Unite a stabilire restrizioni sull’uso dell’intelligenza artificiale (IA) in contesti bellici. Tuttavia, questo appello sembra nascondere un intento più profondo: la Repubblica Popolare Cinese (RPC) non sta cercando di limitare i rischi associati all’IA militare, ma piuttosto sta accelerando l’integrazione della tecnologia IA nelle proprie forze armate. La RPC sta attivamente sfruttando le tecnologie occidentali, come il modello open source Llama di Meta, per potenziare le proprie capacità militari e i vantaggi strategici.

Lama di Meta nelle Mani del PLA: L’intelligenza Artificiale Open Source al Servizio della Difesa Militare Cinese

Gli istituti di ricerca cinesi, con stretti legami con l’Esercito Popolare di Liberazione (PLA), hanno sviluppato un modello di intelligenza artificiale (IA) denominato ChatBIT, basato sull’IA open source Llama, creata da Meta. Questo sviluppo è stato documentato in un articolo accademico pubblicato a giugno, in cui gli autori, tra cui ricercatori del PLA, hanno illustrato l’utilizzo di ChatBIT per finalità che spaziano dall’analisi dell’intelligence alla pianificazione strategica e al processo decisionale nel contesto militare. Secondo quanto riportato da Reuters, ChatBIT rappresenta un potenziale strumento per potenziare le capacità del PLA, puntando a ottimizzare il processo decisionale a vari livelli di comando.

Tra i ricercatori cinesi figurano Geng Guotong e Li Weiwei del Military Science Information Research Center dell’AMS e del National Innovation Institute of Defense Technology, oltre a ricercatori del Beijing Institute of Technology e della Minzu University

Slitta il decreto sulla cybersicurezza

L’atteso decreto in materia di cybersicurezza slitta, improvvisamente, alla seconda metà di novembre. Il provvedimento, così come previsto, affiderebbe la competenza investigativa sulla criminalità informatica alla Procura nazionale antimafia – che dipende dal Ministero della Giustizia – limitando, di fatto, le competenze dell’Agenzia per la cybersicurezza nazionale – che dipende invece dalla Presidenza del Consiglio. Formalmente il rinvio sarebbe dovuto alla necessità di “aggiustamenti” e di coinvolgere il Quirinale sul tema, anche se i più maliziosi voluto leggere, dietro alla vicenda, un possibile segnale di conflitto tra Carlo Nordio e Alfredo Mantovano sui poteri e le competenze dei rispettivi Ministeri, tant’è che, contrario all’attuale formulazione del decreto, sarebbe anche Bruno Frattasi, attuale direttore dell’ACN, l’Agenzia per la Cybersicurezza Nazionale.

GPT-4o: Rivela Capacità Avanzate e Sicurezza Potenziata nel Nuovo Modello di OpenAI

OpenAI ha appena pubblicato una scheda tecnica di 33 pagine dedicata al modello GPT-4o, svelando dettagli significativi su capacità, sicurezza e ambiti di utilizzo che lo collocano tra le innovazioni più avanzate nel campo dell’intelligenza artificiale. Questo aggiornamento va ben oltre le funzionalità delle versioni precedenti e offre uno spaccato delle nuove potenzialità del modello, inclusa una simulazione quasi perfetta della rapidità e fluidità della conversazione umana, con un tempo di risposta di appena 320 millisecondi.

Sicurezza nazionale e Intelligenza Artificiale: le nuove direttive di Biden per l’industria tech. Executive Order on AI

L’amministrazione Biden ha recentemente rilasciato un memorandum sulla sicurezza nazionale, strutturato per affrontare i rischi emergenti nell’uso dell’intelligenza artificiale (IA) da parte delle agenzie federali e delle aziende private. Questo memorandum si fonda su un ordine esecutivo emesso nell’ottobre 2023, e mira a creare una collaborazione più stretta tra il governo e il settore privato, enfatizzando la necessità di prevenire l’uso dell’IA per scopi pericolosi, tra cui lo sviluppo di armi di distruzione di massa o attacchi autonomi.

Italia: quando la sicurezza diventa un gioco pericoloso

Possiamo immaginare alcuni leader come proprietari di una casa senza serratura. Non si rendono conto che la loro sicurezza è compromessa e che un’apertura così evidente attira intrusi. Senza un’adeguata protezione delle informazioni e dei sistemi, è facile per malintenzionati entrare e mettere in pericolo non solo la privacy individuale, ma anche l’intero sistema politico. Proprio come un proprietario deve garantire che la propria casa sia sicura, così i leader devono impegnarsi a proteggere le loro informazioni e a rafforzare le misure di sicurezza per prevenire accessi indesiderati.

Recenti rivelazioni hanno messo in luce una situazione allarmante che coinvolge non solo la sicurezza nazionale, ma anche la privacy e la riservatezza dei più alti rappresentanti dello Stato. L’inchiesta condotta dalla Direzione Distrettuale Antimafia (DDA) di Milano e dalla Procura Nazionale Antimafia ha svelato un sofisticato sistema di spionaggio industriale e dossieraggio abusivo, orchestrato da una rete di hacker. Tra i dettagli più inquietanti, la possibile violazione dell’email del Presidente della Repubblica, Sergio Mattarella, segna una nuova frontiera nella violazione della sicurezza istituzionale in Italia.

USA e Canada contro gli attacchi cyber sponsorizzati dalla Cina

Gli Stati Uniti e il Canada stanno rafforzando le difese contro potenziali minacce cyber attribuite ad attori sponsorizzati dalla Cina, mirate a infrastrutture critiche e istituzioni democratiche. Dopo che l’FBI ha rilevato attività sospette nei confronti del settore delle telecomunicazioni, la Cybersecurity and Infrastructure Security Agency (CISA) ha collaborato strettamente con le aziende colpite, offrendo assistenza tecnica e condividendo rapidamente informazioni per prevenire ulteriori attacchi.

Cybersecurity, sicurezza nazionale e dati sensibili: la minaccia dei Data Breach nelle banche dati pubbliche

L’indagine sul prelievo di migliaia di informazioni sensibili da banche dati strategiche nazionali condotta dalla Procura di Milano e dalla Direzione nazionale antimafia, che ha portato al momento a sei misure cautelari, sembra allargarsi in modo imprevedibile, tant’è che il procuratore antimafia Melillo parla di “vicenda allarmante” e di “dimensione imprenditoriale” del fenomeno.

Fincantieri e Mind the Bridge insieme: innovazione Dual-Use per una nuova era nella difesa e tecnologia

Con un passo strategico verso l’open innovation, Fincantieri, uno dei leader mondiali nella costruzione di navi ad alta intensità tecnologica, ha annunciato l’apertura di una nuova Innovation Antenna presso il Mind the Bridge Innovation Center a San Francisco. L’iniziativa, che colloca l’azienda italiana nel cuore della Silicon Valley, conferma il suo impegno nel creare un ecosistema dove tecnologie Dual-Use, applicabili quindi sia nel settore civile che in quello militare, possano trovare terreno fertile e svilupparsi attraverso collaborazioni e sinergie. Gli ambiti di sviluppo riguardano principalmente l’Intelligenza Artificiale, la cyber security, l’automazione e la robotica, settori in cui la convergenza tra applicazioni civili e militari è particolarmente marcata.

La Casa Bianca ordina al Pentagono di aumentare l’uso dell’IA

L’amministrazione Biden ha rilasciato un memorandum di sicurezza nazionale che richiede al Pentagono e alle agenzie di intelligence di intensificare l’uso dell’intelligenza artificiale. Questo documento non solo stabilisce le aspettative per l’integrazione dell’IA nelle operazioni militari, ma sottolinea anche l’importanza di proteggere gli strumenti di IA delle aziende statunitensi dai tentativi di furto da parte di spie straniere.

Il memorandum specifica, tuttavia, che le agenzie governative non possono utilizzare l’IA per monitorare il discorso degli americani o eludere i controlli esistenti sulle armi nucleari. Questa direttiva evidenzia una tensione fondamentale tra l’innovazione tecnologica e la protezione dei diritti civili, ponendo limiti chiari per garantire che l’uso dell’IA non comprometta la privacy dei cittadini.


Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Dopo l’AI i computer quantistici: la prossima rivoluzione nella cybersicurezza secondo Amir Rapaport

L’Intelligenza Artificiale ha rivoluzionato completamente il digitale e la cybersicurezza, la prossima rivoluzione sarà con l’arrivo dei computer quantistici tra pochi anni: a ipotizzare il futuro del settore è Amir Rapaport, l’ideatore e organizzatore di CyberTech Europe che si è appena conclusa a Roma.

Gen. Mark Milley: il futuro della Difesa: l’avvento delle forze militari robotiche e l’Intelligenza Artificiale


Negli ultimi anni, i progressi nell’intelligenza artificiale (AI) e nei sistemi autonomi hanno iniziato a cambiare radicalmente il panorama militare. Secondo il generale Mark Milley, ex Presidente del Comitato dei Capi di Stato Maggiore degli Stati Uniti, entro i prossimi 10-15 anni tra il 25% e il 33% delle forze armate statunitensi potrebbe essere costituito da unità robotiche. Milley ha fatto queste osservazioni durante un evento organizzato da Axios, sottolineando che il futuro delle operazioni militari sarà fortemente caratterizzato dall’integrazione di AI e robotica.

Come affermato nella Strategia di Difesa Nazionale, la missione primaria del DoD è quella di fornire forze militari credibili sul campo per dissuadere la guerra e proteggere la sicurezza della nazione. Mantenere un vantaggio tecnologico e militare è fondamentale per adempiere a questa missione, ma non deve avvenire a scapito dei valori democratici che sono alla base del sistema di governo statunitense. Lo sviluppo e l’uso dell’IA da parte del DoD riflette questa sfida: mantenere la supremazia tecnologica senza compromettere principi etici e legali fondamentali.

ComoLake2024 The Great Challenge. Roberto Cingolani e le sfide globali: tecnologia, sicurezza dei dati e conflitti mondiali

Al ComoLake 2024, Roberto Cingolani, CEO di Leonardo, ha tenuto un discorso profondo e stimolante, affrontando le complesse sfide e opportunità che emergono dall’intersezione tra tecnologia, sicurezza dei dati e conflitti globali. Le sue riflessioni risuonano in modo particolare nel contesto dell’attuale panorama digitale, che evolve a un ritmo incessante e solleva nuove domande sulla sicurezza e la gestione delle informazioni. Cingolani ha presentato un quadro ricco di spunti, ponendo l’accento sulla necessità di strategie integrate per affrontare le minacce contemporanee.

G7 Difesa al via a Napoli. Sul tavolo Ucraina, Libano e Indo-Pacifico, ma anche guerra ibrida e cybersicurezza

E’ in corso il G7 Difesa a Napoli, presieduto dal Ministro Crosetto in occasione del quale le delegazioni – composte oltre che dai Ministri della Difesa, anche dal segretario generale della Nato Mark Rutte e dall’Alto rappresentante dell’Unione Europa per gli affari esteri e la politica di sicurezza, Josep Borrell – si confronteranno sui principali conflitti e sulle aree di instabilità a livello globale: oltre alla guerra in Ucraina, sul tavolo anche la situazione in Medioriente, in particolare all’indomani della morte del capo di Hamas Yahya Sinwar e gli equilibri nel continente africano e nella regione dell’Indo-Pacifico.

Si tratta di un appuntamento di particolare rilievo perché per la prima volta nella storia del G7 è stata prevista una riunione ministeriale dedicata alla difesa: una decisione assunta dalla Presidenza italiana del G7 “per promuovere il ruolo del G7 quale efficace forum di consultazione anche per individuare un approccio condiviso a tematiche di carattere politico-militare“.

L’AI di Thales gestirà gli imbarchi sugli aerei in India

L’Intelligenza Artificiale gestirà in modo sicuro il flusso dei passeggeri e il riconoscimento biometrico, per gli imbarchi sugli aerei di alcuni aeroporti in India. E’ il risultato nella nuova partnership stipulata tra Thales e la Adani Airport Holding, il più grande operatore aeroportuale privato dell’India.

Report: 670milioni di dollari da parte del Dipartimento della Difesa Usa per l’AI

Secondo un’analisi di Fortune, le forze di difesa e di sicurezza degli Stati Uniti stanno investendo massicciamente nell’Intelligenza Artificiale, collaborando con centinaia di aziende per sviluppare e testare nuovi algoritmi e strumenti in modo sicuro.

Nei due anni trascorsi dal rilascio del chatbot ChatGPT di OpenAI, che ha scatenato un forte interesse globale per l’AI, il Dipartimento della Difesa ha destinato circa 670 milioni di dollari in contratti a quasi 323 aziende per vari progetti legati all’Intelligenza Artificiale. Questi numeri segnano un incremento del 20% rispetto al 2021 e al 2022, sia per il numero di aziende coinvolte che per il valore complessivo dei contratti.

Intervista a Elia Lombardo sulla Polizia Predittiva, XLAW e KeyCrime riflessioni

I sistemi XLAW e KeyCrime rappresentano approcci innovativi nell’ambito della sicurezza urbana e della prevenzione della criminalità, utilizzando tecnologie avanzate di analisi dei dati e intelligenza artificiale.

Nel recente dibattito sull’uso della polizia predittiva in Europa, è evidente che molti tendono a confondere diversi sistemi come se fossero simili per logica e obiettivi.

Dopo aver letto il saggio La predictive policing nel regolamento europeo sull’intelligenza artificiale” di Elisabetta Pietrocarlo, è arrivato il momento di fare chiarezza, soprattutto sui sistemi come XLAW e KeyCrime.

La rivoluzione dell’Intelligenza Artificiale: le implicazioni strategiche per la difesa del XXI Secolo

Negli ultimi anni, il progresso nell’Intelligenza Artificiale ha iniziato a trasformare ogni settore della società e a riscrivere le regole del conflitto e della sicurezza internazionale. In questo articolo, esploreremo le implicazioni per la Difesa e analizzeremo come il Ministero della Difesa del Regno Unito (MOD UK) stia rivalutando le sue priorità alla luce del rapido sviluppo dell’AI e dell’AGI (Intelligenza Artificiale Generale). Questo tema non riguarda solo il futuro prossimo, ma avrà effetti strategici di vasta portata fino al 2050 e oltre, ridefinendo la natura della guerra e la sicurezza globale.

Jailbreaking LLM-Controlled Robots

Vulnerabilità critiche nei robot con Intelligenza Artificiale: sfide e opportunità per il futuro della sicurezza

Nel panorama in continua evoluzione dell’intelligenza artificiale (IA) e della robotica, le innovazioni portano con sé non solo opportunità rivoluzionarie, ma anche rischi significativi. Un recente studio condotto dai ricercatori di Penn Engineering ha evidenziato una serie di vulnerabilità critiche nei robot alimentati da IA, rivelando potenziali scenari in cui questi sistemi possono essere manipolati per compiere azioni pericolose, come ignorare semafori rossi o, in situazioni estreme, detonare bombe.

La centralità della guerra dell’informazione nelle dinamiche contemporanee: una riflessione strategica sulla gestione del caos

Negli ultimi decenni, il concetto di guerra ha subito una trasformazione profonda, spostando progressivamente il fulcro dallo scontro fisico al dominio delle informazioni. Questa evoluzione ha reso la guerra dell’informazione una componente predominante nella geopolitica moderna, con implicazioni strategiche che trascendono i confini convenzionali della forza militare. L’evoluzione tecnologica e la globalizzazione delle comunicazioni hanno creato un contesto nel quale l’informazione non è solo un mezzo di supporto, ma uno strumento di guerra in sé, capace di plasmare percezioni, orientare ideologie e influenzare decisioni politiche su larga scala.

Gli scienziati cinesi utilizzano computer quantistici per decifrare la crittografia di livello militare — l’attacco quantistico rappresenta una “minaccia reale e sostanziale” per RSA e AES

La recente scoperta (in allegato) dei ricercatori cinesi, guidati da Wang Chao dell’Università di Shanghai, rappresenta una svolta significativa nel campo del calcolo quantistico e della cybersecurity. Utilizzando un computer quantistico D-Wave, il team è riuscito a violare metodi di crittografia ampiamente utilizzati, tra cui gli algoritmi RSA e Advanced Encryption Standard (AES). Questo risultato non solo evidenzia il potenziale della computazione quantistica di minacciare le attuali misure di sicurezza, ma sottolinea anche la necessità urgente di sviluppare soluzioni crittografiche resistenti ai quanti.

Come l’FBI combatte gli attacchi informatici

L’FBI combatte gli attacchi informatici attraverso una serie di strategie avanzate. L’FBI è responsabile di investigare e prevenire le minacce informatiche, specialmente in settori critici come la sanità, dove attacchi ransomware o violazioni di dati sensibili possono avere impatti devastanti.

Palmer Luckey: il futuro del campo di battaglia

Palmer Luckey figura controversa, è considerato un visionario nel campo delle tecnologie emergenti, sia per quanto riguarda la realtà virtuale che le applicazioni militari avanzate.

Capitolo 1: la visione di Palmer

Era una mattina di primavera quando Palmer Luckey, il fondatore di Anduril, ricevette una chiamata cruciale. La sua azienda, nota per la sua innovativa piattaforma Lattice, era stata selezionata per collaborare con Microsoft su un progetto rivoluzionario: l’integrazione del software di Anduril con il sistema di visualizzazione IVAS dell’esercito degli Stati Uniti. L’obiettivo? Trasformare la guerra moderna attraverso la tecnologia.

Istituto giapponese per la sicurezza dell’intelligenza artificiale ha pubblicato una guida sulle metodologie di red teaming

AIセーフティに関するレッドチーミング手法ガイドの公開

Nell’era dell’intelligenza artificiale (AI), la sicurezza dei sistemi che utilizzano questa tecnologia è diventata una priorità fondamentale. Di fronte a minacce sempre più sofisticate, l’Istituto giapponese per la sicurezza dell’intelligenza artificiale ha recentemente pubblicato una guida dettagliata sulle metodologie di red teaming, un approccio strategico volto a identificare e mitigare le vulnerabilità nei sistemi AI.

Cos’è il Red Teaming?

Il red teaming è un metodo di valutazione della sicurezza in cui esperti, noti come “red team”, emulano le tattiche e le tecniche di attacco degli aggressori per testare la resilienza di un sistema. Questo approccio non si limita a identificare vulnerabilità tecniche; si estende anche all’analisi dell’impatto sociale ed etico delle soluzioni AI. La guida dell’istituto giapponese sottolinea l’importanza di un approccio multidisciplinare, che combina competenze tecniche con una comprensione profonda delle implicazioni etiche e sociali.

Dataminr EWS

Dataminr è una piattaforma di intelligenza artificiale specializzata nel rilevamento in tempo reale di eventi critici e rischi. Utilizza modelli avanzati di fusione multi-modale, che integrano diverse fonti di dati pubblici, come testi, immagini e dati da sensori, per generare avvisi tempestivi su eventi emergenti. Il sistema sfrutta oltre 50 modelli di intelligenza artificiale proprietari, supportati da una tecnologia chiamata ReGenAI, che aggiorna continuamente le informazioni in tempo reale.

Questa piattaforma è utilizzata da settori come sicurezza aziendale, pubblica sicurezza e media per rispondere a minacce in rapida evoluzione.

L’uso dell’Intelligenza Artificiale nei rapporti di polizia: svolta tecnologica o rischio per la giustizia?

La città di East Palo Alto, una comunità operaia che sembra lontana anni luce dai vicini di Silicon Valley, è uno dei primi dipartimenti di polizia in California ad adottare un nuovo strumento di intelligenza artificiale (AI) per la stesura di rapporti di polizia. L’ufficiale Wendy Venegas ha recentemente affrontato una situazione delicata con una quattordicenne trovata in lacrime lungo una strada residenziale. Il padre della ragazza, dopo averla sorpresa con il fidanzato, aveva aggredito quest’ultimo, portando all’intervento della polizia. Nulla di straordinario in un contesto di routine operativa, ma la vera novità è emersa quando Venegas ha dovuto redigere il rapporto sull’incidente. (the Guardian)

Control AI: un’iniziativa per la regolamentazione e la sicurezza dell’Intelligenza Artificiale

Control AI è un’organizzazione che si dedica alla regolamentazione e alla gestione dei rischi associati all’intelligenza artificiale (IA). La sua missione è quella di promuovere politiche e pratiche che garantiscano lo sviluppo sicuro e responsabile dell’IA, affrontando le sfide legate alla privacy, ai bias, alla manipolazione delle informazioni e alla sicurezza globale.

Control AI propone misure come la creazione di regimi di licenza per la ricerca sull’IA e divieti su determinate direzioni di ricerca, al fine di prevenire lo sviluppo di sistemi di IA potenzialmente pericolosi, come la superintelligenza artificiale. L’organizzazione cerca di mobilitare risorse e talenti per costruire un consenso globale su come gestire i rischi legati all’IA avanzata e promuove un dialogo inclusivo tra i decisori politici, i ricercatori e la società civile.

Control AI ha pubblicato un piano politico intitolato A Narrow Path (Un Sentiero Stretto), volto ad affrontare i rischi associati all’intelligenza artificiale (IA). Questo piano propone un divieto allo sviluppo di superintelligenza artificiale nei prossimi 20 anni e delinea tre regimi di licenza insieme a divieti su alcune direzioni di ricerca. Tuttavia, la fattibilità dell’implementazione di tali misure appare discutibile.

Polizia Predittiva: Patternizr

Rivista.AI ha recentemente trattato il tema della polizia predittiva, con particolare focus sul software X-Law, ideato da Elia Lombardo. Questo sistema rappresenta un approccio innovativo nella prevenzione dei crimini, utilizzando algoritmi probabilistici per analizzare dati provenienti da denunce e informazioni socio-economiche. L’obiettivo è prevedere con alta precisione il verificarsi di crimini, in particolare quelli di tipo predatorio come furti e rapine

In questo vogliamo analizzare Patternizr, un innovativo strumento di analisi dei crimini sviluppato internamente dal NYPD, implementato nel dicembre 2016 e recentemente rivelato attraverso un articolo pubblicato nell’INFORMS Journal on Applied Analytics.

Questo sistema utilizza un insieme di modelli di apprendimento automatico per identificare pattern tra i crimini, analizzando centinaia di migliaia di segnalazioni in tutti i 77 distretti della città.

Un “pattern” è definito come una serie di crimini che probabilmente sono stati commessi dallo stesso autore o da autori simili, basandosi su caratteristiche identificative. Prima dell’adozione di Patternizr, gli analisti erano costretti a esaminare manualmente i rapporti, un processo lungo e inefficiente, limitato a singoli distretti e soggetto a errori umani.

Con l’introduzione di questo strumento, il NYPD ha assunto circa 100 nuovi analisti formati per utilizzare Patternizr nella loro routine quotidiana, migliorando notevolmente l’efficienza nell’identificazione dei crimini correlati.

Devora Kaye, portavoce del NYPD, ha sottolineato l’importanza dell’analisi avanzata nel garantire la sicurezza pubblica, affermando che essa deve essere trasparente e soggetta a valutazione continua per garantirne l’equità e l’efficacia. Tuttavia, l’uso di Patternizr ha sollevato preoccupazioni riguardo ai potenziali bias nell’analisi dei dati, evidenziando la necessità di mantenere un controllo umano sui risultati generati dal sistema.

Pagina 3 di 4

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie