Passando al fronte statunitense, il DoD ha pubblicato il documento ufficiale “Responsible Artificial Intelligence Strategy & Implementation Pathway” (RAI S&I Pathway), datato giugno 2022. Questo è il cuore dell’approccio del Dipartimento della Difesa USA all’IA responsabile, con implicazioni massicce su governance, fiducia, ciclo di vita del prodotto, forza lavoro e requisiti operativi.
L’obiettivo dichiarato: garantire che l’adozione dell’IA avvenga in modo etico, sicuro, affidabile, scalabile e rapido, preservando al contempo il vantaggio strategico americano. Nel foreword, la vice-segretaria Kathleen Hicks afferma che è essenziale integrare l’etica fin dall’inizio, così da costruire fiducia interna ed esterna (alleati, coalizioni) nelle capacità AI.
La strategia si appoggia su sei tenets operativi (“implementation tenets”) che sono il perno dell’esecuzione: (1) governance RAI; (2) warfighter trust; (3) AI product & acquisition lifecycle; (4) requirements validation; (5) responsible AI ecosystem; (6) AI workforce. Ogni tenet ha molte “linee d’impegno” (line of effort): in totale oltre 60 (alcune fonti parlano di 64) azioni specifiche che il DoD seguirà per trasformare la strategia in operatività.
Governance: definire ruoli, responsabilità, strutture decisionali per assicurare che l’IA sia usata in modo coerente con i principi etici del DoD. Serve un meccanismo per supervisionare non solo lo sviluppo ma l’uso operativo, con pesi e bilanciamenti.
Trust del warfighter: il documento evidenzia che gli operatori (soldati, comandanti) devono poter avere “giustificata fiducia” nei sistemi IA. Non è sufficiente che la macchina funzioni: l’utente umano deve capire, prevedere, fidarsi del comportamento della IA o poter intervenire.
Ciclo di vita prodotto e acquisizione: l’IA deve essere trattata come elemento integrato in un sistema più grande. Non basta sviluppare un algoritmo standalone: il DoD considera il ciclo completo sviluppo, test, acquisizione, deployment, manutenzione con criteri di responsabilità e verifica dell’etica in ogni fase.
Validazione dei requisiti: verificare che i sistemi IA rispondano ai requisiti operativi reali, non solo tecnologici. Questo implica un processo rigoroso di “requirements validation” per assicurare che l’uso dell’IA non generi rischi non controllati, né venga sovrainvestito in capacità inutili o pericolose.
Ecosistema responsabile: significa costruire non solo internamente, ma anche collaborare con esterni — industrie, università, centri R&D — su standard, strumenti, toolkit. Il documento prevede infatti la creazione di un ecosistema in cui linee guida, strumenti di valutazione, best practice circolano e vengono adottate. In quest’ottica è stato lanciato il Responsible AI Toolkit, uno strumento modularizzato (assessment, checklist, artefatti) per guidare progetti AI nella conformità ai princìpi etici.
Forza lavoro AI: il DoD riconosce che per rendere tutto questo realtà serve personale preparato: non solo ingegneri AI, ma anche operatori, decisori, comandanti con competenze in etica, governance, interfaccia uomo-macchina. Si punta a formare, sensibilizzare e sviluppare competenze trasversali.
Un aspetto critico è il monitoraggio: la strategia prevede un “monitoring / management layer” che tracci lo stato di adozione su tutto il DoD, raccogliendo metriche, dati da pipeline MLOps, insight da aree missione congiunte per focalizzare gli investimenti.
Inoltre, l’approccio del DoD sottolinea un equilibrio fra velocità e controllo: il documento afferma che non si vuole rallentare l’innovazione, ma integrare l’etica fin da subito per evitare costosi errore morali o operativi.
Il rilascio del Responsible AI Toolkit (novembre 2023) è una pietra miliare operativa: guidato dal CDAO (Chief Digital & AI Office), il toolkit è stato costruito su framework consolidati (NIST AI RMF, IEEE 7000) ed è pensato come un processo modulare da adattare al ciclo di vita di ogni progetto IA.