Partiamo dal documento UK intitolato “Decision-making: how do human-machine teamed decision-makers, make decisions?” (Concept Information Note 4), pubblicato su GOV.UK a maggio 2024. (vedi GOV.UK Assets)
Nell’ambito della difesa e della sicurezza, la quantità di dati “da processare” è ormai un oceano. I comandanti umani non possono cognitivamente sostenere tutto: ecco l’alleanza macchina-uomo, dove l’IA gestisce l’analisi massiva e il pattern recognition, e l’umano fornisce contesto, esperienza, intuizione, giudizio morale. Il documento parla di “teaming”, non solo automazione: non è che la macchina fa tutto e l’umano sta a guardare, ma una collaborazione strutturata.
Il documento sottolinea una distinzione cognitiva netta: le macchine eccellono nell’analisi quantitativa, nelle correlazioni complesse, ma non “capiscono” come fa un essere umano non hanno coscienza, non hanno consapevolezza, non provano “intuizione” nel senso classico. L’umano, invece, è migliore quando c’è incertezza, ambiguità, e quando serve improvvisazione o creatività basata sull’esperienza sul campo.
Una parte cruciale del concept note riguarda i bias cognitivi umani: gli autori evidenziano come gli esseri umani siano intrinsecamente soggetti a distorsioni decisionali (ricerca di conferma, overconfidence, euristiche di availability, ecc.), e come una macchina ben progettata possa compensare questi limiti. Ma non è magic: la macchina può dare raccomandazioni, ma deve esserci una “intelligenza contestuale” umana per validare, interpretare e, se necessario, correggere.
Il documento definisce anche una “scala di decision making” ibrido: non è solo automazione piena o solo controllo umano, ma vari livelli intermedi. Ad esempio, in uno scenario “continuum intermedio”, l’umano definisce obiettivi, vincoli, priorità; la macchina analizza dati e genera opzioni; l’umano sceglie, modifica, rigetta. Questo approccio sfrutta il meglio di entrambi.
Risulta interessante anche la trattazione epistemologica nel concept note: una macchina non “comprende” come un umano; il testo cita autori filosofici che discutono se una macchina possa avere “coscienza” o “capire” in senso umano. Questo non è un dettaglio accessorio: ha implicazioni etiche, perché la “comprensione” influenza la fiducia, l’affidabilità e l’accountability delle decisioni. Se la macchina “non capisce”, quanto possiamo delegarle decisioni critiche?
Sul tema della scala (“scale of human-machine decision making”), il documento evidenzia che le attuali operazioni militari sono sempre più VUCA (volatilità, incertezza, complessità, ambiguità), e in tali contesti la collaborazione macchina-uomo non è un lusso, è una necessità. Il rischio, altrimenti, è che gli umani vadano in overload cognitivo o commettano errori sistematici.
C’è anche un punto cruciale di governance: che livello di “controllo umano appropriato” deve esserci, in particolare nelle funzioni critiche o letali? Il documento suggerisce che non basta un controllo superficiale o “on-the-loop”: occorre progettare l’interfaccia, l’addestramento, i parametri operativi in modo che l’umano abbia sensibilità sulla macchina, capisca i limiti del sistema e sappia intervenire. Questo non è un dettaglio UI: è un imperativo per evitare deleghe irresponsabili. Anche la responsabilità legale e morale deve restare umana in contesti decisionali critici.
Un’altra dimensione che il concept note esplora è la fiducia: come costruire un rapporto operativo stabile tra umani e macchine. Non basta che la macchina sia “potente”: deve essere prevedibile, coerente, spiegabile. La fiducia si guadagna quando gli umani possono prevedere il comportamento della macchina, capirne (almeno in parte) le ragioni, e intervenire quando serve.
Il testo si presta a riflessioni strategiche: l’implementazione su larga scala di team umano-macchina non è solo una questione tecnica, ma modifica la struttura decisionale, l’architettura organizzativa della difesa, il modo in cui i comandanti operano. Questo richiede formazione, doctrine (dottrina), linee guida etiche robuste e una cultura che accetti l’IA come partner, non solo strumento.
Questo documento UK è parte di un più ampio framework strategico: si inserisce nel contesto della Defence AI Strategy britannica, che mira a rendere il Ministero della Difesa “AI-ready” e ad adottare IA su larga scala in modo responsabile. Inoltre, il concetto di “teaming” è già formalizzato in una Joint Concept Note (JCN 1/18) del MOD. vedi