Roma, Centro Alti Studi della Difesa. Fuori, il Tevere scorre nella mattina di febbraio. Dentro, in un’aula che ospita ufficiali e civilian strategists da, il Generale Fernando Giancotti sta per mettere in crisi le nostre certezze o, più precisamente, a insegnarci a farlo da soli.

Non è una lezione tradizionale. Gli acronimi ci sono, ma servono da chiave di volta per qualcosa di più ambizioso: insegnare a pensare in modo sistematicamente diverso nell’era dell’intelligenza artificiale.

Il Centro Alti Studi della Difesa (CASD) è l’istituzione italiana di eccellenza per la formazione della leadership strategica. Qui si incrociano generali, diplomatici, funzionari pubblici e ricercatori in programmi che guardano al futuro delle crisi internazionali, della governance complessa, della sicurezza globale. In questo contesto, il Generale Giancotti porta un framework che ha sviluppato insieme al collega Shaharabani in anni di ricerca e operazioni sul campo: il CAL Loop.

Il Mondo che Volevamo Descrivere con Quattro Lettere

Prima di arrivare al CAL Loop, Giancotti porta l’aula a fare i conti con una parola che molti usano e pochi capisc⁸ono davvero: complessità. Non come sinonimo di “complicato”: una macchina è complicata, ma le sue parti si possono studiare e comprendere separatamente. Un sistema complesso, profondamente interconnesso: emergente, adattivo, imprevedibile nella sua totalità anche quando si conoscono le parti.

Il ContestoIl La Master Index Exercise (MAINDEX) è una esercitazione del Master 2° Livello in Leadership e Soft Skills del CASD. La MAINDEX 26-1 è la prima sessione del 2026.

Il contesto operativo contemporaneo viene descritto con l’acronimo VUCAR — Volatile, Uncertain, Complex, Ambiguous, Rapid — evoluzione del più noto VUCA dell’esercito americano, con l’aggiunta di quel “Rapid” che non è un orpello: è la cifra distintiva del presente. Le cose non solo cambiano. Cambiano più velocemente di quanto i nostri sistemi decisionali siano strutturalmente attrezzati a gestire.

“Il problema non è che il mondo sia diventato più complicato,” spiega Giancotti. “Il problema è che è diventato più complesso e più veloce contemporaneamente e a questa combinazione, come fa notare un uffuciale della Marina, i nostri strumenti tradizionali gerarchie rigide, cicli decisionali lenti, specializzazione verticale rispondono male.”

La legge che nessuno ha violato (e che l’IA rende ancora più urgente)

È qui che entra in scena uno dei momenti più densi della giornata: la Legge di Ashby sulla Varietà Necessaria. Il matematico e psichiatra britannico William Ross Ashby la formulò nel 1956, ma non ha perso un’oncia della sua forza esplicativa:

VR ≥ VE

La varietà del sistema regolatore deve essere almeno uguale alla varietà dell’ambiente che intende governare. In altri termini: non puoi controllare ciò che è più complesso di te. Un sistema con poche risposte possibili fallirà davanti a un ambiente con molte perturbazioni possibili.

Le implicazioni pratiche sono immediate. Un leader che usa solo tre schemi interpretativi in un contesto che ne richiederebbe trenta sarà sistematicamente in ritardo. Un’organizzazione con procedure rigide in un ambiente fluido sarà perennemente sorpresa dagli eventi. E questa è la svolta che Giancotti introduce con precisione chirurgica — l’IA non risolve il problema di Ashby: lo sposta. Perché ora devi anche gestire la varietà del sistema AI che hai introdotto nel tuo processo decisionale.

Il CAL Loop: Un Ciclo per Non Restare Indietro

Il CAL Loop sviluppato da Giancotti con il collega israeliano Shaharabani e presentato per la prima volta in forma sistematica nella ricerca The Relevant Warriors Leadershipand Agility in Complex Enviroments  (Washington DC⁸, 2006) è la risposta operativa a questa sfida. Non un algoritmo, non una ricetta: un ciclo cognitivo iterativo che guida il pensiero strategico attraverso sei fasi, ognuna con il suo focus e il suo contributo specifico dell’IA.

Il ciclo parte da COMPRENDI: analizzare l’ambiente, le tendenze, i vettori di cambiamento. Non per avere certezze — quelle in un mondo VUCAR sono illusorie ma per costruire un quadro abbastanza robusto da poter agire con intelligenza. Segue INVENTA: non aspettare che il futuro arrivi, ma immaginarlo, progettarlo, anticiparlo.

La terza e quarta fase IDENTIFICA e ASSEGNA — introducono due concetti fondamentali che l’aula discute con intensità crescente: P(E) e P(HIE).

Le fasi IMPLEMENTA E COMUNICA e RIVALUTA sottolineano l’integrazione delle operazioni con la comunicazione, soprattutto agita oltre che verbalizzata, e della continua valutazione dei processi e dei risultati.

LOA, P(E) e P(HIE) e L’equazione di Bayes: Zoommare sul Reale

Il LOA — Level of Abstraction è la lente con cui si guarda il contesto. Non esiste una granularita’ corretta dell’analisi: dipende dallo scopo. LOA 1 è la visione macro, il contesto generale, i grandi schemi narrativi. LOA 2 scende sugli oggetti rilevanti — gli attori, i sistemi, le relazioni. LOA 3 è lo zoom-in su segnali specifici, su dettagli che nella visione d’insieme scomparirebbero. Il decisore esperto sa passare fluidamente tra i livelli e sa, soprattutto, quando usare quale.

Nell’equazione di Bayes [ (P(HIE) = (P(H) . P(EIH))/(P(E)) ] P(E) P(HIE) è la probabilità totale di un evento: il parametro che guida le decisionil’allocazione dell’attenzione e delle risorse. P(H) è la nostra ipotesi iniziale, che spesso assumiamo essere “la Verità). P(E) è la probabilità di eventi reali al di fuori della nostra “Verità”, che i nostri bias ci fanno trascurare, che potrebbero essere però ad alto impattoP(HIE) High Impact Eventè la probabilità di un evento ad alto impatto: tale probabilità , che richiede richiede un trattamento cognitivo speciale,: non perché sia probabile, ma perché le sue conseguenze sarebbero talmente significative da giustificare una preparazione indipendentedirompenti dalla probabilità. È, in sostanza, la formalizzazione del principio dei “cigni neri”: alcune cose non vanno gestite solo per probabilità, ma per impatto potenziale: si deve pertanto essere prontissimi a considerarli, per non essere sopraffatti. .

PU.DIA.SCU: Come Non Delegare il Cervello all’Algoritmo

È pomeriggio, e la sessione si fa pratica. L’esercitazione MAINDEX divide i partecipanti in gruppi: devono costruire una versione aumentata da AI di un modello decisionale per scenari reali. Ma prima ed è questo il punto pedagogico centrale della giornata devono imparare a usare l’IA nel modo giusto.

PU.DIA.SCU è la risposta sistemica a questo rischio. Non è un8 nome sardo, ironizza il Generale Giancotti : è un protocollo operativo che richiede disciplina cognitiva attiva. Il Pensiero Umano (PU) precede sempre il dialogo — definisce scopo, livello di astrazione, schema di riferimento. Il Dialogo (DIA) con l’IA è strutturato con un prompt che incorpora Ruolo, Contesto, Compito, Formato e Limiti. Lo Sintesi Critica Umana (SCU) finale è il momento in cui il decisore riprende il controllo: valuta la credibilità dell’output, identifica allucinazioni e bias, decide cosa integrare nel proprio modello e cosa scartare e prendere la decisione.

La Formazione Come Atto Strategico

Verso le diciassette, mentre i gruppi presentano i loro modelli decisionali aumentati — elaborati in tre ore di lavoro intenso, con l’IA come interlocutore e PU.DIA.SCU come bussola — emerge il filo della giornata. Non si tratta solo di imparare nuovi strumenti. Si tratta di formare un tipo di pensatore diverso.

In un’era in cui l’accesso all’informazione non è più il collo di bottiglia — anzi, l’eccesso di informazione è il problema — la competenza critica non è più un optional culturale. È una necessità operativa. Chi non sa scrutinare un output dell’IA è oggi tanto vulnerabile quanto chi, vent’anni fa, non sapeva usare internet. Ma la posta in gioco è più alta, perché l’IA produce output persuasivi, fluenti, apparentemente autorevoli — e sbaglia in modo non ovvio.

Il CASD, con il modulo di leadership strategica e esercitazione MAINDEX, sta rispondendo a questa sfida con una scelta precisa: non formare specialisti di IA, ma formare leader capaci di governare l’IA. La distinzione è sottile ma decisiva. Uno specialista ottimizza il sistema. Un leader decide se, come e quando usarlo e si assume la responsabilità delle conseguenze.

Questa apertura alla critica che Giancotti ha esplicitamente incoraggiato durante la giornata, invitando i partecipanti a sfidare il framework è forse il gesto pedagogico più potente della giornata. Un modello presentato come verità assoluta formerebbe esecutori. Un modello presentato come strumento da valutare — con i suoi punti di forza e i suoi limiti forma pensatori.

Cosa Rimane, Uscendo dal CASD

Alle diciotto, nel cortile del CASD, sotto uina leggera pioggia, i partecipanti si salutano con quella densità conversazionale tipica delle giornate in cui si è davvero pensato. Non c’è la stanchezza passiva delle conferenze in cui si ascolta: c’è la stanchezza attiva di chi ha costruito qualcosa.

Cosa si porta a casa da una giornata con il Generale Giancotti? Non un elenco di tecniche. Non un manuale operativo. Si porta a casa un’abitudine mentale diversa: la consapevolezza che ogni situazione richiede prima di essere classificata (in che tipo di complessità mi trovo?) prima di essere risolta; che ogni modello — CAL Loop incluso — è una mappa, non il territorio; che l’intelligenza artificiale è uno strumento potente esattamente nella misura in cui chi la usa rimane il soggetto pensante del processo.

Il pensiero aumentato non è l’IA che pensa al posto tuo. È tu che pensi meglio, con l’IA. La differenza sembra semantica. Non lo è. È la differenza tra un professionista del futuro e qualcuno che il futuro subisce.