Andreas Tsamados· Luciano Floridi· Mariarosaria Taddeo
Dal controllo alla squadra: come l’AI generativa sta cambiando il ruolo dell’uomo
L’avvento dei foundation model ha trasformato il concetto stesso di automazione. Sistemi come GPT, Claude o Gemini non sono più semplici strumenti, ma partner capaci di elaborare linguaggio, codice e immagini su scala globale, con comportamenti imprevedibili e non deterministici. La domanda cruciale, per chiunque gestisca tecnologia o processi decisionali ad alto rischio, è semplice ma perturbante: come può l’uomo mantenere il controllo senza diventare un semplice osservatore passivo? Tsamados, Floridi e Taddeo in “Human control of AI systems: from supervision to teaming” ci offrono un quadro concettuale audace: abbandonare la supervisione per entrare nella logica della squadra.
Il paradigma tradizionale del Supervisory Human Control (SHC) immagina un uomo al comando di un’automazione subordinata, pronto a intervenire in caso di errore. Funzionava negli anni ’80, quando un robot era prevedibile quanto un tostapane. Oggi, con foundation model che generano output diversi a ogni prompt, l’operatore diventa un fornitore di input, spesso ignaro delle implicazioni di ciò che la macchina crea. Il paper identifica quattro limiti chiave dello SHC: perdita di consapevolezza situazionale, rigidità di fronte a contesti dinamici, problemi di fiducia (dal sovraconfidarsi alla totale sfiducia) e un focus squilibrato sui rischi prestazionali rispetto a quelli socio-legali. Il risultato? Un modello di controllo inadatto a sistemi complessi e autonomi.
I foundation model rompano schemi preesistenti in modo radicale. Non-determinismo, scala enorme dei parametri, opacità dei processi interni e dipendenza dal prompting umano creano un paradosso: più l’IA è autonoma, più richiede un intervento umano sofisticato. L’operatore rischia di sentirsi marginale, un ghostwriter involontario di decisioni critiche. L’analogia con un “capitano su una nave senza timone” non è casuale. In questo scenario, il controllo negativo, quello che interviene solo quando qualcosa va storto, non basta più. Serve un controllo costitutivo, positivo, integrato nella logica operativa stessa.
La proposta rivoluzionaria è l’Human-Machine Teaming (HMT). Qui l’uomo non è supervisore, ma membro di una squadra. L’intelligenza artificiale diventa un compagno di squadra, non un subordinato. Il controllo emerge dalle interazioni bidirezionali, dall’adattamento reciproco e dalla fiducia costruita su impegno e trasparenza. Tsamados e colleghi delineano quattro pilastri fondamentali: rappresentazioni condivise dei compiti e dei limiti, comunicazione continua dei livelli di incertezza e intenzioni, commitment operativo per aumentare la prevedibilità e infine convenzioni e norme che creano un linguaggio comune tra uomo e macchina. La metafora è chiara: non si guida un team a colpi di ordini, lo si costruisce, giorno dopo giorno, con regole condivise e fiducia reciproca.
Curioso come in un’epoca di hyperautomation la componente umana rischi di ridursi al minimo indispensabile. L’HMT richiede una rivoluzione culturale e di design: gli operatori devono sviluppare competenze nuove, capire quando fidarsi, quando correggere e come dialogare con entità la cui logica interna spesso sfugge a chi le usa. La ricerca empirica attuale è limitata a laboratori simulativi; mancano test su larga scala e metriche socio-legali affidabili. Come si misura se una squadra uomo-IA agisce eticamente o rispetta regolamenti complessi? La risposta non c’è ancora, ma il paper non nasconde la sfida: la strada verso l’HMT reale è lunga, costosa e piena di ostacoli.
Il fallimento dello SHC e l’emergere dei foundation model ci costringono a ripensare non solo il design dei sistemi, ma la responsabilità stessa. In un team uomo-IA, chi risponde in caso di errore? L’agenzia collaborativa sfida le leggi tradizionali e pone domande filosofiche su autonomia, etica e fiducia. Come osserva Floridi, “Il futuro non è supervisionare, è collaborare”. Un mantra che suona semplice, ma richiede sistemi complessi, training mirati e protocolli evoluti.
Il valore di HMT va oltre la sicurezza o l’efficienza. In contesti come sanità, giustizia o trasporti, una collaborazione efficace può prevenire errori sistemici e garantire decisioni più giuste. La parola chiave non è controllo, ma sinergia. Una squadra uomo-IA capace di scambiare informazioni, avvertire sui limiti, discutere alternative e rispettare regole condivise può trasformare il ruolo umano da osservatore passivo a protagonista strategico. Ironico, considerando che per decenni abbiamo addestrato l’uomo a delegare alla macchina per guadagnare efficienza.
Fondamentalmente, l’HMT suggerisce una visione radicalmente diversa: le macchine non sono strumenti da controllare, ma agenti con cui collaborare. Le imprese che ignorano questo paradigma rischiano di trasformare l’IA generativa in un rischio operativo, sociale e reputazionale. Chi abbraccia il modello della squadra acquisisce invece vantaggi competitivi: decisioni più rapide, resilienti e conformi alle norme etiche. La trasformazione non è solo tecnologica, ma culturale: il futuro dell’intelligenza artificiale non dipende da chi preme pulsanti, ma da chi sa dialogare con entità capaci di imparare, adattarsi e proporre strategie inattese.
Il messaggio finale del paper è provocatorio: non possiamo continuare a supervisionare i giganti digitali con strumenti del XX secolo. Il controllo va ridefinito come collaborazione, il team come unità fondamentale, e l’uomo come stratega attivo in un ecosistema cognitivo misto. Il cambiamento richiede coraggio, progettazione e una buona dose di ironia: accettare che parte del nostro lavoro futuro sarà dialogare con entità più intelligenti e meno prevedibili di noi, imparando a fidarsi senza delegare totalmente.
Disponibile Qui: https://link.springer.com/article/10.1007/s43681-024-00489-4