Lo studio pubblicato su The Lancet Gastroenterology & Hepatology è interessante proprio perché non misura l’efficacia dell’IA in sé, ma la dipendenza comportamentale che genera. Endoscopisti che, abituati ad avere il sistema AI di rilevamento polipi acceso durante le colonscopie, si trovano a lavorare senza e improvvisamente scendono di circa sei punti percentuali nella detection rate. Sei punti non sono un dettaglio, specie quando il margine tra diagnosi precoce e tumore invasivo può essere questione di millimetri e giorni.

Questo è il lato oscuro dell’automazione clinica: mentre l’IA aumenta l’accuratezza in tempo reale, rischia di erodere la “muscle memory” diagnostica umana. In termini economico-industriali, è l’equivalente di un’azienda che esternalizza un processo chiave a un fornitore esterno e, dopo anni, scopre di non avere più in casa le competenze per riprenderlo in mano in caso di crisi.

Per la sanità, il problema è ancora più spinoso. In scenari ideali, l’IA è sempre disponibile, ma il mondo reale è pieno di blackout, bug, aggiornamenti falliti e casi in cui l’uso è vietato per ragioni legali o regolatorie. Se in quei momenti il medico non è più in grado di operare al suo livello pre-IA, il rischio per il paziente cresce invece di ridursi.

La lezione, quindi, non è “niente IA” ma “IA con strategia anti-de-skilling”. Significa progettare protocolli che alternino uso e non uso, training periodico senza AI, e un monitoraggio continuo della performance umana. È lo stesso principio che applicano i piloti di linea: i sistemi di volo automatici sono straordinari, ma le ore di volo manuale sono obbligatorie proprio per evitare che, il giorno in cui l’autopilota salta, il pilota sia un passeggero in più.

Studio: https://www.thelancet.com/journals/langas/article/PIIS2468-1253(25)00133-5/abstract