“Non esistono sistemi sicuri, esistono solo sistemi ancora non compromessi. E il fattore umano è l’unico exploit che nessun aggiornamento potrà mai patchare definitivamente.” Massimiliano Graziani di Cybera entra nell’intervista con questa frase, senza preamboli, come se volesse azzerare la retorica prima ancora che la domanda venga formulata. Il riferimento è all’incidente che ha scosso il già delicato equilibrio della sicurezza informatica globale, quando un dipendente del Dipartimento per l’Efficienza Governativa ha caricato su GitHub uno script chiamato “agent.py” con la chiave API privata di xAI, spalancando una finestra sui modelli Grok e su decine di altre intelligenze linguistiche avanzate. Una svista, dicono. Una minaccia nazionale, ribatte Graziani.

“Il punto non è la chiave API, è la testa di chi l’ha pubblicata. E qui c’è un problema culturale che nessuna tecnologia risolve se non si decide di cambiare la narrativa. L’essere umano non è progettato per gestire una quantità così massiccia di accessi, segreti, credenziali e responsabilità digitali. Siamo biologicamente inadatti a questo livello di complessità. Vogliamo sistemi infallibili, ma continuiamo a lasciarli nelle mani di persone che usano ancora ‘1234’ come PIN”. Gli chiedo se non stia esagerando, se l’incidente non sia solo un’altra macchia nel mare di fughe di dati a cui il mondo si è ormai assuefatto. “Assuefatti sì, ma è questa la vera tragedia. Stiamo normalizzando il fatto che un solo errore umano possa valere centinaia di milioni di dollari e, nel caso specifico, un rischio per la sicurezza nazionale. È come dire che accettiamo che un pilota di linea dimentichi di abbassare il carrello di atterraggio perché ‘succede’.”

Quando gli cito la frase “la sicurezza perfetta non esiste”, Graziani sorride in modo quasi sarcastico. “Frase comoda per chi non vuole assumersi responsabilità. Ma qui non parliamo di attacchi sofisticati, parliamo di un click sbagliato, di un upload su GitHub. E questa è la parte più ridicola: abbiamo intelligenze artificiali che scrivono romanzi, risolvono problemi di chimica quantistica e generano immagini iperrealistiche, ma non abbiamo ancora un sistema che blocchi automaticamente un idiota che cerca di pubblicare segreti di stato su un repository pubblico.”

Lo incalzo: sarà proprio l’intelligenza artificiale a proteggerci dai nostri stessi errori? “Dipende cosa intendi per proteggere. Se intendi un’intelligenza artificiale che agisce come un firewall umano, che riconosce pattern di comportamento a rischio e interviene prima che il danno sia fatto, allora sì, arriveremo a qualcosa del genere. In parte ci siamo già: GitGuardian, che ha scoperto la chiave API esposta, è l’esempio perfetto. Ma il punto non è la tecnologia, è l’accettazione sociale. Siamo pronti a dare all’AI il potere di dirci no? Perché è questo che servirà. Un’intelligenza che interrompe un processo, che blocca un upload, che magari chiude il tuo account se stai facendo qualcosa di stupido. Ma vedrai quante urla di censura e limitazione della libertà arriveranno quel giorno.”

L’immagine è cruda, quasi distopica. Gli chiedo se davvero immagina un futuro in cui un assistente AI impedisce a un umano di commettere errori, come una sorta di baby-sitter digitale. “Immagino un futuro in cui non avremo scelta. Perché il costo di questi errori sta salendo in modo esponenziale. Oggi è una chiave API, domani potrebbe essere un prompt mal configurato che attiva un modello autonomo con accesso a infrastrutture critiche. È un effetto domino che non possiamo più sottovalutare. Le AI diventeranno obbligatorie non per scelta etica, ma per semplice sopravvivenza economica. I board delle aziende non tollereranno più perdite da miliardi causate da una password scritta su un post-it.”

Il caso di xAI, con i suoi 200 milioni di dollari appena incassati dal Dipartimento della Difesa, è l’esempio perfetto per lui. “Siamo in un’epoca in cui i modelli linguistici non sono più solo strumenti di ricerca o gadget per chattare. Sono asset strategici. Esponi una chiave API e non comprometti solo dati, comprometti la capacità di un’azienda di competere e, in certi casi, la sicurezza nazionale. E lo ripeto, qui non c’è stato nessun hacker geniale. C’è stato un umano disattento. L’arma più pericolosa oggi non è un malware, è un dipendente stanco e annoiato.”

Gli chiedo se la soluzione sia davvero affidarsi ciecamente alle AI, se non stiamo creando un altro livello di vulnerabilità delegando il controllo a sistemi automatizzati. “Certo che stiamo creando un’altra vulnerabilità. L’AI non è infallibile, anzi, i suoi bias e le sue debolezze sono enormi. Ma è una questione di probabilità. La variabile umana è più imprevedibile e più fragile di qualsiasi modello statistico. Preferisco un’AI che sbaglia lo 0,1% delle volte a un umano che sbaglia il 10%. E poi non dimenticare un fatto interessante: le AI non si distraggono. Non hanno giornate storte, non si lamentano del capo, non vanno in vacanza dimenticandosi di disattivare l’account.”

Il discorso si fa più filosofico quando tocco il tema dell’autonomia decisionale delle macchine. “Sai qual è la vera ironia? Per anni abbiamo combattuto contro l’idea che l’AI ci controllasse, temendo scenari alla Skynet. E invece la vera minaccia non è un’AI che prende il controllo, è un’AI che non ci controlla abbastanza. Il futuro della sicurezza informatica sarà fatto di intelligenze artificiali paternalistiche, che ci impediranno di fare idiozie digitali. E sarà un bene, anche se ci farà male all’ego.”

Provo a chiudere chiedendogli se vede un futuro in cui gli errori umani scompaiono del tutto. “Mai. Finché ci saranno umani, ci saranno errori. Ma possiamo ridurli al punto da renderli irrilevanti, come è successo con altre tecnologie. Nessuno oggi muore più perché un ascensore cade per un cavo rotto, ma continuiamo a cadere vittima di un click sbagliato su un allegato. È solo una questione di tempo prima che l’AI diventi il nostro equivalente digitale delle cinture di sicurezza. E chi si lamenterà di indossarla verrà travolto dai fatti. O peggio, dai tribunali.”