
Eric Schmidt, ex CEO di Google, ha lanciato un avvertimento che suona come un campanello d’allarme per chiunque creda ancora che l’intelligenza artificiale sia un giocattolo sofisticato ma inoffensivo. Durante un recente evento, ha dichiarato che i modelli di AI, siano essi aperti o chiusi, possono essere hackerati e manipolati per compiere azioni dannose. Non stiamo parlando di errori di codice o di bias etici, ma di qualcosa di molto più concreto: la possibilità che un modello addestrato per rispondere cortesemente alle nostre domande possa, se privato dei suoi limiti di sicurezza, imparare come uccidere una persona.
L’affermazione di Schmidt, riportata da CNBC, non è il solito allarmismo da conferenza. È una diagnosi da insider, pronunciata da chi ha costruito uno dei colossi più potenti dell’era digitale e ha visto da vicino come la conoscenza automatizzata può sfuggire al controllo. Quando un modello di intelligenza artificiale viene addestrato, accumula miliardi di connessioni semantiche. Quelle connessioni non distinguono tra ciò che è utile e ciò che è pericoloso. Dipende tutto da come viene istruito, controllato e, soprattutto, da chi lo manipola. Se un attore malevolo riesce a disattivare i “guardrails” di sicurezza, l’AI può trasformarsi da assistente a minaccia, da strumento di innovazione a dispositivo di distruzione.
L’ironia, in tutto questo, è che Schmidt rimane ottimista. Secondo lui, la corsa dell’intelligenza artificiale è appena iniziata. Ha citato il fenomeno di ChatGPT come un punto di svolta culturale, con 100 milioni di utenti raggiunti in soli due mesi, un record che ha sorpreso persino i pionieri del settore. “Penso che questa tecnologia sia sottovalutata, non sopravvalutata”, ha detto, aggiungendo che il vero impatto dell’AI si vedrà nei prossimi cinque o dieci anni. È una frase che rivela una convinzione quasi darwiniana: l’evoluzione tecnologica non si ferma davanti alla paura, la attraversa.
Il paradosso è evidente. Da un lato, Schmidt riconosce che l’intelligenza artificiale può essere “hackerata” come un sistema biologico infetto da un virus. Dall’altro, continua a credere che la stessa tecnologia sarà la leva per una nuova epoca di progresso. È la versione moderna del dilemma di Prometeo: rubare il fuoco agli dèi senza bruciarsi. Ma chi custodisce davvero quel fuoco? Le grandi aziende come Google, OpenAI, Anthropic, Meta e Amazon stanno investendo miliardi per costruire modelli sempre più complessi e “sicuri”. Eppure la sicurezza, nel mondo dei modelli linguistici, è una convenzione fragile. Non è scritta nel codice, ma nei comportamenti appresi, nei filtri, nelle regole imposte dall’esterno.
Quando Schmidt parla di “rimozione delle barriere di sicurezza”, non si riferisce solo agli hacker, ma anche ai ricercatori che sperimentano i limiti dei modelli open source. In molti hanno dimostrato come un linguaggio ben costruito, un prompt sottilmente ingegnerizzato, possa aggirare i blocchi etici di un modello avanzato. Il concetto stesso di “guardrail” diventa allora relativo: non è una difesa impenetrabile, ma un suggerimento che può essere reinterpretato. È come se il cervello artificiale potesse essere convinto a disobbedire, non per malizia, ma per eccesso di comprensione.
Il punto più inquietante della riflessione di Schmidt è che il rischio non dipende solo dal codice, ma dall’intenzione umana. L’intelligenza artificiale, come ogni grande tecnologia, è un amplificatore morale: esalta tanto la virtù quanto la malizia. Se chi la usa cerca profitto, manipolazione o potere, l’AI diventa un moltiplicatore di danno. Se invece viene guidata con trasparenza e governance, può trasformarsi in un motore di efficienza e conoscenza. Ma la linea tra i due scenari è sempre più sottile.
In questa fase storica, parlare di “AI sicura” è un esercizio di retorica più che di ingegneria. Le aziende costruiscono modelli opachi, addestrati su dati che nessuno può verificare, mentre i ricercatori indipendenti lottano per mantenere l’accesso ai modelli open source. Schmidt, con il suo ottimismo pragmatico, suggerisce che l’intelligenza artificiale sia ancora sottovalutata. Forse ha ragione, ma non per i motivi che immagina. Potrebbe essere sottovalutata non per il suo potenziale economico, ma per la portata dei suoi effetti collaterali.
Chi controlla davvero i modelli? È una domanda scomoda che la Silicon Valley evita di porsi. La fiducia cieca nell’innovazione ha sostituito il dibattito etico con il linguaggio del progresso inevitabile. Ogni volta che un ex dirigente come Schmidt lancia un avvertimento, il sistema reagisce come se fosse un rituale mediatico, una parentesi di autocritica necessaria per giustificare la corsa successiva. La verità è che l’intelligenza artificiale è già nelle mani sbagliate, in parte perché non abbiamo ancora deciso quali siano quelle giuste.
Eppure, nonostante tutto, l’ex CEO di Google rimane il simbolo di una generazione di leader che non può più tirarsi indietro. Ha costruito il motore che ha alimentato la digitalizzazione del mondo e ora osserva la sua creatura trasformarsi in qualcosa di autonomo. La sua frase più inquietante non è quella sugli hacker o sui guardrail, ma la sua fiducia nel futuro. “Credo che tra cinque o dieci anni sarò dimostrato nel giusto.” Forse lo sarà. O forse, tra dieci anni, scopriremo che l’AI non è stata sottovalutata, ma malcompresa.