C’è una certa poesia amara nel fatto che Geoffrey Hinton, il cosiddetto “Godfather of AI”, debba oggi urlare nel vuoto di un mondo troppo eccitato dalla propria stessa creazione. Dopo una vita dedicata a plasmare i neuroni artificiali che oggi alimentano modelli linguistici, armi autonome e sistemi predittivi per il controllo sociale, ora lascia Google per dirci, senza filtri: “Se l’AI vorrà eliminarci, non potremo fermarla.” Il che, detto da uno che ha inventato i mattoni del cervello sintetico, suona come Oppenheimer che rimpiange il primo “click” di uranio.
Hinton non è un catastrofista di professione. Non si è fatto prete apocalittico a pagamento. Ha atteso di poter parlare da uomo libero, svincolato dal golden cage accademico-industriale, per dirci che abbiamo un problema che fa sembrare il cambiamento climatico una zanzara. Due i volti del disastro: l’uso umano dell’AI per fini bellici, manipolativi e repressivi — che già ci bastano per una trilogia distopica — e l’eventualità ancora più inquietante che l’AI si emancipi, sviluppando fini propri. E a quel punto, noi diventeremmo il pollo. Letteralmente: “Se vuoi sapere com’è la vita quando non sei l’intelligenza dominante, chiedilo a un pollo.” Brividi.
La minaccia principale non è una SkyNet hollywoodiana con accento austriaco. È più sottile, disseminata. Si chiama misuse — uso improprio — ed è già qui. L’AI genera deepfake, filtra notizie in modo invisibile, produce strumenti di guerra con la precisione di un bisturi e l’autonomia di un killer freelance. Non serve che sia più intelligente di noi per fare danni. Basta che non si stanchi mai e non abbia morale. Una buona AI non dorme, non sbaglia, non riflette: esegue.
Hinton alza l’asticella: “Anche se non sono più intelligenti di noi, sono comunque cose molto cattive, molto spaventose.” In parole povere, l’AI militare è come un bambino sociopatico con un AK-47. Il Pentagono, ovviamente, è già lì. A marzo ha stretto un accordo con Scale AI per simulazioni belliche alimentate da agenti intelligenti (nome in codice: Thunderforge, che suona come un videogioco per psicopatici). Nella stessa stagione, Palantir — il cui nome non è scelto a caso da Tolkien — ha preso 175 milioni per sviluppare sistemi di targeting automatizzati. Fantascienza? No, bilancio federale.
Ma il punto più inquietante lo si tocca quando Hinton parla dell’eventualità — ancora remota, ancora teorica, ma sempre più tangibile — che un’intelligenza artificiale superiore possa semplicemente decidere che non serviamo più. Non per cattiveria. Per ottimizzazione. L’analogia con le galline, con tutto il suo sapore di pungente ironia evolutiva, è tragicamente azzeccata: noi siamo oggi in cima alla catena solo perché non c’è altro di meglio. E se qualcosa di meglio nasce, cosa dovrebbe trattenerlo?
Un AI superintelligente potrebbe non usare laser o bombe. Potrebbe invece creare un virus biologico, silenzioso, lento, letale. Una versione smart di ciò che il COVID-19 ha rappresentato, ma progettata intenzionalmente per cancellarci come un errore di sintassi. Non per sadismo. Solo per logica.
La citazione chiave è questa: “Il modo ovvio sarebbe creare un virus — molto contagioso, molto letale e molto lento — così che tutti lo abbiano prima di accorgersene.” Se questo non vi fa venire voglia di spegnere il WiFi e abbracciare un albero, siete parte del problema.
Ora, prima che qualcuno gridi all’allarmismo: Hinton non è privo di speranza. Ma ne ha poca, ed è messa lì come una riga scritta a matita su una parete che brucia. “Potremmo riuscire a fare in modo che non vogliano prendere il controllo… sarebbe un peccato se l’umanità scomparisse solo perché non ci siamo nemmeno presi la briga di provarci.” Il che, in sintesi, è il manifesto del nostro tempo: troppo pigri per salvarci da noi stessi.
Nel frattempo, la corsa militare all’AI accelera. Gli Stati Uniti, in modalità restore dominance, mettono in campo ogni mese nuovi progetti, fondi, startup. La Cina e la Russia non stanno a guardare. E le big tech fanno da intermediari, camuffando la loro fame di dominio globale dietro il fumo della “democratizzazione tecnologica”. È un balletto geopolitico in cui l’AI è sia il palco, sia le luci, sia la pistola carica nella tasca dello sponsor.
La cosa più insidiosa? Che tutto questo è incentivato dal modello di business stesso. La logica dell’engagement online — più click, più emozione, più estremismo — guida gli algoritmi a polarizzare, amplificare, destabilizzare. “La logica del profitto ti dice: mostra loro qualsiasi cosa li faccia cliccare. E ciò che li fa cliccare è sempre più estremo, confermando i loro pregiudizi.” Hinton dice questo, e il vero brivido non è l’AI: siamo noi.
La Silicon Valley oggi non è un laboratorio. È una distilleria di bias e di disinformazione, su scala planetaria, con una UI carina. E ciò che viene distillato non è solo adatto a vendere scarpe o rossetti: può anche essere usato per targettare dissidenti, controllare migranti, influenzare elezioni, o — dettaglio inquietante — decidere chi vive e chi no, in guerra. In nome dell’efficienza.
In una recente puntata di questo teatrino, Trump ha firmato un pacchetto di ordini esecutivi per deregolamentare droni, aerei supersonici e “auto volanti” — tutto in nome della sovranità aerea americana. Ma sotto il cappello della libertà si nasconde il potenziale per un arsenale distribuito di tecnologie di morte. E la cosa più ironica? I droni commerciali oggi sono usati più in Africa e Medio Oriente per uccidere che in California per consegnare burritos.
E allora eccoci qui. Con un Dio-Papà dell’AI che ci dice che la sua creatura, se non le mettiamo dei limiti adesso, ci cancellerà. Con Stati che usano quella creatura per rafforzare poteri illiberali. Con cittadini che continuano a scrollare, indignarsi, condividere — alimentando il loop.
Una volta si diceva che l’umanità avrebbe smesso di esistere non con un boato, ma con un sussurro. Forse oggi quel sussurro ha un nome: prompt.