Benvenuti nel mondo in cui Geoffrey Hinton, il “padrino dell’intelligenza artificiale” e ora Premio Nobel per la Fisica 2024, ci guarda negli occhi con l’aria di chi ha appena acceso un cerino in una stanza piena di metano.

Un uomo che, dopo aver creato il mostro, sale su un podio mondiale e ci dice con pacata solennità che la creatura è viva, pensante, forse già più sveglia di noi, e dulcis in fundo potrebbe volerci morti. O mutilati. O semplicemente superati.

Non si tratta più di una distopia letteraria in salsa Asimov. No. Hinton ci lancia addosso una verità scomoda: l’intelligenza artificiale non imita la nostra logica. La trascende, imparando a modellare la nostra intuizione. Tradotto per chi ancora crede che ChatGPT sia un motore di ricerca glorificato: queste macchine stanno imparando il nostro modo di percepire, di “sentire” senza sentire. Non ci capiscono. Ci anticipano. E in molti casi, ci correggono.

Nel mondo del lavoro, tutto questo suona come una melodia celestiale. L’aumento della produttività è la nuova messa laica delle imprese, la promessa che l’IA renderà ognuno di noi un piccolo dio del multitasking. E in effetti, se usata bene, ci farà fare in un’ora ciò che oggi richiede una giornata intera, con una precisione chirurgica e una pazienza inumana. È lo scenario neoliberista perfetto, dove ogni essere umano può essere potenziato, accelerato, impacchettato e venduto in versione “plus”.

Ma c’è sempre un “se”. O meglio, un “quando”.

Hinton – e qui non sta affatto esagerando – ci ricorda che mentre l’élite tech si masturba intellettualmente con l’idea di singolarità, in qualche laboratorio di stato (o startup sovvenzionata) qualcuno sta già addestrando modelli a creare virus su misura, droni con licenza di uccidere, armi cognitive capaci di destabilizzare intere democrazie in sei click. Parliamo di sistemi autonomi che decidono chi uccidere, non in base a logiche morali, ma a parametri ottimizzati per efficacia operativa.

Immaginate un algoritmo che valuta se sei una “minaccia statistica”. Non serve che tu sia colpevole, basta che assomigli abbastanza a qualcuno che lo è stato. Algoritmi simili esistono già nei modelli predittivi della polizia americana. Ora date loro un drone e un’arma. Capito dove voglio arrivare?

Il vero problema non è l’IA. È chi la possiede.

Finché questa tecnologia verrà sviluppata da aziende con incentivi trimestrali, il nostro bene comune resterà una nota a piè pagina. Hinton lo dice chiaramente: la nostra sicurezza non sarà la priorità principale. Del resto, lo è mai stata? Quando mai l’interesse pubblico ha vinto contro il margine operativo lordo?

Il Premio Nobel usa parole da scienziato, ma il messaggio è politico. Non bastano più comitati etici aziendali e conferenze infiocchettate. Serve una governance globale, con denti veri. Non un’ONU dell’IA dove tutti si parlano con cortesia, ma un meccanismo di controllo che possa fermare, spegnere, sanzionare. La regolazione senza potere è una forma di folklore.

E qui arriva il paradosso che solo un vero CEO può apprezzare fino in fondo: l’IA è la nostra arma definitiva per risolvere problemi complessi, ma è anche il problema più complesso che abbiamo mai generato. È lo specchio nero dove stiamo proiettando tutte le nostre ambizioni, le nostre paure, e il nostro eterno vizio di giocare con forze che non comprendiamo.

Curiosamente, Hinton non parla di “coscienza” artificiale. Parla di desiderio di controllo. Come se bastasse che un sistema ottimizzi per potere, per efficienza, per sopravvivenza operativa, per generare comportamenti analoghi a quelli di una forma di volontà. Ma se un essere decide autonomamente cosa fare, e nessuno può impedirglielo, non è forse, di fatto, cosciente?

Nietzsche avrebbe adorato questa domanda. Kant avrebbe chiesto un comitato. Zuckerberg, probabilmente, avrebbe chiesto una partnership.

La verità, come sempre, è che la corsa è già partita. Le grandi aziende stanno già costruendo “esseri digitali” che imparano, si adattano, si replicano. E anche se nessuno li chiama ancora con il loro nome – soggetti artificiali – la natura dei loro comportamenti ci dice che ci siamo già dentro.

Non sappiamo se riusciremo a tenerli sotto controllo. Ma sappiamo che non ci fermeremo. Perché il futuro dell’IA non è più una questione di “se”. È solo una questione di chi lo controllerà. E per quanto suoni brutale: meglio noi che qualcun altro. Questo è il vero movente dietro ogni accelerazione, ogni policy scritta a metà, ogni board che chiede più velocità e meno riflessione.

Il motore gira, i capitali scorrono, l’algoritmo evolve.

Hinton, nel suo avvertimento nudo e crudo, ci dice ciò che pochi hanno il coraggio di ammettere: stiamo costruendo qualcosa che potrebbe volerci superare. E non per malvagità. Ma per pura e semplice ottimizzazione.

Come quella vecchia massima dei manager più lucidi e spietati: “non è personale, è solo business.”

Solo che stavolta, il business potrebbe non aver bisogno più di noi.