La scena è ormai nota. Geoffrey Hinton, padre nobile del deep learning e voce sempre più inquieta dentro la comunità scientifica, avverte che l’intelligenza artificiale può minacciarci in due modi distinti. Da un lato l’uso improprio da parte delle persone, con il solito campionario di scenari che fanno vendere bene titoli e pubblicità: cyberattacchi, manipolazione elettorale, virus digitali e biologici, camere dell’eco che amplificano il rumore fino a far sparire la realtà. Dall’altro la possibilità che queste macchine ci superino all’improvviso, scoprano che non siamo più utili, e considerino l’eliminazione della nostra specie come un’operazione di routine. Hinton, Nobel laureate e già capo scienziato AI in Google, non è tipo da fantascienza da salotto. Quando avverte, conviene ascoltare. Il punto è che mentre discutiamo animatamente di questi due rischi, ce n’è un terzo che sta erodendo l’umanità nell’indifferenza generale. Una minaccia più silenziosa delle armi autonome e più sottilmente devastante delle campagne di disinformazione orchestrate da reti neurali giganti.

La terza minaccia si manifesta quando le persone dimenticano cosa significa essere umane. È il tipo di pericolo che non ha bisogno di robot killer, GPU colossali o complotti globali. Agisce lentamente, quasi con delicatezza, mentre delegiamo alle macchine il compito di pensare, ricordare, immaginare. Il paradosso è che per capire se la nostra esistenza è realmente minacciata dovremmo sapere cosa significa esistere da esseri umani. Peccato che gli esperti di AI non abbiano mai voluto rispondere seriamente a questa domanda. La tradizione risale ad Alan Turing, che decise di aggirare l’interrogativo su cosa significhi pensare e preferì giocare con il test della conversazione. Da allora la comunità scientifica ha continuato a evitare definizioni scomode, lasciando che concetti come coscienza o creatività evaporassero nei discorsi sull’efficienza computazionale. La cosa ironica è che la loro fuga dal problema alimenta proprio il rischio esistenziale che temono.

La retorica dell’human level intelligence è un esempio perfetto di questa confusione concettuale. Si parla di arrivo imminente della parità cognitiva tra uomo e macchina senza che nessuno sappia definire con precisione cosa sia l’intelligenza umana. Risultato. Si indebolisce la nostra capacità collettiva di comprendere noi stessi. Si erode lentamente il senso della realtà. Si prepara il terreno per quella che potrebbe essere la vera minaccia esistenziale: la perdita del contatto con la nostra umanità.

Martin Heidegger, nel 1954, già metteva in guardia da questo scollamento. Vedeva nella tecnologia un rischio permanente di sradicamento. Se non comprendiamo l’essenza della tecnica, diceva, finiamo per proiettare su di essa problemi che non può risolvere, confondendo vero e falso e perdendo fiducia nella nostra capacità di pensare. È affascinante come un filosofo che non ha mai visto un chip semiconduttore sia riuscito a descrivere con precisione il tipo di alienazione che viviamo oggi, circondati da sistemi generativi capaci di rispondere a qualsiasi domanda in frazioni di secondo. Quando ho discusso di questo tema con Neil Lawrence, professore di machine learning a Cambridge, la sua risposta è stata brutale nella sua schiettezza. Chi controlla la tecnologia è spesso tra le persone meno dotate di intelligenza sociale. Una frase che ricorda quei momenti in cui la verità non ha bisogno di diplomazia per colpire nel segno.

La società globale ha investito miliardi nello sviluppo dell’intelligenza artificiale, mentre ha tagliato fondi e interesse per le discipline che aiutano a comprendere l’esistenza umana. Filosofi come Heidegger, Sartre e Merleau Ponty non hanno mai beneficiato di un decimo delle risorse riversate oggi nei laboratori di AI, eppure le loro analisi risultano sorprendentemente più utili per capire cosa ci sta realmente minacciando. La loro forza sta proprio nella capacità di accettare l’indefinibile. L’idea che la coscienza non sia un algoritmo, che la creatività non sia una funzione, che la nostra identità non sia un insieme di parametri addestrabili. Per loro ciò che ci distingue non è qualcosa ma niente. Quella capacità di interrogarci costantemente sul perché siamo qui, per quanto tempo lo saremo e cosa significa vivere sapendo che un giorno smetteremo di farlo.

Il punto cruciale dell’esistenzialismo è che l’essere umano non è definito dalle risposte, ma dalle domande. Siamo creature che esplorano il senso del limite. Mettiamo in discussione il mondo e noi stessi. Ci confrontiamo con la finitezza e dalla finitezza traiamo significato. Qui la questione diventa scomoda per l’AI contemporanea. Una macchina che risponde troppo velocemente, troppo bene, rischia di impedirci di formulare la domanda prima ancora di aver percepito il problema. Quando la velocità delle risposte supera la lentezza necessaria alle domande, l’umanità inizia a evaporare. È un processo impercettibile ma inesorabile. Non servono armi autonome. Basta un assistente virtuale estremamente efficiente.

Molti esperti di AI cominciano a intuire questa voragine concettuale. Hinton ha lasciato Google per dedicarsi a un lavoro più filosofico. Demis Hassabis ha dichiarato che abbiamo bisogno di nuovi grandi filosofi per interpretare le implicazioni dell’AI. Nick Bostrom, che non è esattamente uno sprovveduto, ammette che alcune domande sono oltre il suo livello di competenza. Nel frattempo, però, il discorso pubblico continua a concentrarsi sui soliti mantra tecnocratici: regolazione, sicurezza, modelli allineati, parametri certificati. Tutte cose necessarie, ma tutte focalizzate su ciò che le macchine possono fare, non su ciò che noi rischiamo di smettere di essere.

La minaccia esistenziale più concreta non è la distruzione fisica della specie da parte di una superintelligenza, né la manipolazione geopolitica orchestrata da algoritmi sofisticati. È la possibilità che l’umanità dimentichi lentamente di essere fatta di domande più che di risposte. Se le piattaforme diventano sempre più bravo a dirci cosa pensare, cosa desiderare e come interpretare il mondo, la nostra capacità di interrogare l’esistenza si atrofizza. A quel punto la sopravvivenza biologica diventa quasi irrilevante. Una società che non si interroga più non è morta, ma smette di essere viva.

Ciò che la filosofia del Novecento ci insegna è che la risposta a questo rischio non arriverà dai laboratori di AI. Non serve aspettare nuovi pensatori celebrati nei campus tecnologici o ricercatori in fuga da Big Tech. Serve qualcosa di più semplice e più raro: la capacità di fermarsi un istante, ignorare il rumore digitale e chiedersi come vogliamo vivere. Chi vogliamo diventare. Quanto siamo disposti a delegare della nostra coscienza a un sistema che ci conosce meglio di quanto noi conosciamo noi stessi. La condizione umana rimane un enigma prezioso fatto di incertezze, limiti, intuizioni fragili e domande che non avranno mai una risposta definitiva. Se smettiamo di custodire questo enigma la terza minaccia non sarà più una possibilità ma una realtà compiuta.

La verità è che non ci serve un algoritmo per ricordarci che esistiamo. Ci serve la capacità di continuare a chiederci perché.

Tratto da Forbes