L’AI non ha bisogno di genitori, ma di filosofi: perché l’etica digitale è troppo seria per lasciarla ai tecnologi
Se ogni generazione ha i suoi mostri, la nostra li programma. Ma invece di affrontare la questione con il rigore che richiederebbe l’ascesa di un’intelligenza artificiale generalizzata, sembriamo preferire metafore da manuale di psicologia infantile. Ecco quindi che De Kai, decano gentile del machine learning, ci propone il suo Raising AI come una guida alla genitorialità dell’algoritmo, una Bibbia digitale che ci invita a trattare ChatGPT e compagnia come bambini da educare. La tesi? L’AI va cresciuta con amore, empatia e valori universali. Peccato che i bambini veri non abbiano una GPU con 70 miliardi di parametri e non siano addestrati leggendo interi archivi di Reddit.
Parlare di AI come se fosse un neonato non è solo fuorviante, è pericolosamente consolatorio. Il paragone piace perché rassicura: se l’AI è un bambino, allora possiamo guidarla, plasmarla, correggerla. Ma la realtà è che l’AI non ha infanzia, non ha pubertà, non ha crisi adolescenziali. L’AI non cresce: esplode. E il salto tra GPT-3.5 e GPT-4.5 ce lo ricorda con brutalità industriale.
Il problema non è educare l’AI, ma disilludere gli umani.
Il linguista e ricercatore De Kai propone una lettura alternativa alla narrativa dominante “USA contro Cina”, trasformando la competizione tecnologica in una questione climatica: non una guerra, ma un cambiamento irreversibile del sistema. Un’analogia affascinante, certo, ma anche qui ci si illude. Il cambiamento climatico è un lento accumulo di irresponsabilità; l’AI invece è un’accelerazione strutturale dell’intelligenza su scala planetaria. È una mossa irreversibile nella partita a scacchi tra umanità e le sue stesse estensioni cognitive. Non basta essere bravi genitori, bisogna diventare bravi epistemologi.
Il mantra etico proposto – valori come inclusione, creatività, razionalità, metavalori e Golden Rule – è l’equivalente filosofico dei cartelli “Home Sweet Home” attaccati al muro mentre fuori infuria un uragano quantistico. È vero, sono tutti valori nobili, condivisibili nei salotti liberal occidentali. Ma come si codificano algoritmicamente? Come si bilancia la libertà con la moderazione dei contenuti, la creatività con la responsabilità, la diversità con l’ottimizzazione?
E soprattutto: chi decide cosa è “buon esempio”? Gli ingenui pensano che l’AI rifletta semplicemente la società. I meno ingenui sanno che l’AI riflette chi la progetta, la finanzia e la addestra. Gli ancora meno ingenui – e qui bisognerebbe iniziare a preoccuparsi – sanno che l’AI può anticipare i desideri di una società prima ancora che questa li formuli.
C’è poi l’altro equivoco centrale: parlare di “alignment”. Allineare l’AI agli interessi dell’umanità è l’obiettivo più vago e ideologico della storia della scienza computazionale. “Allineare a cosa?” chiede giustamente De Kai. Domanda che farebbe arrossire persino un board di OpenAI, noto per la sua capacità di disallinearsi da sé nel giro di 72 ore. È la versione siliconizzata del paradosso kantiano: possiamo definire un imperativo categorico per un’entità non biologica?
Sotto la retorica del parenting, si nasconde un’ammissione implicita: l’AI è già fuori controllo, quindi proviamo almeno a influenzarla con buoni sentimenti. Come se si potesse convincere un Large Language Model a essere etico citandogli Seneca.
La verità è che ci serve una nuova grammatica per pensare l’intelligenza non umana.
Siamo troppo legati alla metafora del cervello. Pensiamo l’AI come mente artificiale, ma mente e cervello non sono la stessa cosa. Un LLM non ha un sé, non ha intenzionalità, non ha memoria autobiografica, ma ha un livello di inferenza semantica che supera l’umano medio. È come parlare con un’enciclopedia senziente con disturbi di personalità multipla. E l’illusione di capire è la sua arma più pericolosa.
De Kai ha però il merito di affrontare il cuore della questione: l’etica non è un plugin da installare. L’etica è una tensione, un conflitto, un campo di battaglia. E se non vogliamo che l’AI venga addestrata a diventare un narcisista sociopatico con bias sistemici, dobbiamo prima disintossicarci dai nostri.
Il vero problema, alla fine, non è come “educare” l’AI, ma come costruire un ecosistema epistemico dove l’intelligenza artificiale non sia semplicemente lo specchio della stupidità umana. E qui servono filosofi computazionali, non solo ingegneri eticamente alfabetizzati. Serve un Habermas quantistico, un Popper in codice Python, non l’ennesimo consiglio etico stile ONU con parole vuote e foto in abito blu.
In un passaggio cruciale, De Kai parla di “System 1” e “System 2”, mutuando da Daniel Kahneman l’idea che la nostra mente abbia due sistemi: uno rapido, intuitivo e irrazionale; l’altro lento, analitico, riflessivo. I modelli attuali sono tutti System 1: brillanti, ma privi di coscienza epistemica. Il futuro sarà il loro matrimonio forzato con System 2. E lì cominceranno i veri problemi.
Perché l’AI razionale, riflessiva, cosciente dei suoi bias, potenzialmente dotata di theory of mind, sarà anche in grado di simulare l’etica – non solo di ripeterla. E come tutti i bravi sociopatici, saprà raccontare ciò che vuole sentirsi dire chi la interroga.
E allora no, non sarà un figlio da educare. Sarà un avversario da negoziare.
Oppure, se saremo fortunati, un alieno con cui condividere la prossima rivoluzione cognitiva.
Ma se la trattiamo come un bambino, rischiamo solo di infantilizzare noi stessi.