L’idea che l’intelligenza artificiale etica sia una sorta di creatura addomesticabile con due righe di codice ha sempre avuto qualcosa di comico, quasi fosse la versione tecnologica del mito del cavallo mansueto che poi scalcia al momento meno opportuno. Pare più un esercizio di autoillusione collettiva che una strategia di governance sensata. Chi osserva davvero ciò che sta accadendo nel cuore dei modelli generativi capisce che la domanda non è più se l’IA possa comprendere qualcosa, ma quanto noi siamo preparati a comprendere lei. La recente discussione alimentata dal saggio di De Caro e Giovanola rende evidente che il terreno non è quello dello stupore fantascientifico, ma quello silenzioso e ruvido del potere epistemico, del modo in cui l’IA riconfigura le nostre capacità di giudizio, di attenzione e perfino di oblio. Ogni epoca ha avuto il suo demone. La nostra ha il vantaggio di averlo creato da sola.

Si discute ancora della facoltà di comprendere attribuita ai grandi modelli linguistici. È affascinante notare come in molti si appellino alla Stanza cinese di Searle, quasi un amuleto retorico per tranquillizzare le coscienze. È un argomento elegante e brillante, peccato che si basi su un’idea di linguaggio ormai archeologica, come se bastasse la consapevolezza interna per legittimare la comprensione. Gli LLM non hanno sentimenti, ma hanno comportamenti utili, predittivi ed emergenti. Hanno il tipo di comprensione che il mercato chiede, quella funzionale, parziale e distribuita. È curioso come certi pensatori insistano sul fatto che la comprensione debba necessariamente coincidere con la coscienza. È un po’ come sostenere che senza anima non si possa fare matematica. Non serve un’anima per riconoscere un pattern. Serve un buon dataset.
Il punto più trascurato, però, non è quello ontologico. La vera faglia corre lungo il modo in cui tali sistemi ristrutturano il nostro agire. Chi pensa che il problema sia la somiglianza tra IA e intelligenza umana non ha compreso il gioco. La sfida non è capire cosa l’IA fa a noi, ma cosa diventiamo noi attraverso l’IA. Gli strumenti cognitivi non si limitano a supportare il pensiero, lo rifrangono. Ci abituano a nuovi ritmi di attenzione, nuovi modelli di verifica, nuovi automatismi decisionali. La generazione automatica può produrre testi impeccabili, ma può produrre anche una nuova forma di deresponsabilizzazione epistemica che ha un sapore elegante e allo stesso tempo inquietante. Non è la disinformazione a essere il pericolo massimo, è la pigrizia cognitiva che la precede.
In questo contesto, la politica sembra muoversi con la grazia di un elefante in una cristalleria. Si parla di intelligenza artificiale neutrale come se esistesse davvero un ambito tecnologico privo di scelta. Gli algoritmi decidono ciò che vediamo, leggiamo, desideriamo e perfino ciò che reputiamo vero. È un potere che un tempo si sarebbe definito sovrano. Eppure in molti continuano a considerarlo un problema tecnico. La governance dell’IA è già oggi uno dei nuovi campi di battaglia politici: chi controlla i dati, chi decide le architetture, chi determina i limiti, chi gestisce i feedback. Chi controlla gli algoritmi controlla l’immaginario collettivo. Una verità che i player globali hanno capito da anni, mentre il dibattito pubblico continua a inseguire le metafore sbagliate.
Il concetto di saggezza by design introdotto nel libro di De Caro e Giovanola ha un pregio notevole. Sposta lo sguardo dall’idea paternalista di imporre regole universali ai sistemi verso un modello molto più realistico, basato su contesti, situazioni, virtù operative. È l’etica della virtù in versione algoritmica, un concetto che suona rivoluzionario e allo stesso tempo perfettamente aderente alla natura post simbolica dell’IA contemporanea. Le reti neurali non ragionano per principi assoluti, ragionano per pattern e approssimazioni contestuali. È ironico come l’etica umana, nella sua evoluzione moderna, abbia seguito un percorso molto simile. È quasi poetico che ci troviamo ora a chiedere ai modelli la stessa virtù che abbiamo sempre faticato a praticare noi.
Si parla spesso del rischio esistenziale come se l’IA dovesse diventare cosciente da un momento all’altro, mentre il vero pericolo è già qui. Non è un robot ribelle in un laboratorio segreto, è la moltiplicazione infinita di vulnerabilità cognitive, manipolazioni su larga scala, polarizzazioni calcolate al millimetro. C’è chi ancora si preoccupa dell’eventualità che l’IA ci renda inutili nel lavoro. Più preoccupante è l’idea che ci renda superflui nel pensiero. Un paradosso sottile emerge ogni giorno: più delego alla macchina, più la macchina diventa capace, più sbiadisce il mio stesso bisogno di essere capace. È come allenarsi ogni mattina con un personal trainer che fa le flessioni al posto tuo. Risultato assicurato: muscoli perfetti, peccato siano suoi, non tuoi.
Il dibattito sul futuro del lavoro continua a oscillare tra ottimismo forzato e catastrofismo seriale. La narrativa del “saremo tutti più ricchi grazie all’IA” ha il fascino delle utopie da conferenza stampa. Peccato che i dati raccontino una storia diversa. La crescita si concentra nelle mani di pochissimi, l’indice di Gini sale come la febbre nel cuore di una crisi, e il potere delle infrastrutture digitali sta accelerando una polarizzazione strutturale che ha poco di democratico. Nulla di sorprendente. La tecnologia non crea disuguaglianze, le amplifica con precisione chirurgica. Chi possiede i nodi della rete possiede il futuro.
Ciò che spesso manca nella conversazione pubblica è un punto essenziale: l’IA non è soltanto una questione tecnologica ma una questione antropologica. Modifica le abitudini, i desideri, la percezione del tempo, la definizione stessa di autonomia. Se sei abituato a una macchina che risponde immediatamente a qualsiasi domanda, quanto tempo impiegherai prima di considerare lentezza e dubbio come inutili? Il rischio non è che l’IA ci renda stupidi. Il rischio è che ci renda simili a lei, ma nella sua versione meno nobile: efficienti, rapidi, prevedibili e profondamente conformi. La virtù, al contrario, nasce dall’attrito, dal conflitto, dall’errore. È la cosa che più assomiglia alla libertà.
Il concetto chiave rimane intelligenza artificiale etica. Attorno a essa orbitano concetti complementari come etica della virtù IA e saggezza by design, termini che non dovrebbero restare confinati nei saggi accademici ma diventare parte del linguaggio strategico delle imprese, delle istituzioni e dei cittadini. Una tecnologia nata per ottimizzare il mondo ci costringe a tornare a riflettere sulle radici più antiche della morale. Forse è un’occasione rara per ricordarci che la vera intelligenza non è quella che calcola, ma quella che comprende il valore di ciò che non può essere calcolato.
Continuiamo a chiedere all’IA ciò che dovremmo pretendere da noi stessi. Una forma di saggezza che non sia un semplice algoritmo ma un modo di abitare il mondo. Se riusciremo o meno a costruire sistemi artificiali virtuosi dipenderà dalla qualità delle nostre virtù, non dalle loro. In fondo, le macchine non sbagliano mai davvero. Siamo noi a insegnare loro come farlo.
Articolo Originale su Avvenire di ANDREA LAVAZZA