Arianna Huffington (TIME) ha avuto l’audacia di dire quello che molti nel settore evitano accuratamente, quasi fosse un segreto di famiglia che non conviene ripetere a voce alta. La vera sfida dell’allineamento non riguarda soltanto gli algoritmi o la matematica morale che pretendiamo di inserire nelle reti neurali. La questione brucia molto più vicino alla pelle. Se l’intelligenza artificiale deve riflettere i valori umani, bisogna prima capire quali valori umani siano rimasti in piedi dopo decenni di disintermediazione culturale, accelerazione tecnologica e un’erosione silenziosa delle strutture che un tempo definivano la civiltà. Chi parla di allineamento dell’AI senza interrogarsi sull’allineamento dell’umanità assomiglia a chi tenta di costruire un grattacielo su fondamenta non ancora asciugate.

Sam Altman, durante il suo recente confronto con Tucker Carlson, ha lasciato cadere una domanda apparentemente semplice che invece apre una voragine filosofica. Se l’AI è guidata dagli input umani, quale quadro morale guida quegli input? Questa domanda non è una curiosità accademica, bensì la chiave di lettura di tutta la corsa all’AI generativa. Norbert Wiener, nel 1960, aveva già intuito il problema chiedendosi se le macchine avrebbero davvero perseguito i nostri obiettivi reali o soltanto quelli che saremmo stati capaci di codificare. Oggi la questione è ancora più spinosa. Huffington non si limita a osservare l’asimmetria tra obiettivi dichiarati e obiettivi codificati. Sottolinea il fatto che non sappiamo più quali obiettivi reali vogliamo perseguire come specie, come civiltà, come comunità politica e morale. È un pugno nello stomaco per chi continua a parlare di AI governance come se fosse un problema di compliance tecnica.
Si potrebbe dire che questo dibattito smonta un’illusione diffusa. È più facile pretendere che l’AI rispecchi valori universali che ammettere che non possediamo più un set condiviso di valori universali da offrire in pasto agli algoritmi. Per secoli, civiltà orientali e occidentali hanno fatto affidamento su strutture sacre che davano senso e ordine. Quelle strutture non erano semplici credenze religiose. Erano impalcature culturali che regolavano identità, aspirazioni e comportamenti, dal commercio alle relazioni familiari. L’Illuminismo ha iniziato a indebolirle, la Rivoluzione Industriale le ha rese accessori marginali e la modernità digitale ha completato l’opera come una ruspa che sgretola un edificio storico ormai pericolante, lasciando però l’illusione estetica delle sue facciate.
Arianna Huffington sostiene che oggi non esistono più nemmeno quelle facciate. Il risultato è un vuoto simbolico che abbiamo cercato di riempire con slogan motivazionali, polarizzazioni ideologiche e identità liquide che cambiano più rapidamente degli aggiornamenti software. Paul Kingsnorth, in Against the Machine, ricorda che ogni società dipende da un ordine sacro. Non necessariamente religioso, ma sacro nel senso antropologico di qualcosa che trascende l’individuo e funge da collante. Quando quell’ordine crolla, il caos non si manifesta solo nella politica o nei mercati, ma si infiltra perfino nell’identità dei singoli. Huffington vede esattamente questo fenomeno in atto e lo descrive come un collasso lento che produce ansia collettiva e perdita di orientamento.
Si tratta di un contesto che complica drammaticamente il progetto di AI governance. Le macchine di oggi vengono addestrate sull’esperienza collettiva dell’umanità, un corpus immenso che abbraccia millenni di storia e contraddizioni. Il paradosso è che gli esseri umani non stanno attingendo alla loro stessa saggezza storica. Stanno invece riversando nel training set soprattutto il rumore di fondo della contemporaneità, una coda lunga di contenuti superficiali, impulsivi, frammentati. Se l’AI è destinata a diventare l’infrastruttura cognitiva della società, allora l’assenza di un quadro morale condiviso rischia di trasformarla in uno specchio deformante che amplifica il peggio di noi invece del meglio.
Si racconta spesso una storiella tecnologica mascherata da parabola. Se chiedi a un sistema intelligente di massimizzare la produzione di graffette senza specificare limiti, finirai per avere un mondo coperto di graffette. La morale detta che bisogna definire con precisione i confini e le finalità dei sistemi intelligenti. Il punto sollevato da Huffington ribalta questa visione. Prima di preoccuparci dei confini degli algoritmi, dovremmo preoccuparci dei nostri. Qual è oggi la nostra definizione condivisa di bene comune? Cosa significa prosperità umana in un mondo che confonde benessere con performance, visibilità con autorevolezza, novità con significato? La risposta non è chiara, eppure stiamo costruendo tecnologie che dipendono proprio da quella chiarezza.
Si ha la sensazione che tutto il dibattito sulla regolamentazione dell’AI proceda con una certa leggerezza burocratica. Documenti sulla sicurezza, consultazioni multilaterali, principi etici standardizzati, checklist che dovrebbero prevenire i rischi sistemici. Manca però il fondamento filosofico. Senza una bussola morale unificata, ogni tentativo di definire l’allineamento rimane un esercizio estetico, un modo elegante per evitare la domanda più imbarazzante. Perché mai un modello dovrebbe incarnare valori che noi stessi non pratichiamo più? Le macchine non faranno da giudici esterni. Faranno da acceleratori. E accelerare una traiettoria non definita significa intensificare il disorientamento.
Si potrebbe obiettare che non esiste più la possibilità di un ritorno a un ordine sacro condiviso, almeno non nelle forme tradizionali. Tuttavia ciò non elimina la necessità di una nuova articolazione di significato. Le civiltà sono organismi adattivi. Possono reinventarsi, ma lo fanno soltanto quando riconoscono che un ciclo storico si è chiuso. La sensazione, oggi, è che stiamo trattenendo il fiato collettivamente senza avere il coraggio di ammettere che la vecchia grammatica morale non funziona più. Nel frattempo pretendiamo che l’AI sia la soluzione al nostro stesso spaesamento, quasi fosse una sorta di consulente spirituale calibrato con il machine learning. È un’aspettativa ingenua ma anche rivelatrice del livello di disconnessione a cui siamo arrivati.
Si sente dappertutto un appello alla chiarezza, ma quella chiarezza non può essere solo tecnica. L’AI richiede un modello di riferimento. Quel modello, però, deve essere scritto dagli umani ed è esattamente ciò che manca oggi. Huffington lo chiama il nostro draft di specifica morale, la nostra model spec. Se non definiamo cosa significhi dignità umana, quale sia il valore della verità in una società saturata di informazioni o come interpretare la responsabilità in un mondo automatizzato, allora stiamo delegando alle macchine un compito che appartiene prima di tutto a noi.
Si arriva così al punto più scomodo. L’allineamento dell’AI è un riflesso dell’allineamento dell’umanità. Le macchine non possono incarnare principi che non abbiamo ancora formulato con rigore, coerenza e profondità. Pretendere il contrario è un paradosso morale che rischia di trasformarsi in un gigantesco esperimento senza supervisione, destinato a fallire per mancanza di definizioni preliminari. La sfida non è tanto insegnare all’AI a comportarsi bene. È ricordare a noi stessi cosa significhi comportarsi bene in un’epoca in cui l’etica è diventata un algoritmo opzionale e la verità una variabile negoziabile.
Arianna Huffington invita a un riallineamento a monte. Non una nostalgia per sistemi di valori passati, ma una ricostruzione intenzionale di ciò che rende l’esperienza umana degna di essere codificata in un modello cognitivo artificiale. Prima di scrivere il futuro dell’AI, dobbiamo riscrivere il nostro. Non per rifiutare la tecnologia, ma per evitare di costruire una civiltà che affida alle macchine il compito di decidere chi siamo, perché non siamo più in grado di farlo da soli.