Tristan Harris, ex insider della Silicon Valley e oggi una delle voci più lucide dell etica tecnologica, in una recente intervista a Newsweek smonta questa narrazione con un gesto semplice e quindi radicale. Dice che l’apocalisse dell intelligenza artificiale non è scritta da nessuna parte. E che raccontarla come destino è già una scelta politica.

Il punto non è se l intelligenza artificiale diventerà potente. Lo è già. Il punto è chi decide come, per chi e a quale costo. Harris insiste su un dettaglio che nel dibattito pubblico viene trattato come un fastidio. L’IA non è una forza naturale. Non è un terremoto né una pandemia. È una costruzione industriale guidata da incentivi economici, architetture di potere e scelte di governance. Definirla inevitabile equivale a togliere responsabilità a chi la sta costruendo e voce a chi la subirà.

La Silicon Valley ama i racconti deterministici perché funzionano come anestetico morale. Se qualcosa è inevitabile allora non serve discuterne. Se è il futuro allora chi si oppone è retrogrado. Harris rovescia il tavolo. Ricorda che ogni traiettoria tecnologica è il risultato di decisioni umane, spesso prese in stanze chiuse, finanziate da capitali concentrati e giustificate da una retorica di progresso che confonde velocità con virtù. Non è la prima volta che accade. È la prima volta che accade a questa scala.

Oggi i sistemi più avanzati vengono addestrati, distribuiti e aggiornati da una manciata di aziende private. I loro modelli decidono cosa vediamo, cosa compriamo, cosa crediamo plausibile. Influenzano il lavoro, l’attenzione, la politica. Eppure le regole che li governano sono frammentarie, reattive, spesso scritte dopo che il danno è già stato fatto. Harris lo dice senza giri di parole. Stiamo conducendo un esperimento su scala planetaria senza consenso informato.

La distanza tra potere e responsabilità è il vero rischio sistemico. Non serve immaginare un IA che stermina l’umanità per parlare di apocalisse. Basta osservare gli effetti cumulativi già in atto. Automazione che ridisegna il mercato del lavoro più velocemente di quanto i sistemi educativi possano adattarsi. Algoritmi che massimizzano l engagement erodendo la capacità di attenzione e la salute mentale. Sistemi di raccomandazione che amplificano polarizzazione e disinformazione perché è ciò che ottimizza i ricavi. Tutto questo non è fantascienza. È bilancio trimestrale.

Harris colpisce un nervo scoperto quando mette in discussione la legittimità di pochi individui nel decidere il futuro cognitivo della specie. Elon Musk, Sam Altman, pochi altri nomi che oscillano tra il ruolo di profeti e quello di regolatori de facto. Non è una critica personale. È una critica strutturale. In nessun altro settore con un impatto così profondo sulla democrazia accetteremmo che le regole vengano scritte dagli stessi attori che traggono profitto dall assenza di regole. Nell intelligenza artificiale lo stiamo normalizzando.

Il paradosso è che più si parla di rischio esistenziale lontano, meno si discute dei rischi politici immediati. Harris non nega la possibilità di scenari catastrofici futuri. Ma sottolinea che l ossessione per l apocalisse finale funziona come distrazione. Mentre immaginiamo macchine onnipotenti, accettiamo senza dibattito sistemi opachi che già oggi influenzano elezioni, mercati e comportamenti sociali. L’apocalisse dell intelligenza artificiale non arriva come un colpo di stato. Arriva come un aggiornamento automatico.

La narrazione dell inevitabilità ha un altro effetto collaterale. Trasforma la cittadinanza in spettatrice. Se il futuro è già scritto allora l’unico ruolo possibile è adattarsi. Harris rifiuta questa passività. Insiste sul fatto che il futuro dell IA è una scelta politica. Politica nel senso più classico e meno ideologico del termine. Chi decide le regole. Chi paga i costi. Chi beneficia dei vantaggi. La tecnologia non è neutrale quando ridistribuisce potere.

C è un passaggio dell intervista che merita attenzione perché rompe l incantesimo della neutralità tecnica. Harris parla di incentivi. Finché il successo dei modelli sarà misurato in termini di scala, velocità e dominanza di mercato, i comportamenti emergeranno di conseguenza. Non perché gli ingegneri siano cattivi ma perché il sistema premia certe scelte e ne punisce altre. Parlare di etica senza parlare di incentivi è come parlare di clima ignorando i combustibili fossili.

La governance dell intelligenza artificiale diventa allora il vero campo di battaglia. Non come freno all innovazione ma come sua condizione di legittimità. Harris suggerisce che senza un coinvolgimento democratico reale, l’IA rischia di consolidare forme di potere difficili da contestare. Algoritmi proprietari, dati inaccessibili, decisioni automatizzate non spiegabili. Tutti elementi che rendono la responsabilità un concetto teorico più che pratico.

Le stesse aziende che raccontano l’IA come inevitabile investono enormi risorse per orientarne lo sviluppo a proprio vantaggio. Inevitabile per chi. Inevitabile rispetto a quali alternative. La storia della tecnologia è piena di strade non prese. Standard aperti contro ecosistemi chiusi. Regolazione preventiva contro interventi tardivi. Benefici diffusi contro rendite concentrate. L’intelligenza artificiale non fa eccezione. Fa solo più rumore.

ChatGPT e i sistemi simili diventano in questa lettura non il problema finale ma il sintomo iniziale. Sono interfacce amichevoli dietro cui si nascondono scelte profonde su lavoro cognitivo, creatività, conoscenza. Accettarli senza discutere le regole che li governano equivale ad accettare un nuovo contratto sociale scritto in linguaggio di programmazione e firmato da altri.

Harris non offre soluzioni semplici e diffida di chi lo fa. Il suo messaggio è meno consolatorio ma più onesto. L’apocalisse dell intelligenza artificiale non è inevitabile ma l inerzia lo è. Se le decisioni restano concentrate, se la retorica del destino continua a zittire il dibattito, se la governance dell’intelligenza artificiale viene trattata come un dettaglio tecnico, allora gli esiti peggiori diventano probabili. Non per malvagità delle macchine ma per pigrizia delle istituzioni.

Move fast and break things. Applicata all intelligenza artificiale suona meno come uno slogan e più come una minaccia. Harris invita a rallentare non per paura ma per scelta. A riconoscere che il futuro non è una linea retta ma un campo di possibilità. A ricordare che chiamare qualcosa inevitabile è spesso il modo più elegante per evitare di assumersene la responsabilità.

Il vero punto provocatorio è questo. Se l’apocalisse dell intelligenza artificiale arriverà, non sarà perché non potevamo evitarla. Sarà perché abbiamo deciso di non scegliere.