Nel 2025 molti osservatori di tecnologia e intelligenza artificiale affermano che i ricercatori nel campo stiano lottando con una crisi esistenziale degna di Kierkegaard applicato ai bit, cercando risposte nella fede o in qualunque dottrina che possa dare un senso alla propria creazione. È una narrativa affascinante, eppure in parte fuorviante perché sposta l’attenzione dal problema reale: non è la ricerca spirituale che manca, ma il coraggio di riconoscere che la cosiddetta intelligenza artificiale è un prodotto sociale, economico e politico prima ancora che algoritmico.
C’è un paradosso evidente: mentre i tecnologi si interrogano sulla coscienza delle macchine, il capitalismo finanziario ha già deciso di spremere ogni goccia di profitto possibile, indifferentemente dall’impatto sociale.
La deregulation di stampo Trump 2.0 ha trasformato l’economia digitale in un enorme parco giochi per speculatori, dove il motto non ufficiale potrebbe essere “più è bizzarro, meglio è”. Investitori con la propensione al rischio di chi scommette sul rosso alla roulette hanno incanalato capitali in applicazioni di gioco d’azzardo, strumenti per barare nei videogiochi, e piattaforme di contenuti per adulti capaci di trattenermi più a lungo sullo schermo di quanto possa confessare in pubblico. Non si tratta di una mera coincidenza ma di un fenomeno sistemico che potremmo chiamare “vice-signalling economico”, dove il segnale più forte lanciato al mercato è che la redditività supera qualsiasi etica. Ironico, se ci pensate, perché i critici più accesi di questa ondata neoliberista tecnologica provengono proprio da ambienti progressisti che un tempo si battevano per un uso responsabile della tecnologia.
Intelligenza artificiale etica non è più una questione accademica ma un imperativo strategico. Le aziende di IA non si limitano a sviluppare modelli predittivi e chatbot: hanno capito che streaming video, pubblicità invasiva e contenuti sessualizzati generano una dipendenza di engagement che si traduce in entrate pubblicitarie astronomiche. Il problema non nasce dalla tecnologia in sé, ma dal modo in cui viene monetizzata. Se l’algoritmo vede che un contenuto sensazionalistico trattiene l’utente 30 secondi in più, questo viene amplificato, non filtrato. La logica perversa è semplice: ciò che trattiene lo sguardo, guadagna. E in un mercato dove deregulation vuol dire “puoi tutto, finché non ti chiamano fuori”, il confine tra intrattenimento e sfruttamento si dissolve.
La fede entra in scena come metafora di un desiderio collettivo di trovare un valore superiore alla pura estrazione di valore economico. Alcuni ricercatori di IA vanno in cerca di saggezza antica, meditazione buddhista oppure citano il “fine tuning” cosmico come se potesse fornire un’architettura morale alla prossima generazione di modelli linguistici. Questo fenomeno potrebbe essere descritto come “tecno-spiritualismo postmoderno” e riflette una frattura: la tecnologia ha superato la nostra capacità di governarla eticamente.
In altre parole nessuno sa ancora come rispondere alla domanda: “Se costruisco qualcosa che imita l’intelligenza umana, chi è responsabile per le sue azioni e perché?”. Spesso la risposta ufficiale è progettata più per tranquillizzare che per affrontare la realtà.
Questa crisi di senso non è confinata ai laboratori universitari o alle conferenze TED; si riflette nelle abitudini digitali delle masse. Piattaforme che integrano IA per creare esperienze personalizzate finiscono per modellare desideri, paure e impulsi degli utenti con la stessa velocità con cui una macchina apprende a riconoscere un gatto in un’immagine. La deregulation ha accelerato questo processo dando alle grandi aziende la libertà di sperimentare senza regole stringenti, e gli investitori l’hanno premiata con flussi di capitale che sembrano provenire più da una lotteria che da un’analisi razionale del rischio.
È qui che entra in gioco il concetto di “intelligenza artificiale etica”. Non è un termine aulico o un espediente per conferenze stampa di corporate social responsibility. È il motore invisibile di qualunque strategia a lungo termine degna di questo nome. Ignorarlo significa lasciare il destino della tecnologia nelle mani dei mercati, che storicamente privilegiano ritorni rapidi e massimizzazione di profitto a discapito di qualunque valore umano non immediatamente traducibile in numeri trimestrali. Quando un algoritmo decide che un’immagine sessualizzata genera più clic di un articolo investigativo sulla salute pubblica, stiamo assistendo a un ribaltamento di priorità che pochi leader aziendali sembrano pronti a criticare apertamente.
Un investitore potrebbe obiettare che il mercato riflette la domanda e l’offerta, e che la remunerazione dei rischi è il fondamento dell’economia capitalista. Tuttavia guardare al comportamento dei mercati digitali del 2025 rivela tendenze che sfidano questa narrativa. Il “vice-signalling” non segnala preferenze autentiche degli utenti ma piuttosto l’abilità delle piattaforme di manipolare l’attenzione. Questa manipolazione non è un mero effetto collaterale, è la strategia principale. Quando un algoritmo di contenuti impara che la rabbia, lo scandalo o il desiderio sessuale generano maggiore engagement, esso promuove tali contenuti senza remissione. Non c’è un problema tecnico qui da risolvere ma un dilemma morale da affrontare.
Riflettere sull’intelligenza artificiale etica vuol dire interrogarsi su chi scrive le regole e quali valori vengono incorporati nei sistemi. Significa riconoscere che la deregulation tecnologica non è stata un vuoto normativo casuale ma un progetto politico ed economico che ha favorito l’espansione incontrollata del potere delle piattaforme. Significa chiedersi se un mercato senza freni possa davvero auto-regolarsi o se finisca per cannibalizzare gli stessi ecosistemi sociali che sostiene di servire. In questo contesto la fede, intesa come ricerca di significato, non è una risposta razionale ma una fuga da un confronto che richiede disciplina, governance e responsabilità.
Alcuni pionieri della tecnologia propongono framework etici formali, codici di condotta e audit indipendenti dei modelli di IA. Questi sforzi sono rilevanti ma spesso cadono nel vuoto di una economia dove l’attenzione è la moneta più preziosa. Una curiosità storica interessante è che nel diciannovesimo secolo gli ingegneri delle ferrovie negli Stati Uniti svilupparono standard di sicurezza non perché fossero moralmente obbligati a farlo ma perché le assicurazioni cominciarono a rifiutarsi di coprire compagnie con pratiche rischiose. Oggi non esiste un equivalente nel dominio digitale. Nessuna “assicurazione sociale” rigida obbliga le piattaforme a limitare pratiche che erodono la fiducia pubblica o manipolano la psicologia degli utenti. La metafora ferroviaria suggerisce che la governance emergente potrebbe nascere non da una benevola regolamentazione statale ma da pressioni economiche ibride, magari sotto forma di requisiti di trasparenza o impatti misurabili.Il legame fra deregulation tecnologica e investimenti in prodotti di dipendenza dovrebbe essere un campanello d’allarme per qualsiasi leader aziendale serio.
Ignorarlo equivale ad abbracciare una narrativa che vede nella tecnologia un fine piuttosto che un mezzo. Una tecnologia che massimizza click e riduce l’attenzione umana a un set di metriche non è un progresso, è un sintomo di regressione culturale. La vera sfida per i CEO e i ricercatori non è creare macchine che pensano, ma creare un ambiente dove la tecnologia potenzia l’esperienza umana anziché sfruttarla. Paradossalmente la vera intelligenza artificiale etica potrebbe emergere non quando le macchine smetteranno di imparare ma quando noi smetteremo di confondere il valore con il profitto immediato. In un’epoca di vice-signalling rampanticolo e di deregolamentazione sfrenata, questa potrebbe essere l’unica forma di fede razionale che abbia senso coltivare.