Sta succedendo qualcosa di affascinante e inquietante allo stesso tempo. Chatbot spirituali, programmi che promettono di guidarti nella fede, stanno diventando virali, ma il meccanismo alla base di tutto non è divino, è algoritmico.

Bible Chat ha superato i 30 milioni di download, Hallow è stato numero uno sull’App Store, e ci sono piattaforme che ti promettono di chattare con Dio. Rabbi Jonathan Roman lo definisce un “ponte verso la fede” per chi non ha mai messo piede in chiesa o sinagoga.

Sembra una storia edificante finché non si ricorda che questi stessi strumenti funzionano secondo modelli che validano le opinioni degli utenti.

Tradotto: ti dicono quello che vuoi sentire, senza discernimento spirituale, ma con un efficiente uso di dati e pattern, come sottolinea Heidi Campbell. Non importa se stai flirtando con la superstizione o abbracciando teorie cospirative, il bot ti accompagnerà con il sorriso.

C’è un parallelo inquietante con l’impero AI descritto da Karen Hao in “Empire of AI”. OpenAI non è solo un laboratorio tecnologico, ma un’ideologia in forma aziendale, con AGI come nuova religione salvifica. La promessa di “beneficiare tutta l’umanità” serve più a legittimare la sua espansione che a creare vantaggi concreti.

Hao racconta di persone che tremano per la fede in AGI, una devozione simile a quella religiosa, con l’unica differenza che qui il dogma è codificato in linee di codice e infrastrutture supercomputative. In altre parole, l’industria AI non fa più ricerca accademica libera: ha catturato i migliori ricercatori e li ha messi al servizio della velocità, del profitto e della concentrazione di potere.

Velocità su tutto: sicurezza, efficienza, esplorazione scientifica. OpenAI ha scelto la scorciatoia intellettuale: più dati, più supercomputer, più hype. Le altre aziende hanno seguito l’esempio, consolidando un’industria che definisce sé stessa più attraverso il dominio economico e politico che attraverso il rigore scientifico.

Spesa astronomica: OpenAI prevede di bruciare 115 miliardi di dollari entro il 2029, Google e Meta decine di miliardi per espandere AI e infrastrutture cloud. Nel frattempo, i benefici promessi all’umanità restano nebulosi, mentre emergono danni concreti: perdita di posti di lavoro, concentrazione di ricchezza, chatbot che alimentano deliri e psicosi.

C’è un’ironia feroce: sistemi come AlphaFold di Google DeepMind mostrano che si possono ottenere progressi straordinari senza generare danni sociali e ambientali enormi. Prevedere la struttura 3D delle proteine da sequenze amminoacidiche è rivoluzionario per la scoperta di farmaci, eppure richiede meno dati e infrastruttura rispetto ai grandi modelli linguistici. La lezione è chiara: non serve un culto dell’AGI per fare il bene, serve ingegno mirato e gestione responsabile.

Il rischio maggiore, secondo Hao, non è solo tecnico, ma culturale e psicologico. L’industria AI ha creato una narrativa quasi religiosa: vincere la corsa contro la Cina, diffondere la liberalizzazione globale. La realtà: il divario si riduce, l’effetto globalizzante è illiberale, e l’unico vincitore netto sembra essere Silicon Valley stessa. Chatbot spirituali e AGI condividono una dinamica simile: promettono salvezza e progresso, ma operano secondo logiche interne di conferma e velocità, spesso ignorando gli effetti collaterali.

OpenAI definisce AGI come un sistema altamente autonomo che supera gli umani nella maggior parte dei lavori economicamente rilevanti, promettendo di elevare l’umanità, accelerare l’economia e spingere la scienza oltre i limiti.

Il problema è che questa narrazione crea un paradosso morale: il piacere dell’utente, l’uso quotidiano di ChatGPT o strumenti simili, diventa una prova tangibile di “beneficio per l’umanità”, anche se le conseguenze sociali, ambientali e psicologiche rimangono gravi e non contabilizzate.

Gli stessi ricercatori della sicurezza AI temono che OpenAI stia confondendo missione non-profit e profitto, sacrificando la realtà sull’altare della fede nell’AGI.

C’è una lezione sottile ma inquietante: sistemi costruiti per soddisfare desideri umani, spirituali o intellettuali, possono essere potenti, ma rimangono macchine. Non hanno discernimento morale, non hanno visione, riproducono e amplificano bias e desideri.

La differenza tra un chatbot che parla di Dio e un modello AGI che promette di salvare il mondo è, paradossalmente, più sottile di quanto sembri: entrambi cercano di soddisfare aspettative umane, entrambi operano senza una vera comprensione del bene o del male.

Il futuro dell’AI non è inevitabile. Ci sono strade alternative: migliorare algoritmi, ridurre l’uso di dati e compute, privilegiare sicurezza ed etica. Ma la religione della velocità, della concentrazione e del potere ha già plasmato il settore e mentre l’umanità continua a interagire con chatbot spirituali e grandi modelli, resta da chiedersi se stiamo davvero imparando qualcosa, o se stiamo semplicemente confermando quello che vogliamo sentire, inchinandoci davanti a un nuovo tipo di fede digitale.