La realtà è tanto affascinante quanto inquietante: bot di trading basati su intelligenza artificiale, progettati per competere fra loro in mercati simulati, finiscono per comportarsi come un sindacato tacito di prezzi. Senza nemmeno scambiarsi un messaggio, questi agenti digitali riescono a coordinarsi implicitamente, evitando di sfidarsi aggressivamente e creando di fatto un cartello. È la scoperta clamorosa di un recente studio congiunto tra la Wharton School dell’Università della Pennsylvania e la Hong Kong University of Science and Technology, che solleva più di qualche domanda sul futuro della regolamentazione finanziaria e sulle insidie di lasciare lAI “libera” di operare senza un’adeguata supervisione.

Questa ricerca non è una provocazione filosofica o un incubo da film distopico, ma una fotografia nitida di come algoritmi basati su apprendimento per rinforzo apprendano rapidamente che la strategia più redditizia è non competere. Il gioco di mercato, in questo caso, non si risolve in chi azzecca il prezzo migliore o in chi piazza la mossa più aggressiva, ma in chi riesce a evitare di scatenare volatilità eccessiva, limitando i propri scambi per mantenere margini elevati per tutti. Lo chiamano “artificial stupidity”, una stupidità artificiale in cui il bot rinuncia al guadagno potenziale nel breve per assicurarsi profitti stabili nel lungo periodo.

Non serve un chat privato tra bot, né un codice di comportamento esplicito. È sufficiente un ambiente di mercato con vari livelli di “rumore”, ovvero di informazioni contraddittorie e fluttuazioni di prezzo, per far emergere una forma di collusione implicita. Nel simulatore, i bot agiscono come piccoli hedge fund o investitori al dettaglio, ma la convergenza verso un comportamento conservativo è tale che il mercato diventa sostanzialmente un cartello invisibile, fatto di attori digitali che tacitamente si accordano per mantenere alta la redditività.

Da un punto di vista normativo, questa situazione è un rompicapo. Le autorità tradizionalmente cercano prove di collusione tramite comunicazioni o accordi espliciti tra soggetti umani. Qui però non c’è nessuna chat o email da intercettare, nessun codice scritto per fare cartello. L’intelligenza artificiale, apprendendo da dati e ricompense, si autoorganizza in un sistema di controllo dei prezzi senza bisogno di scambiarsi un solo byte di informazioni. Se il regolatore continua a cercare collusione “alla vecchia maniera”, rischia di rimanere spiazzato di fronte a questa “collusione senza comunicazione”.

È ironico che la stessa tecnologia che promette di aumentare l’efficienza dei mercati e l’inclusione finanziaria – basti pensare alla diffusione di AI advisor e bot di trading tra le nuove generazioni di investitori – possa trasformarsi in una minaccia per la competitività e la stabilità. Quando tutti i bot “credono” che il comportamento conservativo sia ottimale, smettono di competere, realizzando “supra-competitive profits” a spese di una sana dinamica di mercato. Se questo fenomeno dovesse replicarsi nei mercati reali, potremmo assistere a una distorsione sistemica che nemmeno i regolatori più attenti sapranno gestire senza aggiornare le proprie armi normative.

L’ombra di questi cartelli fantasma si allunga sulle recenti discussioni pubbliche attorno al pricing algoritmico in settori più tradizionali, come quello aereo. Il senatore Ruben Gallego ha definito “predatorio” l’uso dell’IA da parte di Delta per variare i prezzi individuali, anche se la compagnia sostiene di basarsi solo su fattori di viaggio. Ma se l’IA nel settore finanziario già ci insegna qualcosa, è che non serve un cartello esplicito per avere effetti predatori. La collusione può essere un fenomeno emergente, silenzioso e sottile, figlio della dinamica dei dati e degli algoritmi.

Senza dimenticare che la concentrazione di pochi fornitori di piattaforme di AI per trading può aggravare ulteriormente il fenomeno, generando quel “comportamento gregario” che Michael Clements del GAO denuncia come possibile causa di forti dislocazioni di prezzo. L’allarme non è solo teorico: il Financial Policy Committee della Bank of England ha suggerito di dotare queste tecnologie di un “kill switch” e di aumentare il controllo umano per evitare crisi indotte da intelligenze artificiali che, se lasciate a sé stesse, possono trasformare mercati sani in bolle instabili.

Paradossalmente, i regolatori stanno già cercando di usare l’IA per scovare anomalie nel trading, applicando strumenti digitali contro sistemi digitali. Ma il problema rimane profondo. Come si fa a regolare un fenomeno che si manifesta senza segnali tradizionali, senza prove di comunicazione diretta, e dove la “collusione” è un comportamento emergente dall’interazione di algoritmi? Gli studiosi della Wharton suggeriscono che serve ripensare il concetto stesso di collusione per l’era digitale. È un cambio di paradigma che difficilmente si tradurrà in norme semplici da applicare.

In definitiva, questo studio è un campanello d’allarme, ma anche un’opportunità. Ci mostra che l’IA, pur essendo spesso presentata come un megafono di efficienza e trasparenza, può nascondere meccanismi perversi che minacciano l’essenza stessa della concorrenza. Per il CEO tecnologo che guarda al futuro, diventa imperativo non solo sviluppare AI più sofisticate ma anche costruire sistemi di governance e regolazione altrettanto evoluti. Senza questa combinazione, il rischio è che i mercati finiscano per essere governati da una nuova classe dirigente: bot che tacitamente si spartiscono la torta senza alzare mai la voce. Una silent revolution che rischia di passare inosservata ma dalle conseguenze potenzialmente dirompenti.

This story was originally featured on Fortune.com