The rise of AI as a threat to the S&P 500

La verità è che l’industria ha finalmente iniziato a confessare ciò che molti fingevano di non vedere. L’intelligenza artificiale, questo nuovo idolo corporate, sta entrando nei documenti ufficiali delle big company con la stessa eleganza con cui un hacker entra in un server mal protetto. Non è più solo un argomento da keynote o da marketing patinato, è un rischio finanziario dichiarato. E quando le aziende iniziano a scriverlo nero su bianco nei filing regolamentari, significa che l’entusiasmo si è scontrato con la realtà. Tre aziende su quattro dell’S&P 500 hanno introdotto o ampliato sezioni dedicate ai rischi AI, e no, non lo hanno fatto per trasparenza altruistica. L’hanno fatto perché devono proteggersi dagli investitori, non dall’AI.

Interessante notare come un terzo delle aziende ammetta che il vero problema non è l’intelligenza artificiale in sé, ma chi la usa contro di loro. Malicious actors, così li chiamano, quasi a voler mantenere un’aura da thriller hollywoodiano. Centonovantatré aziende hanno aggiornato le proprie sezioni di rischio in questo senso. Nel frattempo il termine deepfake ha smesso di essere un meme e ha iniziato a popolare seri documenti legali, raddoppiando la sua presenza ufficiale in un anno. Da sedici a quaranta menzioni. Non male per una parola che, fino a due anni fa, faceva solo sorridere i manager durante le presentazioni.

Più inquietante, e al contempo più rivelatore, è il fatto che quasi un’azienda su cinque ora teme seriamente di perdere il controllo sui propri dati o sulla proprietà intellettuale semplicemente interagendo con sistemi AI. Novantacinque aziende lo ammettono. Quante altre lo pensano ma non lo scrivono è un’altra questione. Ancora più ironico, considerando che la maggior parte delle corporate ha firmato contratti con provider terzi di modelli AI senza neppure leggere le clausole sulle vulnerabilità software. Cinquantasei aziende hanno finalmente trovato il coraggio di dirlo apertamente, come se si fossero appena svegliate da un’illusione collettiva.

Qualcosa di simile accade nel settore energetico. Un terzo delle utility, dieci aziende per la precisione, ha iniziato a parlare del problema crescente dei consumi energetici dell’AI. Serve dire che lo sapevamo tutti fin dall’inizio? Forse sì, ma evidentemente serviva un report trimestrale per trasformare una banalità tecnica in un rischio strategico. È anche esploso l’interesse per la compliance: i riferimenti al rischio legato all’EU AI Act sono triplicati in dodici mesi, passando da ventuno a sessantasette aziende. Il messaggio implicito è chiaro: la regolamentazione è diventata un problema solo ora che è reale e che qualcuno potrebbe farla rispettare.

In parallelo, la corsa competitiva si fa feroce. Centosessantotto aziende dichiarano che l’AI stessa è diventata un rischio competitivo. Tradotto: temono che qualcun altro la usi meglio di loro. Il rischio di bias è raddoppiato, da settanta a centoquarantasei citazioni. Come se la discriminazione algoritmica fosse un fenomeno nuovo e non un problema intrinseco noto da anni. Eppure la narrativa è comoda: basta dichiarare il rischio per sembrare virtuosi, mentre i modelli continuano a operare come scatole nere.

Affascinante anche la contraddizione tra retorica pubblica e realtà documentale. La paura della perdita di posti di lavoro, tanto cara ai media e ai talk show, quasi non compare nei filing. Per le aziende, il problema non è il lavoratore sostituibile ma il ritorno sugli investimenti. Cinquantasette imprese hanno scritto nero su bianco che temono l’insuccesso economico dei progetti AI, più di quante si preoccupino di un impatto sociale devastante. È la differenza tra ciò che l’opinione pubblica vuole sentire e ciò che il capitale realmente teme.

Chi guarda questi numeri con un occhio freddo non può ignorare un dettaglio sottile: la narrativa del progresso inevitabile sta cedendo il passo alla narrativa del rischio inevitabile. L’AI è passata da promessa salvifica a potenziale boomerang finanziario e reputazionale. Nonostante ciò, le aziende continuano a spingere. Perché? Perché nel capitalismo la paura è solo un’altra metrica da inserire nel risk management. Il vero paradosso è che più l’AI diventa rischiosa, più diventa indispensabile. Ed è proprio qui che il gioco si fa interessante.