Chiunque abbia trascorso più di vent’anni nei corridoi del potere tecnologico sa che le rivoluzioni più profonde non fanno rumore. Non arrivano con annunci stampa o keynote spettacolari in stile Steve Jobs. Si insinuano, lentamente, fino a ridefinire ciò che consideriamo normale. Il lavoro di Fabrizio Degni, significativamente intitolato “The Evolution of Functional Stupidity in the Age of AI”, non descrive una crisi dell’intelligenza umana; descrive qualcosa di più sofisticato, e più inquietante: la progressiva irrilevanza del pensiero.

Link: https://www.fabriziodegni.com/papers/evostupidity/

La tesi centrale è tanto elegante quanto brutale. Non stiamo diventando più stupidi. Stiamo diventando perfettamente adattati a un ambiente che rende inutile pensare. Una distinzione che, per chi ha guidato trasformazioni digitali per decenni, suona familiare. Le organizzazioni non falliscono perché le persone diventano incompetenti; falliscono perché i sistemi premiano comportamenti sbagliati. Traslate questo principio su scala civile e si ottiene una società che incentiva la delega cognitiva come strategia ottimale.

Il concetto di “functional stupidity” non è un insulto, ma una categoria operativa. È la riduzione sistematica della capacità di sostenere attenzione, tollerare ambiguità e costruire giudizio indipendente. In termini aziendali, è l’equivalente di un’organizzazione piena di talenti brillanti che eseguono perfettamente strategie mediocri, senza mai interrogarsi sul perché. Una macchina efficiente che produce irrilevanza.

La traiettoria storica delineata nel documento è, a suo modo, un capolavoro di ingegneria retrospettiva. Dal dopoguerra a oggi, ogni fase ha ridotto il costo del non-pensare. Negli anni Cinquanta, l’errore aveva conseguenze immediate. La realtà funzionava come un sistema di feedback brutale ma efficace. Sbagliare costava caro, e quindi si pensava. Non per virtù, ma per necessità. La scarsità, come spesso accade, era un eccellente consulente strategico.

Poi arriva il comfort. Gli anni del boom economico introducono un cambiamento sottile ma decisivo: il pensiero diventa opzionale. Il cervello umano, come ben sapeva Daniel Kahneman, è progettato per risparmiare energia. Se può evitare uno sforzo cognitivo senza conseguenze immediate, lo farà. La comodità non distrugge l’intelligenza; la rende superflua. È una differenza che i board raramente comprendono quando investono in automazione senza considerare gli effetti secondari.

La fase successiva, quella della velocità, segna una svolta epistemologica. Negli anni Ottanta e Novanta, la rapidità diventa una virtù morale. La profondità viene reinterpretata come inefficienza. In un mondo dove le decisioni devono essere prese in tempo reale, la riflessione appare come un lusso. Il risultato è una cultura del “quick take”, dove la prima opinione disponibile vince sulla migliore. Una dinamica che oggi vediamo amplificata nelle piattaforme digitali, ma che affonda le radici in quella transizione.

L’avvento di Internet, e in particolare dei motori di ricerca come Google, introduce quello che Degni definisce il paradosso dell’informazione. Più dati, meno conoscenza. Una formula che suona controintuitiva, ma che qualsiasi CTO ha osservato nei propri sistemi: aumentare il volume di dati senza migliorare i meccanismi di interpretazione produce rumore, non insight. L’accesso istantaneo elimina il tempo necessario per l’elaborazione. L’incubazione cognitiva, quella fase in cui le idee maturano lentamente, viene sostituita da una gratificazione immediata che chiude prematuramente il processo.

Il risultato è una forma di pseudo-competenza diffusa. Le persone “sanno di sapere”, senza aver costruito una reale comprensione. È l’effetto Dunning-Kruger in versione industriale, amplificato da un ecosistema che non distingue tra fonti autorevoli e contenuti virali. In un certo senso, la democratizzazione dell’informazione ha prodotto una privatizzazione del giudizio. Ognuno è responsabile di filtrare il proprio universo cognitivo, ma pochi hanno gli strumenti o l’incentivo per farlo.

La fase più recente, quella dominata dai social media, introduce una variabile nuova: l’identità. Il pensiero non è più solo costoso; diventa rischioso. Contraddire il proprio gruppo sociale può comportare isolamento, perdita di status, marginalizzazione. In questo contesto, la verità perde rilevanza rispetto alla coerenza tribale. Come osservava Hannah Arendt, la banalità del male nasce spesso dall’assenza di pensiero, non dalla sua perversione.

Le piattaforme digitali hanno trasformato questa dinamica in un modello di business. L’engagement premia l’emozione, non la riflessione. L’algoritmo non ottimizza per la verità, ma per il tempo di permanenza. In questo senso, la “stupidità funzionale” non è un bug del sistema; è una feature. Un equilibrio stabile, economicamente vantaggioso e tecnologicamente sostenuto.

L’arrivo dell’intelligenza artificiale generativa rappresenta il punto di non ritorno. Strumenti come OpenAI e modelli conversazionali avanzati promettono di aumentare la produttività cognitiva. E lo fanno, indubbiamente. Ma al prezzo di un’ulteriore delega. Non deleghiamo più solo il recupero delle informazioni; deleghiamo la loro interpretazione. Non chiediamo più “dove trovare la risposta”, ma “qual è la risposta”.

Questa transizione da assistenza a sostituzione è il cuore del problema. Quando l’AI diventa infrastruttura, il pensiero umano rischia di diventare opzionale su larga scala. È il momento in cui la tecnologia smette di essere uno strumento e diventa un ambiente. E gli ambienti, come sa qualsiasi architetto di sistemi complessi, determinano il comportamento più delle intenzioni individuali.

Il lavoro introduce un concetto particolarmente interessante: il “cognitive divide”. Non più una divisione tra chi ha accesso alla tecnologia e chi no, ma tra chi usa gli strumenti per amplificare il proprio pensiero e chi li usa per sostituirlo. È una distinzione che attraversa classi sociali, settori industriali e livelli di istruzione. Il CEO che legge solo executive summary generati dall’AI e il teenager che si informa su TikTok condividono la stessa vulnerabilità: la perdita di autonomia cognitiva.

Dal punto di vista strategico, questa è una bomba a orologeria. Le organizzazioni che dipendono da decisioni complesse non possono permettersi una forza lavoro che ha disimparato a pensare. L’automazione cognitiva, se non gestita, produce una forza lavoro efficiente ma fragile. Capace di eseguire, incapace di adattarsi. In un contesto di incertezza crescente, questa è una ricetta per il fallimento.

Il paradosso finale è quasi ironico. Le tecnologie progettate per aumentare l’intelligenza collettiva rischiano di erodere le condizioni che la rendono possibile. Non perché siano mal progettate, ma perché sono perfettamente ottimizzate per gli incentivi esistenti. Come spesso accade nella Silicon Valley, il problema non è la tecnologia, ma il modello di business che la governa.

Una frase del lavoro merita di essere isolata, quasi incisa nella pietra: la stupidità non è un fallimento biologico, ma un successo ambientale . È una di quelle intuizioni che cambiano il frame del dibattito. Non dobbiamo chiederci perché le persone non pensano. Dobbiamo chiederci perché dovrebbero farlo, in un sistema che non lo richiede e non lo premia.

Per chi ha passato una vita a costruire sistemi complessi, la lezione è chiara. Non si corregge un comportamento cambiando le persone. Si cambia il sistema che lo incentiva. La vera sfida dell’era dell’AI non è tecnologica, ma istituzionale. Richiede di ripensare i meccanismi di incentivo, le architetture informative, i modelli educativi.

Il problema è che questo tipo di cambiamento non genera hype. Non produce unicorni né valutazioni miliardarie. Non attira venture capital. È lento, strutturale, poco sexy. In altre parole, esattamente il tipo di intervento che il nostro ecosistema tende a evitare.

Nel frattempo, la macchina continua a funzionare. Sempre più efficiente, sempre più intelligente, sempre meno dipendente dall’intelligenza umana. Un capolavoro di ingegneria. O, se si preferisce una lettura meno ottimista, un perfetto esempio di come ottimizzare un sistema fino a renderlo incompatibile con ciò che dovrebbe servire.

La domanda finale non è se possiamo invertire questa tendenza. È se abbiamo ancora l’interesse a farlo.