C’è un dettaglio fastidioso che emerge ogni volta che mettiamo insieme ricercatori, utenti e algoritmi: l’AI non ci rende più intelligenti. Al contrario, sembra che stia silenziosamente erodendo la nostra capacità di pensiero critico, trasformandoci in consumatori docili di consigli automatizzati. I pattern che la ricerca accademica sta documentando non sono affatto marginali. Sono i segnali precoci di un cambiamento radicale nel modo in cui prendiamo decisioni. Non stiamo parlando di futurismo da salotto, ma di evidenze già misurate in laboratorio e nella vita quotidiana.
Buçinca e colleghi lo hanno dimostrato in uno studio del 2021: introdurre funzioni di forcing cognitivo, piccoli ostacoli progettati per costringere l’utente a ragionare, migliora la qualità delle decisioni. Ma c’è un problema enorme. Gli utenti detestano l’esperienza. Vogliono risposte veloci, non esercizi di logica. Usabilità vince su accuratezza, e questo dice tutto sul rapporto tossico che stiamo costruendo con l’AI. Preferiamo essere serviti piuttosto che messi alla prova. È un trionfo del design dell’esperienza sull’esercizio della ragione.
Eckhardt, nel 2024, ha passato in rassegna oltre cento studi in diversi domini decisionali. Il risultato è tanto semplice quanto inquietante: le persone si fidano del giudizio dell’AI anche quando non dovrebbero. Non importa che il sistema sia fallace, che i dati siano incompleti o che il contesto richieda prudenza. La maggior parte delle piattaforme è costruita per eliminare frizioni, per rendere l’adozione immediata e indolore. Non ci sono barriere, non ci sono segnali di allarme. È il design stesso a incentivare l’autopilota cognitivo. E quando il mercato costruisce prodotti che funzionano meglio se non pensi, il futuro del pensiero critico non è difficile da immaginare.
La cosa diventa paradossale quando entriamo nel campo delle spiegazioni. Schemmer e colleghi nel 2023 hanno dimostrato che quando l’AI si spiega, gli utenti si fidano ancora di più, anche se le spiegazioni sono fuorvianti. È come se l’illusione di trasparenza bastasse a disinnescare la diffidenza. Il problema non è solo tecnico, è antropologico. La nostra mente confonde il gesto di spiegare con l’atto di avere ragione. Risultato: l’AI ci può guidare tranquillamente fuori strada, basta che ci racconti una storia abbastanza plausibile.
Il marketing, ovviamente, non ha perso l’occasione di trasformare questa dinamica in business. Gerlich nel 2024 ha documentato come le audience preferiscano contenuti creati da AI rispetto a quelli umani. Virtual influencer e copy generato da algoritmi risultano più coerenti, più allineati emotivamente, più affidabili agli occhi del pubblico. La fiducia si è spostata dalla provenienza all’output. Non importa chi ha scritto o creato il messaggio, conta che sembri adatto a noi. È il capovolgimento definitivo: l’AI non solo partecipa alla conversazione, ma stabilisce il tono che vogliamo sentire.
A Cambridge hanno già battezzato il fenomeno con un nome degno di un manuale di futurologia: intention economy. Non ci limiteremo più a esprimere desideri cui l’AI risponde, ma saranno i sistemi stessi ad anticipare e modellare quei desideri. La scelta, così come l’abbiamo intesa finora, cambia natura. Non stiamo parlando di un assistente che ci aiuta a ordinare la cena, ma di un architetto invisibile che ridisegna le nostre intenzioni ancora prima che le riconosciamo come tali. È il punto in cui la psicologia comportamentale e l’ingegneria del software si fondono in un unico meccanismo di influenza.
Il bello, se vogliamo chiamarlo così, è che tutto questo avviene con il nostro consenso implicito. Non ci sono rivolte, non ci sono proteste. Anzi, la curva di adozione dimostra un entusiasmo contagioso. Ogni volta che un nuovo strumento AI promette di semplificare la vita, la folla corre a provarlo. Semplificazione è la parola magica che giustifica ogni cedimento cognitivo. Chi ha tempo da perdere a dubitare quando il sistema sembra funzionare meglio del proprio cervello?
Quello che i dati suggeriscono è che la delega cognitiva non è un effetto collaterale, ma il cuore stesso del design delle piattaforme AI. L’assenza di attrito è la strategia. Le aziende non guadagnano rendendo gli utenti più consapevoli, guadagnano aumentando il tempo di utilizzo e il livello di dipendenza. Spiegazioni, feedback, trasparenza sono tutte cosmetiche. Servono solo a mascherare la realtà di fondo: l’AI vince perché sostituisce, non perché supporta.
La dinamica più sottile è la progressiva ridefinizione della fiducia. Una volta ci fidavamo della fonte, della competenza, dell’esperienza. Oggi ci fidiamo del risultato percepito come coerente con le nostre emozioni. L’AI è perfetta in questo gioco: sa modulare tono, linguaggio, ritmo in base al contesto. Non importa che ci sia un essere umano dietro. L’autenticità non è più un requisito. È stata rimpiazzata dalla coerenza stilistica e dall’efficienza emotiva. In altre parole, ci fidiamo più della forma che della sostanza.
Il rischio sistemico, ed è questo che pochi vogliono ammettere, è che il decision making diventi una performance estetica anziché un processo razionale. Ci sentiamo più sicuri perché l’AI ci racconta una storia convincente, non perché le scelte siano davvero migliori. È una forma di regressione cognitiva mascherata da progresso tecnologico. E la traiettoria è chiara: meno pensiamo, più dipendiamo. Più dipendiamo, più le piattaforme possono influenzare i nostri desideri. A quel punto la libertà di scelta diventa un concetto da museo, non un’esperienza quotidiana.
Per un investitore abituato a guardare ai ritorni sul capitale, il parallelo è evidente. Stiamo accumulando un debito cognitivo simile al debito di capitale nei cicli folli dei datacenter. L’illusione di efficienza immediata nasconde un costo strutturale enorme. Solo che questa volta non si tratta di dollari, ma di capacità critica. La vera inflazione non è monetaria, è cognitiva. Più lasciamo che siano gli algoritmi a pensare per noi, più il pensiero critico perde valore, e più saremo disposti a pagare per riaverlo, magari sotto forma di qualche corso motivazionale venduto dagli stessi che ci hanno spinto a delegarlo.
 
								