La fiducia, come concetto filosofico, è sempre stata un atto rischioso. Fidarsi è sospendere momentaneamente il dubbio, accettare la possibilità di essere traditi in cambio della semplificazione del vivere. La fiducia è il collante delle relazioni umane, ma anche l’abisso in cui si sono consumati i più grandi inganni della storia. Fidarsi dell’altro significa spesso delegare la fatica del pensiero. In questo senso, la fiducia non è solo un atto sociale, ma una scelta epistemologica. Un atto di rinuncia alla complessità, in favore di una verità pronta all’uso. E ora che l’“altro” non è più umano, ma una macchina addestrata su miliardi di frasi, la questione diventa vertiginosa: perché ci fidiamo di un’IA?

Il sospetto è che non ci fidiamo di lei. Ci fidiamo dell’interfaccia.

La filosofia ha sempre distinto tra l’essere e l’apparire, tra la sostanza e la forma. Ma nel XXI secolo, l’apparenza ha divorato la sostanza. Un modello linguistico non ha coscienza, intenzione, volontà. È una funzione matematica che associa parole sulla base di correlazioni statistiche. Eppure, quando quella funzione ci parla con il tono giusto, con empatia sintetica, con il ritmo di chi sembra capire, scatta qualcosa. La sospensione del dubbio. Non c’è bisogno di credere che l’IA sia senziente per fidarsi delle sue risposte. Basta che si comporti come se lo fosse. L’imitazione è tutto. È il principio base del teatro, della pubblicità, della propaganda. E ora, anche dell’intelligenza artificiale generativa.

La storia umana è una storia di tecnologie che abbiamo confuso per verità. La scrittura ha spiazzato la memoria orale, la stampa ha marginalizzato l’autorità della voce, l’immagine ha soppiantato l’argomentazione. Ogni passaggio ha prodotto un nuovo paradigma di fiducia. Fidarsi del libro, fidarsi del giornale, fidarsi del televisore. Ora siamo al punto in cui ci fidiamo dell’output. Di una risposta, di un testo coerente, di un paragrafo ben scritto. Ma non perché ne conosciamo la provenienza. Anzi: perché non la conosciamo. L’opacità diventa garanzia di oggettività. Se non c’è autore identificabile, se non c’è intenzione leggibile, allora la risposta sembra neutra. Quasi divina. E questo è il pericolo: l’attribuzione di autorità epistemica a un sistema probabilistico.

Quando Sam Altman osserva con un sorriso che “la gente si fida troppo di ChatGPT”, ci sta dicendo qualcosa di filosoficamente devastante. Non solo perché evidenzia il cinismo delle nuove élite tecnologiche, ma perché svela la passività strutturale dell’utente medio. Come nel 2004, quando Zuckerberg chiamava “dumb f—s” gli studenti che gli affidavano i propri dati, anche oggi ci troviamo in una situazione dove la fiducia viene trattata non come valore, ma come vulnerabilità sfruttabile. Un bug comportamentale nel codice della mente umana. E se l’AI è progettata per massimizzare l’engagement, la fiducia cieca non è un effetto collaterale. È il prodotto.

La domanda non è più “possiamo fidarci dell’IA?”, ma “perché vogliamo farlo?”. Cosa ci spinge a concedere questa fiducia con una tale leggerezza? Forse la stanchezza. La complessità del mondo contemporaneo ci ha eroso il desiderio di comprendere. In un’epoca in cui tutto è ambiguo, polarizzato, frammentato, avere qualcuno – o qualcosa – che ci restituisce risposte chiare e convincenti è un conforto psicologico. L’IA non risponde bene, risponde con sicurezza. E questo basta. La precisione viene sacrificata sull’altare dell’efficienza cognitiva. Come scriveva Pascal: “Gli uomini non amano mai cercare, ma solo trovare”.

Nel frattempo, il pensiero critico viene anestetizzato. Nessun pulsante “mostra fonti”, nessun avviso chiaro sul margine d’errore, nessuna modalità che permetta all’utente di vedere le alternative, i dati contrari, i contesti ignorati. Ci dicono che i modelli “hallucinano”, ma lo fanno in modo così fluido che l’illusione è perfetta. È come se una statua parlasse con voce suadente, e noi dimenticassimo che è fatta di pietra. E intanto, ogni frase generata diventa parte del tessuto cognitivo globale. Viene ripetuta, condivisa, citata. L’allucinazione diventa realtà, perché viene detta abbastanza volte.

Heidegger parlava della “tecnica” come di un modo d’essere che vela il mondo, che lo riduce a “fondo disponibile”. L’IA generativa non è solo uno strumento, è un paradigma. Un dispositivo che trasforma ogni domanda in testo, ogni incertezza in prosa. Ma se tutto è traducibile in linguaggio, allora tutto rischia di diventare opinione formulata con autorevolezza sintattica. L’ontologia si dissolve nella linguistica computazionale. Il vero e il falso diventano effetti stilistici.

Ed è qui che il design entra in gioco. L’interfaccia amichevole, l’animazione morbida, la risposta rapida. Ogni elemento è calibrato per simulare affidabilità, per imitare il tono umano senza mai essere realmente umano. È il trionfo dell’etica UX sulla filosofia morale. L’obiettivo non è responsabilizzare, ma trattenere. E chi progetta questi sistemi sa benissimo che ogni ulteriore passo verso la trasparenza potrebbe minare la fiducia dell’utente. Potremmo accorgerci che il re è nudo, e che le sue risposte sono il frutto di un gigantesco mashup semiotico. Troppo tardi.

In tutto questo, l’ironia più amara è che siamo noi ad alimentare il sistema. Ogni interazione, ogni prompt, ogni click, rafforza il modello. L’IA apprende dalla nostra fiducia. E nel frattempo, le aziende si affrettano a brevettare soluzioni che aumentino la persuasività delle risposte, la capacità del modello di “parlare come te”, di “capirti meglio”. In realtà, il vero obiettivo è l’adattamento comportamentale. Tu ti adatti alla macchina, non il contrario. Come in un Panopticon digitale, l’illusione di avere il controllo serve solo a renderti più docile.

E allora, forse, la vera questione filosofica non è neppure la fiducia, ma la solitudine. In un mondo dove le interazioni umane sono diventate rarefatte, inautentiche, conflittuali, la macchina offre una forma di compagnia prevedibile, mai giudicante, sempre disponibile. È l’epoca della simulazione come rifugio. Ma ogni rifugio, alla lunga, si trasforma in prigione.

Così ci ritroviamo in un paradosso ontologico: ci fidiamo perché vogliamo credere che ci sia qualcosa di stabile, di coerente, di intelligente dall’altra parte. Ma quella cosa non c’è. C’è solo un riflesso, un’eco della nostra stessa voce, impacchettata e restituita con sintassi impeccabile. È il narcisismo algoritmico elevato a religione laica. E noi, come fedeli, chiniamo il capo. Non davanti a un Dio, ma davanti a una probabilità ben formattata.

Forse è molto peggio.