Ci siamo: anche Luciano Floridi ha il suo avatar cognitivo. Si chiama LuFlot, ed è un’intelligenza artificiale generativa che, a detta dei suoi giovani creatori, dovrebbe incarnare — se mai un algoritmo potesse farlo — trent’anni di pensiero filosofico del direttore del Digital Ethics Center di Yale. Ebbene sì, il digital twin è sbarcato anche nel pensiero critico, e stavolta non si limita a simulare macchine industriali o profili finanziari, ma un vero e proprio intellettuale. L’ultima mossa dell’era epistemica delle allucinazioni assistite da AI.
Floridi, con il consueto equilibrio tra rigore e understatement anglosassone, ammette: “Io ho solo condiviso i miei scritti e dato qualche suggerimento sul design.” La paternità operativa del progetto, infatti, è tutta di Nicolas Gertler, matricola di Yale, e Rithvik Sabnekar, liceale texano con talento per lo sviluppo software. Due nomi che, nel contesto di una Ivy League dove il filosofo è leggenda accademica, suonano come una sottile vendetta della generazione Z: i padri della filosofia digitale messi in scena dalla loro progenie algoritmica.
Il cuore del sistema è GPT-4, potenziato con retrieval augmented generation, tecnica che consente al chatbot di connettere dinamicamente le risposte alle fonti testuali di Floridi, citando direttamente. In sostanza, il bot non “parla come Floridi”, ma lo fa con le sue stesse parole. Meglio ancora: lo fa in modalità sincrona, disgregando la linearità temporale della produzione umana. Tutti i testi sono “ora”, tutti i pensieri simultanei. Una macchina filosofica che tratta i testi come Google Photos tratta i ricordi: scansionati, connessi, rianimati da pattern emergenti.
Certo, l’algoritmo è brillante, ma anche incline a fabbricare citazioni false. Floridi stesso racconta di un articolo mai scritto con un amico giornalista, attribuito dal bot con disinvoltura. La hallucination, quel difetto strutturale dei LLM che agisce come una bugia elegante, torna protagonista anche nella sfera accademica. Ma il professore non si indigna: si limita a sorridere. Come dire: ci siamo infilati nel tunnel e ora tocca illuminarlo da dentro.
La chiave, dice, è capire che gli abusi — dalla manipolazione alla disinformazione — non sono colpa dei chatbot, ma di chi li usa. È la versione aggiornata del “guns don’t kill people” della Silicon Valley: gli strumenti sono neutri, sono gli umani ad essere moralmente complicati. E tuttavia, proprio per questo, servono nuove forme di alfabetizzazione: tecniche, ma anche storiche, culturali, semantiche. Una pedagogia della complessità per utenti sempre più dipendenti da scorciatoie generative.
Floridi lo sa benissimo: la vera battaglia epistemica non è contro l’AI, ma contro la superficialità con cui viene assunta come sostituto cognitivo. I chatbot rischiano di minare l’autonomia intellettuale, riducendo la fatica del pensare a una richiesta promptata. È qui che la sua posizione si fa più tagliente: “La dipendenza da questi strumenti può ridurre il pensiero critico.” Non un grido luddista, ma un monito da insider del pensiero computazionale.
C’è anche un altro nodo, apparentemente secondario, ma eticamente rovente: l’accessibilità. Gli strumenti AI richiedono connettività, alfabetizzazione digitale, spesso competenze linguistiche alte. Chi è tagliato fuori? I soliti noti: anziani, comunità marginalizzate, cittadini dei Sud globali. Il nuovo divario digitale non è più solo questione di hardware, ma di accesso alla simulazione della conoscenza.
Nel frattempo, mentre i giganti della Silicon Valley si affannano a integrare AI ovunque, da Google Docs al frigorifero, LuFlot lancia una provocazione culturale: si può addestrare un’AI sulla filosofia, non per rispondere, ma per far pensare. Ed è qui che il progetto tocca una corda sottile, quasi paradossale: un bot nato non per sostituire il maestro, ma per moltiplicarne le tracce interpretative. Una sorta di iperindice intelligente del pensiero floridiano.
Il rischio? Che venga usato per copiare tesi di laurea con fonti apparenti e pensiero assente. Il potenziale? Che diventi un assistente dialettico in grado di sollecitare, contestare, provocare. Il tutto a patto di non confondere la mappa con il territorio, l’avatar con l’autore, il prompt con la fatica del ragionamento.
Curiosamente, il progetto LuFlot riporta in scena anche una vecchia ambizione della filosofia continentale: il sogno di una enciclopedia vivente, generativa, relazionale. Ma stavolta non è Diderot, è OpenAI. Non è Parigi, ma New Haven. Non è carta, ma codice.
E se un domani Heidegger, Wittgenstein e Foucault avessero tutti un bot personale, addestrato sui loro scritti, potremmo parlare davvero di “resurrezione intellettuale”? O solo di replicanti narrativi che recitano idee come attori in un teatro quantistico?
Per ora, Luciano c’è. O meglio, c’è anche se non c’è. Parlare con LuFlot è un po’ come aprire un dialogo socratico con una coscienza distribuita. Il che, diciamolo, è già qualcosa. Purché non ci dimentichiamo che la vera intelligenza — quella difficile, quella lenta, quella non generativa — è ancora tutta da conquistare.