Se una risposta è scritta bene, suona autorevole e arriva in meno di due secondi, siamo davvero sicuri di sapere qualcosa in più? È la domanda, tanto semplice quanto destabilizzante, che ha attraversato il convegno “Epistemia – conoscenza, AI e società” che si è svolto ieri all’Università di Roma La Sapienza. Al centro del confronto, un termine destinato a far discutere: epistemia, ovvero l’illusione della conoscenza generata dall’intelligenza artificiale.
A lanciare l’allarme è stato Walter Quattrociocchi, direttore del Centro di Data Science and Complexity for Society dell’Ateneo romano. Secondo Quattrociocchi, l’epistemia è un problema più articolato della semplice circolazione delle fake news sui social media. Non si tratta solo di notizie false che rimbalzano online, ma di un fenomeno più sottile. L’AI produce testi esteticamente impeccabili, sintatticamente perfetti, confezionati per essere convincenti. Il rischio è scambiare questa coerenza formale per verità sostanziale.
Nell’era dell’hype dell’AI, ha osservato Quattrociocchi con una punta di ironia, tutti parlano di intelligenza artificiale usando contenuti generati dall’intelligenza artificiale, spesso senza reale consapevolezza. L’AI viene raccontata come un’intelligenza aliena, quasi mitologica, in un gioco di specchi che produce like e celebrità istantanea più che comprensione profonda. Eppure, ha ricordato, non siamo di fronte a una rivoluzione improvvisa, ma all’ennesimo capitolo della rivoluzione dei dati iniziata negli anni Novanta.
Il dibattito non è rimasto confinato alla teoria. Sul palco si sono confrontati rappresentanti delle istituzioni e delle grandi piattaforme digitali, in un botta e risposta che ha toccato un nervo scoperto: l’impatto dell’intelligenza artificiale sull’informazione e sulla democrazia. Il presidente dell’Autorità per le Garanzie nelle Comunicazioni, Giacomo Lasorella, ha annunciato l’intenzione di segnalare alla Commissione europea l’AI Mode di Google, ritenendolo un caso evidente di impatto sull’ecosistema informativo e sul traffico dei siti di news. In gioco, ha sottolineato, c’è il rischio di compressione della libertà informativa e del diritto dei cittadini ad accedere a più fonti, principio sancito dall’European Freedom Act.
La replica di Google non si è fatta attendere. Diego Ciulli, responsabile Government Affairs and Public Policy in Italia, ha definito AI Overview e AI Mode una naturale evoluzione del motore di ricerca, un miglioramento dell’esperienza utente più che una sostituzione dell’accesso all’informazione. L’idea che le persone smettano di leggere i giornali per colpa dell’AI, ha osservato, sarebbe preoccupante a prescindere dalla tecnologia.
Ma l’epistemia, come ha ricordato Anna Ascani, vicepresidente della Camera, non riguarda solo il traffico verso i siti di informazione. Tocca un aspetto ancora più delicato: la formazione del consenso. Le democrazie si reggono sulla capacità dei cittadini di costruire opinioni informate. Se l’intelligenza artificiale moltiplica contenuti, sintetizza, interpreta e risponde, il rischio è che l’illusione di sapere sostituisca il processo critico di comprensione. Senza adeguati strumenti di salvaguardia, ha sottolineato Ascani, la generazione del consenso può essere influenzata in modo opaco.
Il tema delle regole europee ha attraversato l’intero convegno. Flavio Arzarello, Public Policy Manager di Meta, ha parlato di un’Europa spesso percepita come troppo prudente, se non diffidente, nei confronti dell’innovazione. Non si tratta di smantellare la regolamentazione, ma di renderla compatibile con lo sviluppo tecnologico, magari ripensando strumenti come l’AI Act e concentrandosi sui casi d’uso piuttosto che sulla tecnologia in sé. Il riferimento è al Digital Omnibus proposto a Bruxelles, che punta a semplificare il quadro normativo in materia digitale.
Nel mezzo, l’università rivendica un ruolo cruciale. Il messaggio di apertura della Rettrice Antonella Polimeni e di Francesca Cuomo, Preside della Facoltà di Ingegneria dell’Informazione, Informatica e Statistica, ha ribadito l’importanza del dialogo tra ricerca, istituzioni e piattaforme. Quattrociocchi ha parlato di un circuito virtuoso, auspicando che epistemia diventi parola dell’anno per la Treccani. Non solo una provocazione linguistica, ma un tentativo di dare un nome a un fenomeno che rischia di sfuggire al dibattito pubblico.
Le ricerche presentate dal team della Sapienza spaziano da ideologie e polarizzazione a piattaforme social e salute mentale, fino alla pubblicità politica online. Tutti ambiti in cui l’intelligenza artificiale non è un semplice strumento neutrale, ma un fattore che può amplificare dinamiche sociali già complesse.
In fondo, il cuore del problema è proprio questo. L’intelligenza artificiale non ci rende automaticamente più informati. Può aiutarci, certo, ma il rischio è che può anche darci l’impressione di aver capito tutto quando invece abbiamo solo letto un riassunto ben scritto. L’epistemia è quella sottile sensazione di padronanza che nasce da una risposta fluida e convincente. Ed è proprio lì che si gioca la partita culturale e democratica del nostro tempo.
Alla Sapienza non si è celebrata l’AI come oracolo né demonizzata come minaccia esistenziale. Si è provato a fare qualcosa di più difficile: discutere seriamente di conoscenza nell’epoca degli algoritmi. Perché, alla fine, la vera innovazione non è solo tecnologica: è imparare a distinguere tra sapere davvero e avere semplicemente una risposta pronta e convincente.