Designing with Uncertainty Sylvie Delacroix
C’è un paradosso che attraversa la nostra epoca digitale. I sistemi che più hanno eroso la fiducia democratica potrebbero diventare proprio quelli capaci di rigenerarla. Non si tratta di un sogno utopico da tecnofilo incallito ma di una possibilità concreta, se si ha il coraggio di riscrivere le regole del design tecnologico.
La tesi, audace ma fondata, arriva da Designing with Uncertainty, il nuovo paper pubblicato su Minds and Machines da Sylvie Delacroix del King’s College London. L’idea è semplice quanto dirompente: l’intelligenza artificiale, e in particolare i Large Language Models (LLM), non dovrebbero limitarsi a rispondere alle nostre domande ma dovrebbero imparare a sostenere l’incertezza.
A coltivarla, addirittura, come un valore democratico. È un cambio di paradigma radicale. Fino a oggi, tutto l’ecosistema digitale ha premiato la certezza, la velocità, la semplificazione. Gli algoritmi dei social network sono stati progettati per catturare l’attenzione e premiare il conflitto, non per stimolare la riflessione.
La democrazia digitale, in questa architettura tossica, è stata degradata a una caricatura: un’arena di slogan contrapposti dove la verità non interessa e l’incertezza è punita come debolezza. Delacroix ribalta la prospettiva: e se invece fosse proprio l’incertezza il motore nascosto della deliberazione democratica? E se i nuovi sistemi di IA potessero diventare spazi di transizione dove il dubbio, l’ambiguità e la pluralità delle interpretazioni non vengono schiacciati, ma valorizzati?
La studiosa introduce il concetto di transitional conversational spaces, ambienti digitali mediati da LLM progettati non per dare risposte definitive ma per facilitare l’esplorazione di significati. Non più chatbot addestrati a “convincere” o ad “assistere”, ma partner conversazionali capaci di rendere visibile la natura contingente e contestabile dei nostri giudizi morali e politici.
L’obiettivo non è ridurre l’incertezza, ma trasformarla in una forma di competenza civica. In un mondo dove la velocità dell’informazione ha sostituito la profondità del pensiero, progettare l’incertezza diventa un atto rivoluzionario.
La chiave è comprendere che esistono due tipi di incertezza. Quella epistemica, che si può colmare con più dati o migliori algoritmi, e quella ermeneutica, che riguarda invece la nostra capacità di interpretare valori, norme e situazioni in modi differenti.
È su questa seconda che si gioca la partita della democrazia digitale. Perché la politica non è mai solo una questione di fatti, ma di interpretazioni. Un’intelligenza artificiale che sappia gestire l’incertezza ermeneutica potrebbe diventare un dispositivo di allenamento civico, una palestra dove cittadini e comunità imparano a confrontarsi con prospettive diverse senza scivolare nel fanatismo del “sono nel giusto”.
Delacroix propone un modello architetturale sorprendente: gli ensemble interfaces. Non un unico modello di linguaggio, ma una costellazione di modelli addestrati su dataset differenti, ciascuno portatore di valori, bias e punti di vista specifici. L’interfaccia non nasconde queste differenze, le espone. Mostra all’utente come le risposte variano a seconda dei presupposti morali e culturali del modello. Invece di offrire un’unica verità sintetizzata, l’IA diventa uno specchio delle nostre pluralità.
È una mossa concettuale di rara intelligenza: rendere l’algoritmo un laboratorio di democrazia deliberativa. Invece di simulare consenso, mette in scena il disaccordo.Chi ha lavorato nel design dell’interazione sa che questa proposta è sovversiva.
Gli attuali modelli di business delle piattaforme digitali vivono di polarizzazione e velocità: più engagement, più profitto. Costruire interfacce che rallentano la conversazione, che rendono visibili le ambiguità, che insegnano a “non sapere”, va contro ogni incentivo economico attuale.
Eppure, proprio per questo, rappresenta una delle idee più visionarie della nuova teoria democratica. La partecipazione civica non può rinascere su piattaforme che premiano la rabbia. Ha bisogno di nuovi spazi digitali che restituiscano dignità al dubbio.
L’approccio suggerito è quello della partecipatory infrastructure: sistemi aperti, sperimentabili, dove le comunità possono “trafficare” con i parametri dei modelli, modificare i modi in cui l’incertezza viene comunicata, decidere collettivamente cosa significa “non sapere” in un determinato contesto.
È l’opposto della logica chiusa che domina l’intelligenza artificiale commerciale. Dove le decisioni sui valori vengono prese in segreto da ingegneri o investitori, Delacroix immagina un ecosistema in cui l’incertezza diventa oggetto di deliberazione collettiva. Un’IA che non si limita a “servire” gli umani, ma che li aiuta a discutere su cosa significhi essere umani.
C’è una connessione potente che attraversa tutto il saggio: la convinzione che la democrazia non possa sopravvivere senza spazi intermedi, luoghi dove l’intuizione privata possa dialogare con la deliberazione pubblica. Un tempo questi spazi erano i sindacati, le associazioni, le parrocchie, i circoli civici.
Oggi, travolti dall’architettura tossica delle piattaforme, questi mediatori sociali si sono dissolti. L’IA, paradossalmente, potrebbe diventare il nuovo spazio intermedio, non come sostituto della comunità ma come strumento per rigenerarla. Una “zona di transizione”, come la definisce Delacroix, tra il pensiero individuale e la deliberazione collettiva. Non un tribunale della verità, ma un laboratorio di interpretazione.
Chi pensa che tutto questo sia pura filosofia accademica dovrebbe leggere il paper con attenzione. Dietro il linguaggio raffinato si intravede un manifesto politico-tecnologico. La ricercatrice non chiede di “regolare meglio” i social network.
Chiede un cambio di paradigma istituzionale. Chiede di spostare l’attenzione dalle procedure di accountability al design delle capacità morali. Perché il vero problema non è che le IA “sbagliano”, ma che noi non sappiamo più vedere. Non riconosciamo più la complessità etica delle situazioni. La soluzione, allora, non è costruire IA perfette, ma costruire IA che ci aiutino a vedere meglio. Che ci insegnino l’arte di restare nel dubbio.
La visione della democrazia digitale che emerge da questo lavoro è profondamente diversa da quella tecnocratica che domina Silicon Valley. Qui la tecnologia non serve a ottimizzare la partecipazione ma a renderla più consapevole, più riflessiva, più umana.
La parola chiave è capability: la capacità di ogni individuo di partecipare in modo significativo alla costruzione del senso collettivo. Un’IA che amplifica la nostra attenzione morale, invece di consumarla, non è fantascienza: è un progetto politico. Ma richiede un salto culturale. Perché ammettere l’incertezza significa anche rinunciare al mito dell’onniscienza algoritmica che ha sedotto governi e aziende.L’idea di “progettare con l’incertezza” è anche un antidoto contro la retorica dell’allineamento.
Quella logica paternalista secondo cui le IA devono essere “allineate ai valori umani”, come se questi valori fossero statici e universalmente condivisi.
In realtà, i valori si costruiscono attraverso conflitti e negoziazioni continue. Una democrazia viva non allinea, itera. Rinegozia costantemente le proprie norme. Ecco perché parlare di LLM etici non significa costruire sistemi moralmente “giusti”, ma sistemi che rendano visibile la dimensione politica delle loro risposte. Che ci costringano a interrogarci sulle basi stesse del nostro giudizio.
C’è una frase, quasi nascosta, che sintetizza il messaggio del paper: “Le stesse tecnologie che hanno eroso la conversazione democratica possono, se riprogettate, rigenerarla”. È una provocazione degna di un manifesto del XXI secolo.
Ma anche un invito pratico: ripensare i modelli di sviluppo, creare team interdisciplinari, aprire i laboratori di AI alla sperimentazione civica. Perché la democrazia, come la ricerca, vive di esperimenti.
Siamo a un punto di svolta. Se la prossima generazione di piattaforme digitali continuerà a ottimizzare per l’engagement, la conversazione pubblica collasserà definitivamente nella caricatura di se stessa.
Ma se avremo il coraggio di progettare con l’incertezza, potremo trasformare la tecnologia nel suo opposto: da dispositivo di sorveglianza a dispositivo di libertà. La democrazia digitale non ha bisogno di nuovi algoritmi per controllarci, ma di nuovi spazi per pensarci.
Forse la vera rivoluzione dell’intelligenza artificiale non sarà quella dei supermodelli, ma quella delle transitional spaces: luoghi dove impariamo di nuovo a parlare, a dissentire, a comprendere e in fondo, non è questo il compito di ogni tecnologia degna di essere chiamata democratica? Non convincerci di avere ragione, ma ricordarci che il dubbio è la più alta forma di intelligenza collettiva.