A Conjecture on a Fundamental Trade-off between Certainty and Scope in Symbolic and Generative AI
Perfetto. Aggiungiamo ora la formalizzazione matematica della congettura Certainty–Scope, che è il cuore pulsante del paper di Luciano Floridi, e merita di essere inserita nel flusso narrativo con la stessa eleganza tagliente del resto del discorso.
C’è qualcosa di fondamentalmente disonesto, o almeno di malinteso, nel modo in cui l’industria dell’intelligenza artificiale vende le sue meraviglie. Il linguaggio corrente suggerisce che potremmo avere sistemi onniscienti, affidabili, in grado di generare contenuti sofisticati su qualsiasi argomento, senza mai sbagliare. Luciano Floridi, filosofo della tecnologia con una spiccata vocazione matematica, scoperchia il vaso di Pandora in un paper rigoroso quanto provocatorio, pubblicato su SSRN, e lo fa con una congettura tanto elegante quanto fastidiosa: esiste un limite strutturale alla possibilità di conciliare ampiezza d’azione e certezza epistemica nei sistemi di intelligenza artificiale.
Floridi formalizza matematicamente ciò che molti ingegneri sospettano da anni ma raramente hanno il coraggio di dire ad alta voce. In altre parole, se un sistema è capace di affrontare qualunque tipo di input, generare testo, immagini, codice, musica e magari risolvere qualche teorema, allora non potrà mai garantire che le sue risposte siano sempre corrette. E se invece può farlo, allora vuol dire che si muove in un dominio così ristretto da risultare irrilevante per la complessità del mondo reale. Questo è il cuore della congettura Certainty–Scope, e non è una bella notizia per chi spera di costruire IA perfette e universali.
Questa tensione, tra certezza e ampiezza di campo, viene incisa con rigore geometrico: più aumenta la complessità informativa di ciò che l’intelligenza artificiale può trattare, più cala la possibilità di dimostrarne la correttezza. Non è solo una limitazione pratica, ma un vincolo teorico profondo. La formula chiave della congettura è brutale nella sua semplicità:
𝐶(𝑀) × 𝑆(𝑀) ≤ 𝑘
Dove:
- 𝐶(𝑀) è il livello massimo di certezza epistemica del meccanismo AI M, definito come:
𝐶(𝑀) = 1 − supₓ ∈ 𝐼 [Pr(𝑓ₘ(x) ≠ Spec(x))]
Ovvero, il complemento della probabilità massima di errore sull’intero spazio degli input, una misura rigorosa del peggior caso. - 𝑆(𝑀) è l’ampiezza di mappatura informativa del sistema, espressa come:
𝑆(𝑀) = 𝐾(𝐼) + 𝐾(𝑂)
Dove 𝐾 rappresenta la complessità di Kolmogorov, una misura dell’informazione necessaria per descrivere gli spazi di input e output. In termini pratici, è un proxy per la ricchezza e varietà del dominio trattato dal sistema. - 𝑘 è una costante universale, positiva e inferiore a 1, indipendente dal sistema specifico.
Più cresce la capacità del sistema di gestire domini complessi (S(M)), meno si può garantire che i suoi output siano perfetti (C(M)). Il prodotto delle due grandezze è matematicamente limitato da k. Punto. Non si scappa.
Floridi, con una certa ironia accademica, ammette che preferirebbe vedere la congettura confermata come regolarità empirica piuttosto che come legge matematica inviolabile. Ma in entrambi i casi, l’impatto è devastante. Se la congettura è vera, allora l’industria dell’IA dovrà accettare che ogni incremento di “scope” implica una diminuzione strutturale della “certainty”. Tradotto: più il sistema è capace di fare, più è probabile che sbagli. Nessun prompt, nessun dataset, nessuna GPU da mille core potrà evitare l’errore.
In un mondo dominato dal culto dell’intelligenza artificiale generativa, questa è una bestemmia epistemologica. Perché ci obbliga a riconoscere un confine, non tra ciò che sappiamo fare oggi e ciò che potremmo fare domani, ma tra ciò che è logicamente possibile e ciò che non lo è mai stato. È un colpo al cuore della narrativa techno-utopica.
La bellezza della congettura sta anche nel modo in cui riecheggia decenni di teoria dell’informazione, epistemologia e filosofia della scienza. È, nella sua essenza, una riformulazione computazionale del problema della sottodeterminazione di Quine o del falsificazionismo di Popper: non si può avere conoscenza universale senza rischio, non si possono costruire modelli onniscienti che siano anche infallibili. O accettiamo l’incertezza, oppure ci rinchiudiamo in mondi troppo semplici per essere rilevanti.
Le implicazioni sono micidiali. Floridi mostra come la congettura imponga limiti severi alla verifica formale dei sistemi AI. Non è solo difficile, è impossibile dimostrare la correttezza di sistemi che operano in ambienti non formalizzati, aperti e multimodali. Lo sanno bene i ricercatori di sicurezza informatica, che si dibattono da anni tra formal verification e sistemi opachi. Lo sanno i filosofi della mente computazionale, e lo sanno — anche se fanno finta di no — gli startupper che promettono chatbot infallibili per diagnosi mediche.
Un effetto collaterale interessante è che la congettura obbliga a ripensare l’architettura dei sistemi. Floridi delinea un paradigma bifronte: moduli centrali formalmente verificabili e periferie percettive probabilistiche. Come dire: metti un cuore logico-certo al centro e lascialo interagire con un mondo confuso attraverso sensori imperfetti. Una macchina ibrida, dunque, né pura né perfetta, ma funzionale e sicura quanto basta. È il principio che guida le architetture degli autonomous systems, dagli aerei ai veicoli self-driving: l’algoritmo che frena è certificato, quello che legge il segnale stradale può sbagliare.
Un altro colpo ben assestato è alle metriche di valutazione. La congettura suggerisce che ogni volta che ci dicono che un sistema AI ha ottenuto “prestazioni umane” su un benchmark generalista con accuratezza del 99.9%, dovremmo sospettare che o il dominio è stato ridotto, o i dati sono stati selezionati ad arte, o l’accuratezza è mal definita. L’idea stessa di avere un’unica metrica unificata per valutare l’IA diventa ridicola. Bisogna misurare coppie: copertura vs confidenza, ampiezza vs affidabilità. Altrimenti stiamo solo raccontandoci favole con la scienza dei numeri.
Poi c’è la dimensione normativa. Chi regolamenta l’IA sogna sistemi infallibili, certificabili in ogni situazione, ma la congettura stronca questa fantasia. Se si vuole un’intelligenza artificiale capace di navigare il mondo reale, bisogna accettare che ogni output porta con sé una probabilità non nulla di errore. Il legislatore dovrà quindi passare da una logica di compliance totale a una logica di gestione del rischio, proprio come accade in finanza o ingegneria civile. Non si promette che il ponte non cadrà mai. Si progettano margini di sicurezza e si fa manutenzione.
Infine, c’è la conseguenza etica più spinosa: chi propone un’IA che promette perfetta affidabilità in ambiti complessi sta ingannando. Sta creando aspettative irrealistiche, alimentando moral hazard, deresponsabilizzando utenti e stakeholder. Floridi, da buon filosofo della responsabilità, propone una via diversa: dichiarare i margini d’errore, progettare fallback e strutture di audit, costruire trasparenza epistemica anziché illusioni deterministiche. È una proposta di etica tecnologica radicale, perché nasce da un limite strutturale, non da un ideale astratto.
Ciò che rende la congettura affascinante è che non è stata ancora provata né smentita. Se qualcuno riuscisse a costruire un sistema che mantenga alta la certezza anche su domini ad altissima complessità, allora potremmo trovarci davanti a un paradigma completamente nuovo. Ma finché questo non accade, Floridi ci costringe a guardare in faccia l’ambiguità delle promesse tecnologiche.
Non è solo una questione tecnica. È una questione di verità e, per una volta, il filosofo riesce a dirla meglio del programmatore.