Chi oggi pretende che l’intelligenza artificiale sia infallibile o addirittura “perfetta” si illude come chi compra un orologio da spiaggia e poi pretende che segni l’ora atomica. Luciano Floridi, con la sua Floridi Conjecture, mette il dito nella piaga: più un sistema di AI amplia il suo raggio d’azione e ingloba domini e dati non strutturati, meno può garantire certezze e risultati impeccabili. Non è un errore di progettazione, è una legge strutturale. Tradotto per chi ancora vive di marketing da brochure: la perfezione in AI non esiste, punto e fingere il contrario è un rischio sistemico, non un’ambizione nobile.

Se questo suona scomodo è perché lo è. La nostra epoca è ossessionata dalla promessa dell’automazione totale, dal miraggio che una macchina possa sostituire il giudizio umano senza margini di incertezza. Ma la vera sfida non è costruire un dio algoritmico, bensì imparare a convivere con sistemi fallibili, gestirne gli errori e soprattutto disinnescare i danni potenziali prima che diventino irreversibili. La parola chiave non è perfezione ma “risk management”. In altre parole, dobbiamo fare quello che le grandi banche hanno imparato a fare con i derivati: non sognare che non esplodano mai, ma prepararsi al giorno in cui inevitabilmente lo faranno.

Il paradosso diventa evidente quando si parla di misurare le performance. Perché fissarsi su percentuali di accuratezza quasi perfette, quando è chiaro che la Floridi Conjecture le smonta a priori? Dichiarare un tasso di successo del 99,9 per cento su compiti complessi e multi-dominio è come promettere una dieta miracolosa che ti fa dimagrire mentre mangi gelato a colazione. Se i numeri sembrano troppo belli per essere veri, probabilmente lo sono. La metrica da adottare non è una cifra unica e scintillante, ma un doppio registro: quanta copertura possiede il sistema, e quanto è affidabile nella sua specifica esecuzione. Solo incrociando ampiezza e confidenza possiamo capire se abbiamo davanti un assistente brillante o un illusionista digitale.

L’etica si infila qui come un ospite non invitato ma inevitabile. Ogni volta che l’incertezza aumenta, crescono le responsabilità. Non basta un disclaimer in corpo 8 nascosto nei termini di servizio per proteggere utenti e società. Serve un design responsabile, con salvaguardie multilivello, sistemi di alert, trasparenza sulle limitazioni. Il vecchio “trust me, I’m AI” non funziona più, anzi rischia di diventare il nuovo “subprime” tecnologico. Gli sviluppatori hanno il dovere di non vendere un’illusione di certezza, ma di educare all’uso consapevole. Perché un utente che crede di avere in mano un oracolo rischia più di chi sa di parlare con una macchina che inciampa.

Eppure, questo scenario non è affatto cupo. Anzi, Floridi apre la porta a un nuovo filone di ricerca che potrebbe ribaltare l’architettura dell’AI stessa. Immaginiamo sistemi a doppia anima: un nucleo ristretto e altamente affidabile per compiti ben definiti, circondato da una periferia più elastica, probabilistica, capace di esplorare territori incerti ma senza la pretesa di dominare tutto. Una specie di ibrido tra il calcolatore svizzero e l’esploratore improvvisato. Questo modello non è solo più realistico, è anche più vicino a come funziona il cervello umano: certe funzioni automatiche sono solide e ripetibili, altre creative e caotiche, e insieme producono equilibrio.

Chi insiste a chiedere risultati perfetti si comporta come un azionista che vuole dividendi crescenti senza mai tollerare una flessione: ingenuo o in malafede. L’unico approccio serio è abituarsi a convivere con il margine di errore, progettare contromisure, rafforzare la resilienza. La Floridi Conjecture non è un freno alla corsa dell’AI, è il cartello stradale che ti ricorda che la curva è pericolosa e che l’auto non è indistruttibile. Ignorarlo non accelera l’innovazione, accelera lo schianto.

In fondo, questa riflessione obbliga anche il mercato a smascherare le proprie narrative. Il linguaggio patinato delle aziende che promettono AI etiche, trasparenti e soprattutto impeccabili suona oggi come un vecchio spot degli anni ’90 per i telefoni satellitari: futuristico ma già obsoleto. La vera competitività non starà nel fingere di eliminare l’errore, ma nel saperlo gestire meglio degli altri. E qui il risk management torna centrale, non come appendice burocratica, ma come leva strategica di fiducia.

Chi guarda avanti capisce che l’innovazione non sarà solo tecnica ma filosofica. La Floridi Conjecture suggerisce che la convivenza con l’incertezza va normalizzata, che la trasparenza diventi un valore di mercato e non un obbligo normativo, che la cultura aziendale includa la fallibilità come parte della progettazione. Più che un futuro di AI infallibili, ciò che intravediamo è un futuro di società che hanno imparato a domare l’errore. La vera innovazione non sarà eliminare il rischio, ma trasformarlo in un vantaggio competitivo.