Come l’inferenza e le scelte architetturali ridisegnano il nostro rapporto con la conoscenza e perché le metafore che usiamo per descrivere l’AI non sono mai innocenti.
Tutto è cominciato con una domanda banale. «Cos’è l’inferenza?» Non una domanda da convegno, non da paper accademico. Una domanda da corridoio, da pausa caffè, il tipo di cosa che si chiede quando vuoi capire davvero qualcosa e non solo sembrare di capirla. Nel linguaggio dell’intelligenza artificiale, inferenza non significa intuizione fulminante né deduzione alla Sherlock Holmes. Significa qualcosa di molto più preciso, e in un certo senso molto più inquietante: è il momento in cui la macchina smette di imparare e comincia a rispondere. L’addestramento è finito. I parametri sono congelati. Adesso il modello esegue. Prende il tuo input, lo trasforma in sequenze numeriche, percorre miliardi di connessioni già calibrate, e restituisce un output. Non sta imparando nulla. Non sta cambiando. Sta semplicemente – e magnificamente, a modo suo – ripetendo. Questo punto, apparentemente tecnico, ha conseguenze enormi su come pensiamo all’AI. E sulla metafora con cui più spesso la descriviamo. La narrativa dominante suona pressappoco così: l’AI amplifica ciò che le dai. Alimentala con ignoranza, ti restituisce ignoranza al quadrato. Alimentala con competenza, ti restituisce competenza potenziata. L’intelligenza artificiale come specchio fedele, come moltiplicatore neutro. Tu sei il segnale; lei, l’amplificatore. È una metafora seducente perché solleva noi da ogni responsabilità sul mezzo. Se l’output è buono, merito tuo. Se è cattivo, colpa tua. La macchina è innocente. Ma uno specchio non decide quali immagini mostrare. Non filtra, non taglia, non riassembla. I modelli linguistici, invece, lo fanno continuamente, a ogni token generato. La metafora dell’amplificatore è falsa. E il fatto che sia falsa non è un dettaglio tecnico: è una questione politica.
Due inferenze che non si parlano
Mentre la macchina fa inferenza statistica, calcola distribuzioni di probabilità, sceglie il token più verosimile dato il contesto, noi facciamo tutt’altro. Leggere una frase e capirla significa connetterla con ricordi personali, con emozioni sedimentate, con valori che abbiamo costruito nel tempo attraverso dolore ed esperienza. La nostra inferenza è incarnata, situata, irreversibile. Cambia chi siamo. L’inferenza della macchina non cambia nulla. Il modello che ti ha risposto stamattina è identico a quello di ieri. Puoi avergli detto cose bellissime, averlo sfidato con paradossi, avergli raccontato la tua vita: lui non se ne ricorderà nella prossima sessione, e soprattutto non è cambiato. La conversazione finisce. I parametri restano. Eppure, ed è qui che la cosa si fa interessante, noi cambiamo. Ogni contenuto che consumiamo lascia una traccia. Un articolo letto di notte, una risposta automatica che ci ha convinto, un’argomentazione che ci sembrava solida: tutto plasma i nostri schemi cognitivi. L’influenza non è simmetrica. Va in una sola direzione. E quella direzione siamo noi.
L’architettura ad un certo punto é come una scelta morale. Perché dico questo. Perché c’è un momento nella conversazione sull’AI in cui si tende a smettere di guardare. Il modello risponde, l’utente legge, il ciclo si chiude. Quello che resta invisibile è tutto ciò che sta nel mezzo: gli strati di sistema che modulano, filtrano, arricchiscono – o impoveriscono – l’output. Due sistemi costruiti sullo stesso identico modello linguistico possono fornire risposte radicalmente diverse. Uno ha accesso a un motore di ricerca e a fonti verificabili: cita, controlla, segnala l’incertezza. L’altro è isolato: compensa le lacune con invenzioni fluide e convincenti. Uno è stato addestrato a massimizzare l’engagement: ti darà ciò che vuoi sentire. L’altro è stato configurato per la precisione: ti darà ciò che è verificabile, anche quando è scomodo. Queste non sono scelte tecniche. Sono scelte morali. Chi progetta un sistema di AI decide, esplicitamente o per omissione, che tipo di rapporto con la realtà intende favorire. Decide se costruire uno strumento che aiuta a pensare o uno che pensa al posto tuo. Decide se l’accuratezza ha più valore della soddisfazione immediata. L’idea che “l’AI menta” o che “l’AI sappia tutto” è quindi doppiamente sbagliata: sbagliata perché generalizza, e sbagliata perché deresponsabilizza. Non esiste un’AI astratta. Esiste un sistema, costruito da qualcuno, con intenzioni specifiche, che opera in un contesto preciso.
Nella tentazione di scaricare tutto sull’utente c’è una logica comprensibile: chi usa uno strumento è responsabile di come lo usa. Chi non sa usare un coltello si taglia. Chi non sa leggere un modello linguistico si fa ingannare. La capacità critica, la competenza di dominio, l’abitudine a verificare le fonti fanno una differenza reale. Ma questa logica ha un difetto strutturale: presuppone una parità di partenza che non esiste. Non tutti hanno familiarità con i bias cognitivi. Non tutti sanno cosa sia un parametro o come funzioni un layer di retrieval. Non tutti hanno tempo di verificare ogni affermazione. Costruire sistemi che funzionano bene solo per utenti già alfabetizzati significa costruire sistemi che amplificano le disuguaglianze esistenti. Ecco perché la responsabilità progettuale è inseparabile da quella individuale. Le interfacce possono essere costruite per favorire il discernimento: distinguere ciò che è verificato da ciò che è generato, segnalare i margini di incertezza, rendere visibili le fonti. Oppure possono essere costruite per rendere tutto ugualmente fluido, ugualmente autorevole, ugualmente rassicurante. La seconda opzione è più comoda da progettare. La prima è più onesta.

Eppure, come dicevo, tra le metafore che ci raccontano ci sono anche quelle che ci tradiscono. Perché nessuna metafora è innocente. Quella dell’amplificatore ci dice che la tecnologia è neutra e che il problema siamo noi. Quella dello specchio ci dice che la macchina riflette senza intervenire. Quella del motore ci dice che l’AI è forza bruta al servizio di chi la guida. Una metafora invece più fedele è quella dell’infrastruttura. Le strade non sono neutre: determinano quali luoghi diventano accessibili e quali restano isolati. Le reti ferroviarie non sono neutrali: hanno deciso per decenni quale economia fiorisse e quale appassisse. I modelli linguistici sono infrastrutture cognitive: determinano quali informazioni circolano, con quale peso, in quale forma. Chi le progetta sta progettando la circolazione del sapere. Non è una metafora rassicurante. Ma è una metafora che ci obbliga a fare le domande giuste: chi ha costruito questa infrastruttura? Con quali obiettivi? Chi ne beneficia? Chi ne subisce le limitazioni?Certo la complessità non è un lusso intellettuale e richiede coraggio. Ma é l’unico modo per non farsi ingannare due volte: né dalla demonizzazione superficiale né dall’esaltazione acritica. Entrambe le posizioni ci esonerano dal pensiero. Entrambe ci rendono più manipolabili. La rivoluzione che queste tecnologie promettono non riguarda l’automazione di singoli compiti, quello è già accaduto, sta accadendo, accadrà ancora. Riguarda qualcosa di più profondo: la trasformazione del nostro rapporto con la conoscenza. Il modo in cui formiamo credenze, valutiamo fonti, decidiamo cosa è vero. Di fronte a questo, gli slogan non bastano. Serve l’alfabetizzazione tecnica di chi vuole capire davvero il mezzo. Serve la responsabilità progettuale di chi costruisce i sistemi. Serve la curiosità di chi sa che ogni semplificazione ha un costo. E serve, forse più di tutto, la consapevolezza che le domande banali – quelle da corridoio, da pausa – sono spesso le più urgenti. «Cos’è l’inferenza?» sembra una domanda tecnica. In realtà è una domanda su chi siamo mentre parliamo a una macchina, e su chi diventiamo mentre la macchina ci risponde.