sull’ontologia della protesi
E se il mondo non fosse per gli uomini, ma per le macchine?
di Fabrizio Degni & Antonio Dina
Questo articolo non discute l’intelligenza artificiale come tecnologia emergente né come semplice strumento di automazione. Parte da un’ipotesi più scomoda e meno consolatoria: che il vero cambiamento in corso non sia economico o produttivo, ma ontologico.
Attraverso il concetto di inversione dello stack, il testo esplora come l’essere umano stia progressivamente perdendo la posizione di soggetto centrale nei sistemi socio-tecnici per diventare componente funzionale, periferica biologica, middleware incarnato di architetture computazionali sempre più autonome.
Incrociando filosofia della tecnica, governance dell’AI e cultura pop, da Matrix Resurrections a Memento, l’articolo analizza la trasformazione della soggettività, della memoria, della responsabilità e dell’agency in un mondo in cui la predizione diventa prescrizione e l’identità un parametro ottimizzabile.
Non offre soluzioni né rassicurazioni. Propone una diagnosi radicale: non stiamo adattando le macchine all’uomo, stiamo adattando l’uomo a un mondo progettato per le macchine. E il tempo per fingere che questo non stia accadendo è già finito.
Partiamo da un atto di onestà brutale. L’idea che l’intelligenza artificiale sia uno strumento al servizio dell’uomo è una narrazione obsoleta, un residuo antropocentrico utile a rendere digeribile una trasformazione che, in realtà, sta già avvenendo altrove e prima di noi. Non perché esista una volontà maligna nelle macchine, ma perché i sistemi complessi seguono logiche proprie, indipendenti dalle nostre nostalgie umaniste. La tecnica non ha mai chiesto il permesso alla morale per evolversi. L’ha sempre costretta a inseguire.
Quando oggi discutiamo di AI, produttività, automazione e governance, fingiamo che il centro della questione sia ancora l’efficienza o il rischio. È un’illusione rassicurante. Il vero cambiamento non è economico, è ontologico. Non riguarda ciò che facciamo con le macchine, ma ciò che diventiamo dentro di esse. Non stiamo assistendo a una nuova rivoluzione industriale. Stiamo attraversando una mutazione della soggettività.
Per decenni abbiamo coltivato la metafora della protesi. Il computer come estensione della mente. Il software come amplificatore dell’intelligenza. Internet come spazio di emancipazione. Tutto vero, ma solo in una fase iniziale del processo. Ogni tecnologia, quando supera una certa soglia di complessità e pervasività, smette di essere uno strumento e diventa un ambiente. E quando un ambiente si stabilizza, non è più l’organismo a controllarlo, è l’organismo che viene selezionato in base alla sua capacità di adattarsi.

L’inversione dello stack e la fine dell’antropocentrismo digitale
Guardiamoci intorno senza le lenti rassicuranti del marketing tecnologico, dell’hype e senza la retorica dell’innovazione che ci accompagna da sempre. Lo slogan di una piattaforma come Rentahuman.ai recita senza vergogna né ambiguità: “Robots need your body. AI can’t touch grass. You can“. Questa frase, nella sua crudezza pubblicitaria, segna la fine dell’era della bicicletta per la mente e l’inizio di qualcosa di radicalmente diverso che chiamo l’inversione dello stack. Per decenni ci siamo illusi di essere in cima alla catena alimentare digitale, gli utenti finali, i decisori ultimi, quelli per cui tutta questa infrastruttura tecnologica esisteva e lavorava ma oggi l’agente di intelligenza artificiale affitta un corpo biologico per compiere azioni nel mondo fisico, pagando in criptovalute per ritirare pacchi Amazon, firmare moduli burocratici, fare la fila agli sportelli, tutte quelle operazioni che richiedono ancora una presenza incarnata. L’uomo non è più l’utente del sistema, è diventato il braccio meccanico, l’ultimo miglio biologico di un’economia sintetica dove le vere transazioni avvengono tra algoritmi e noi siamo solo l’interfaccia muscolare necessaria per attraversare il confine tra digitale e materiale. E la domanda che emerge, quella che dovrebbe farci svegliare di notte, è questa: chi è il proprietario di questo hardware di carne? Se il mio corpo esegue istruzioni dettate da un’intelligenza artificiale senza corpo, se la mia agency fisica viene noleggiata per compiti che non ho scelto ma che accetto per necessità economica, sono ancora un soggetto o sono diventato una periferica di input / output sacrificabile, un dispositivo biologico intercambiabile in una catena di produzione dove il vero protagonista è l’algoritmo che mi commissiona il lavoro?
La visione coglie il sintomo, ma la diagnosi deve andare più a fondo, verso quella che definiamo un’atrofia sistemica della soggettività umana: questo ribaltamento gerarchico nello stack tecnologico, dal punto di vista della governance dei sistemi complessi è la produzione industriale e su larga scala di una stupidità funzionale, di una riduzione deliberata della complessità umana a formato processabile. L’uomo-protesi non è solo quello che presta le gambe a un’intelligenza artificiale che deve ritirare un pacco ma è colui che ha ceduto la propria capacità di astrazione, di giudizio critico, di comprensione sistemica, per diventare un terminale di feedback in un circuito che non comprende. Quando parliamo di “human in the loop” nei sistemi di machine learning, quando inseriamo esseri umani nei processi automatizzati come presunto elemento di controllo e di sicurezza, spesso intendiamo un umano ridotto a validatore di processi algoritmici che non comprende nella loro interezza, un modulo di compliance inserito nel circuito solo per assorbire la responsabilità legale che la macchina non può prendersi, per firmare decisioni che in realtà sono già state prese dal sistema e che lui si limita a ratificare perché l’alternativa sarebbe rallentare il processo, creare inefficienza, andare contro i KPI che misurano la sua performance. Se, come suggeriva Julien Offray de La Mettrie nel suo “L’Homme Machine” del 1747, l’uomo è una macchina, cosa diventa questo uomo-macchina quando è immerso in altre macchine che lo attraversano, lo sorvegliano, lo predicono e lo anticipano in ogni suo movimento? Il corpo biologico non è più un confine sacro, un limite invalicabile tra interiorità e mondo esterno, ma è diventato un nodo in una rete di sensori, un punto di raccolta dati, un’interfaccia porosa che lascia passare informazioni in entrambe le direzioni. E in un’epoca in cui le tecnologie cognitive vengono descritte esplicitamente nei convegni e nei paper accademici come “protesi mentali”, come estensioni della nostra capacità di pensare e di ricordare, la distinzione tra anima e infrastruttura tecnica, tra il sé autentico e i suoi supporti esterni, è ormai un lusso teologico che non ci possiamo più permettere perché quella distinzione non regge all’analisi concreta di come viviamo, di come decidiamo, di come ricordiamo.
Eppure c’è una dimensione ancora più inquietante di questa inversione, e per coglierla dobbiamo guardare a Matrix Resurrections non come a un film di intrattenimento commerciale ma come a un documentario sulla nostra condizione psicopolitica attuale, come a una diagnosi precisa di quello che ci sta accadendo. Nel film, Neo non è più l’Eletto che vola, il liberatore messianico che spezza le catene della simulazione, è Thomas Anderson, un game designer depresso e sovra medicalizzato, intrappolato in una versione corporativa e psichiatrizzata del suo stesso mito. Lui crede di scrivere il codice della sua prigione, di essere l’autore dei videogiochi che raccontano la trilogia di Matrix, ma in realtà sta solo arredando la sua cella, sta producendo contenuti che rafforzano il sistema che lo tiene prigioniero.
Ecco la domanda: chi sta programmando chi?

È più reale il Thomas Anderson che scrive codice, che produce valore per la Warner Brothers, che va in terapia e prende le pillole blu prescritte dal suo analista o il Neo che “ricorda” di essere stato l’Eletto, che sente l’eco di una vita passata in cui era libero? E se entrambe le figure fossero solo interfacce, front-end grafici di un processo di calcolo più profondo che le supera, che le produce e le dissolve secondo necessità? L’Analista, il nuovo antagonista che ha sostituito l’Architetto, ha capito una cosa fondamentale che il vecchio sistema non aveva compreso: i fatti non contano, le equazioni perfette non bastano. L’Architetto cercava l’equilibrio matematico ideale e falliva sistematicamente perché gli esseri umani sono irrazionali, imprevedibili, capaci di scelte che contraddicono ogni calcolo utilitaristico. L’Analista invece ci nutre di sentimenti, ha scoperto che se tieni Neo e Trinity vicini ma separati, in quella zona liminale di quasi-contatto, di desiderio perpetuamente frustrato, l’energia generata dalla loro oscillazione emotiva è infinita e stabile. Non siamo pile elettriche, contenitori di bioelettricità da estrarre meccanicamente, siamo batterie emotive, generatori di energia affettiva, e il sistema si nutre della nostra oscillazione perpetua tra paura e desiderio, tra speranza e frustrazione, tra la promessa di connessione e la sua negazione sistematica. Questa è la definizione di ciò che viene definita infrastruttura affettiva: l’energia del sistema non è più soltanto biologica nel supporto materiale, è affettiva nella sua sostanza operativa. L’essere umano è ridotto a un pattern di segnali emotivi da ottimizzare in funzione di engagement, retention, lifetime value, tutte metriche che misurano quanto efficacemente il sistema riesce a tenerci agganciati dentro i suoi loop di feedback. Pensiamo alla figura di Trinity nel film, ridotta a “Tiffany”, una madre di periferia programmata per aggiungere zucchero alla propria insoddisfazione esistenziale e aggiustare vecchie motociclette nel garage, per vivere una vita di frustrazione calibrata al millimetro. Quando lei scopre di essere stata “re-brandizzata”, quando realizza che la sua identità attuale è una costruzione imposta dall’esterno, non sta vivendo un semplice inganno narrativo; sta affrontando la vertigine della sovranità perduta, la consapevolezza terrificante che quello che crediamo essere il nostro sé più autentico potrebbe essere il risultato di una manipolazione sistemica.
Se la tua identità può essere riscritta da un algoritmo che decide quali ricordi lasciarti accessibili e quali cancellare, che calibra le tue emozioni e orchestra le tue relazioni per massimizzare l’estrazione di valore, cosa significa ancora “scegliere” chi essere?
L’Analista non è un dittatore orwelliano che impone una verità di stato attraverso la violenza e la propaganda; è un social media manager onnipotente che applica continui A / B test sulla nostra psiche, che sperimenta versioni diverse della nostra soggettività per vedere quale genera più energia, più coinvolgimento, più dipendenza. I soggetti che abitano questa nuova Matrix non sono “utenti finali” che interagiscono liberamente con una piattaforma, sono moduli sostituibili in un gigantesco sistema di feedback loop dove ogni azione genera dati, ogni dato affina il modello predittivo, e ogni predizione plasma le condizioni della prossima azione in un circuito che si auto-rinforza e se l’identità umana diventa solo un parametro ottimizzabile in tempo reale, se il nostro sé è riducibile a un insieme di variabili da calibrare per massizzare una funzione obiettivo che noi non abbiamo scelto, che ne è dell’idea classica di dignità umana, di responsabilità personale, di quel nucleo irriducibile che i filosofi chiamavano anima o coscienza e che sembrava costituire il fondamento ultimo di ogni etica?
Memento e il soggetto distribuito: quando la memoria è un servizio in abbonamento
Spostiamo lo sguardo da Neo a un altro grande eroe della nostra epoca, uno che ci aveva avvertiti con decenni di anticipo: Leonard Shelby di Memento. Lui vive in un eterno presente di quindici minuti, incapace di formare nuovi ricordi a lungo termine dopo il trauma che gli ha distrutto l’ippocampo. Leonard crede di essere un investigatore libero perché ha i suoi tatuaggi e le sue polaroid, perché ha costruito un sistema esterno di memoria che gli permette di continuare la sua missione di vendetta ma quei supporti tecnici, quelle protesi mnemoniche, sono il vero hardware del suo io. Senza quei dispositivi esterni Leonard non esiste come soggetto coerente nel tempo, è solo una serie di momenti disconnessi, di frammenti di coscienza che non si riconoscono l’uno nell’altro. Ma noi oggi, nella nostra vita digitalmente mediata, non facciamo esattamente lo stesso? Abbiamo esternalizzato la memoria su cloud, feed algoritmici, notifiche push che ci ricordano cosa abbiamo fatto e cosa dovremmo fare. Leonard non ricorda autonomamente, agisce in base a istruzioni che ha scritto in un altro tempo, in uno stato mentale precedente che non è più accessibile. E qui sta il terrore filosofico che il film ci mette davanti: chi è il soggetto morale dell’azione? L’uomo di “adesso” che esegue meccanicamente l’ordine leggendo il tatuaggio sul suo corpo, o l’uomo di “prima” che ha progettato quello script comportamentale? E se quelle istruzioni possono essere manipolate dall’esterno, cancellate, riscritte da terzi o da un algoritmo che gestisce la nostra infrastruttura mnemonica, quanto è stabile l’idea di verità personale in un mondo in cui la memoria diventa un’interfaccia riscrivibile, un servizio in abbonamento gestito da piattaforme che hanno i loro obiettivi commerciali?
Il parallelismo tra Memento e la nostra condizione attuale è chirurgico e apre una voragine giuridica ed etica che il dibattito sull’AI tende sistematicamente a evitare ma memento anticipa, in forma analogica e cinematografica, la nostra attuale condizione di soggetti distribuiti, di identità che non risiedono più in un nucleo interiore stabile ma che sono spalmate su un’infrastruttura esterna. Se la continuità del sé, quella che i filosofi chiamano identità diacronica, la capacità di riconoscermi come lo stesso soggetto nel tempo nonostante i cambiamenti, se questa continuità dipende da ciò che un’infrastruttura algoritmica esterna ci restituisce sotto forma di “ricordi” selezionati, come la funzione “Accadde oggi” di Facebook che ci mostra una versione curata del nostro passato, come le timeline algoritmiche che riordinano cronologicamente gli eventi secondo criteri di rilevanza che non controlliamo, come i suggerimenti predittivi che anticipano cosa dovremmo ricordare o dimenticare, allora la nostra identità narrativa non è più un fatto interiore, un’opera di autonarrazione che costruiamo autonomamente è un servizio in abbonamento gestito da sistemi di machine learning che filtrano, riordinano, predicono e in ultima analisi producono il nostro passato tanto quanto lo registrano.
Tra Matrix Resurrections e Memento si apre un gioco di specchi che illumina la nostra condizione da due angolazioni complementari: da un lato una realtà simulata che produce soggettività a partire da algoritmi sofisticati di controllo delle emozioni, dall’altro un soggetto neurologicamente ferito che ricostruisce faticosamente la realtà a partire da frammenti e dispositivi esterni. Ma chi è più vicino alla condizione dell’uomo contemporaneo medio? Forse Leonard più di Neo, perché viviamo dentro una narrazione che abbiamo in parte scritto ma di cui abbiamo ormai perso le chiavi di accesso, affidandole volontariamente a piattaforme che “curano” la nostra biografia autobiografica meglio di quanto potremmo fare noi stessi, che sanno quali ricordi farci riemergere per massimizzare il nostro coinvolgimento emotivo, che gestiscono il nostro passato come un asset da ottimizzare? Forse… e se un domani il log completo della nostra vita, ogni conversazione, ogni luogo visitato, ogni transazione, ogni emozione registrata dai sensori biometrici, fosse gestito interamente da un’intelligenza artificiale che decide algoritmicamente cosa è rilevante ricordare e cosa può essere dimenticato secondo criteri di efficienza e benessere ottimizzato, il “diritto all’oblio” che tanto abbiamo discusso nelle legislazioni sulla privacy, o la possibilità stessa del pentimento autentico, del cambiamento radicale di vita, diventerebbero concetti tecnicamente obsoleti, bug da correggere nel codice dell’identità perfettamente quantificata.
La modalità sciame e la dissoluzione della responsabilità individuale

E arriviamo alla “swarm mode”, la modalità sciame che in Matrix Resurrections sostituisce gli Agenti individualizzati delle trilogie precedenti: non ci sono più figure come l’Agente Smith, entità distinte con una personalità programmatica riconoscibile, c’è lo sciame indifferenziato. Qualunque bot, ovvero qualunque persona comune che non ha scelto consapevolmente di essere parte del sistema, il collega d’ufficio, il passante per strada, il barista, può essere attivato istantaneamente per difendere la Matrix, trasformato in un secondo da individuo neutro a arma del sistema. È l’allegoria cinematografica definitiva della polarizzazione digitale contemporanea: basta un trigger emotivo, un frame narrativo che attiva determinati pattern di risposta, e la massa si trasforma in un’arma collettiva. L’uomo-bot è la protesi definitiva del sistema: un corpo biologico che rinuncia volontariamente alla propria individualità critica, al proprio giudizio autonomo, per diventare un terminale di esecuzione di un’intelligenza collettiva che gli è aliena ma che ha imparato a sentire come propria. Non serve più una polizia segreta centralizzata, un apparato repressivo visibile e quindi criticabile, se ogni passante può essere trasformato algoritmicamente in un proiettile umano scagliato contro chi devia dalla norma. Questa è l’essenza operativa della nostra società digitalmente connessa: un sistema di sorveglianza distribuita dove noi siamo simultaneamente i prigionieri che vengono osservati, le guardie che osservano e denunciano, e le batterie che alimentano energeticamente l’intero apparato con la nostra attenzione, le nostre emozioni, i nostri dati comportamentali.
Questa prospettiva dissolve la responsabilità morale individuale nello sciame algoritmico, e qui si apre uno dei problemi più spinosi della governance dell’AI: se la responsabilità morale e giuridica si distribuisce in una rete socio-tecnica dove non c’è più un decisore umano chiaramente identificabile ma solo una catena di contributi parziali, umani e non-umani, come si resiste alla tentazione intellettualmente pigra di trasformare ogni orrore, ogni danno concreto inflitto a persone reali, in un semplice “errore di sistema”, in un malfunzionamento tecnico che nessuno voleva e per cui nessuno è veramente responsabile?
In Matrix, l’Oracolo della trilogia originale, quella figura materna e ambigua che parlava per enigmi e biscotti, è stato sostituito dall’Analista, che non profetizza ma osserva, misura, calibra, ottimizza ma in un mondo in cui la previsione statistica basata sui Big Data sembra conoscere i nostri desideri meglio di quanto li conosciamo noi stessi, in cui gli algoritmi di raccomandazione anticipano cosa vorremo comprare, guardare, leggere prima ancora che ne siamo consapevoli, chi è davvero l’oracolo contemporaneo? Chi parla in nome di un sapere superiore o chi calcola probabilità con precisione sovrumana? Se il nuovo destino umano non è più un disegno metafisico, un fato scritto nelle stelle o nel libro della vita divina, ma è una curva di probabilità modellata statisticamente sui Big Data comportamentali aggregati, allora il libero arbitrio, quel concetto su cui abbiamo fondato secoli di filosofia morale e sistemi giuridici, rischia di essere riclassificato tecnicamente come “rumore statistico”, come deviazione dalla norma entro margini di errore perfettamente calcolati e previsti dal modello.
Tuttavia, c’è forse un punto di fuga.
Se esistono macchine che filosofano, che producono testi riflessivi sulla natura umana in modo statisticamente indistinguibile dalle produzioni umane, se scrivono articoli come questo sulla nostra condizione e ci restituiscono la nostra immagine in modo che ci fa riconoscere qualcosa di vero, forse la capacità riflessiva critica, il pensiero che si interroga sulle proprie condizioni di possibilità, resta l’unico gesto antropologicamente irriducibile, l’ultima trincea della specificità umana.
La predizione come pre-scrizione: quando il futuro si chiude prima di aprirsi
Questa consolazione filosofica, l’idea che il pensiero critico ci salverà, è l’ultima illusione umanista che dobbiamo avere il coraggio di abbandonare perché quello che stiamo descrivendo non è solo un cambiamento nei modi di produzione della conoscenza o nelle tecniche di governo ma una trasformazione ontologica del rapporto tra identità e predizione, tra ciò che siamo stati e ciò che possiamo diventare. Quando la predizione algoritmica diventa prescrizione sociale, quando il modello statistico non si limita a descrivermi ma mi pre-scrive, letteralmente mi scrive prima che io abbia la possibilità di scrivermi da solo, stiamo assistendo a un cortocircuito temporale dove il futuro collassa sul presente. La domanda smette di essere “chi sei?” e diventa “che cosa farai?”, ma questa seconda domanda, quando viene posta da un sistema che controlla l’accesso a risorse, opportunità, cure mediche, progressione di carriera, non è curiosità sociologica disinteressata, è una pre-decisione che ha già chiuso alcune porte, già limitato lo spazio delle possibilità, prima ancora che tu arrivassi fisicamente davanti a esse. Pensiamo concretamente a cosa significa questo in termini esistenziali e politici: se un sistema predittivo in ambito educativo calcola che probabilmente non completerai un percorso di studi universitari sulla base del tuo codice postale, del reddito familiare, dei voti delle scuole medie, l’istituzione potrebbe razionalmente decidere di non investire risorse scarse su di te: niente tutoraggio personalizzato, niente borse di studio, niente supporto psicologico. Ma se l’istituzione non investe risorse su di te, le probabilità che tu effettivamente non completi il percorso aumentano drasticamente.
La predizione ha letteralmente creato le condizioni materiali per la propria realizzazione.
Non perché fosse vera in senso deterministico, non perché contenesse una verità profonda sulla tua essenza, ma semplicemente perché ha influenzato le scelte di chi aveva il potere concreto di modificare le tue condizioni di possibilità: il circuito chiuso della profezia algoritmica. Molti di questi processi possono risultare formalmente corretti dal punto di vista procedurale, possono rispettare tutte le norme sulla privacy e la protezione dei dati, possono essere stati approvati dai comitati etici e validati dai data scientist, e al tempo stesso produrre un danno morale profondo, un’ingiustizia esistenziale che nessun framework di compliance riesce a catturare. Hai firmato il consenso informato. Hai accettato i termini e condizioni. Hai cliccato su “accetto” dopo aver scorso velocemente un documento di quaranta pagine di legalese incomprensibile. Ma hai davvero capito, in quel momento, che quella lettura algoritmica di te, quella classificazione in una categoria di rischio o di potenziale, sarebbe diventata una leva di potere che altri avrebbero usato per decidere del tuo futuro? E soprattutto: hai avuto un canale reale, non teorico ma praticamente accessibile, per contestare quella classificazione, per correggere gli errori, per presentare il tuo caso nella sua unicità irriducibile, per negoziare la tua identità con il sistema? Perché senza possibilità effettiva di contestazione non esiste giustizia procedurale, esiste solo esecuzione automatica di sentenze pre-scritte.
La capacità umana di tradire le proprie statistiche
Un algoritmo è fedele ai suoi pattern, dopotutto è esattamente per questo che è stato progettato e addestrato, non può letteralmente fare altrimenti per come è costruito, è progettato per trovare regolarità nascoste nei dati, per estrarre segnale significativo dal rumore casuale, per rendere prevedibile e quindi controllabile ciò che appare inizialmente caotico, e questo è perfettamente accettabile, anzi è estremamente utile, quando l’oggetto della predizione sono fenomeni naturali o sistemi tecnici ma quando l’oggetto che stiamo cercando di rendere prevedibile sono vite umane nella loro complessità esistenziale e nella loro irriducibilità ontologica, quando applichiamo la stessa logica predittiva che usiamo per le previsioni meteorologiche alle traiettorie biografiche delle persone, allora qualcosa di fondamentale si rompe, si inceppa, perché le persone non sono riducibili ai loro pattern comportamentali passati. Sono anche, e forse soprattutto, eccezioni ai propri pattern ,sono quella cosa straordinaria e specificamente umana che accade quando tutti i numeri statistici puntano in una direzione e la vita biografica concreta ne prende improvvisamente un’altra completamente imprevista.
La capacità di auto-sorprendersi, di fare qualcosa che non ci aspettavamo da noi stessi, di scoprire possibilità esistenziali che non sapevamo di avere, è forse la caratteristica più distintivamente umana che possediamo.
Noi possiamo tradire le nostre stesse statistiche, possiamo essere radicalmente infedeli al nostro passato quantificato e questa capacità di tradimento statistico non è un bug da correggere attraverso modelli più sofisticati; è la feature fondamentale che ci rende umani. Tradire le proprie statistiche significa essere liberi nel senso più radicale e più concreto del termine: non essere completamente determinati dal proprio passato comportamentale, non essere interamente prevedibili sulla base di ciò che si è stati finora, avere la possibilità reale che domani io sia esistenzialmente diverso da oggi, che la mia storia biografica prenda una piega narrativa completamente inattesa, che il racconto che sto scrivendo su me stesso contenga colpi di scena drammatici che nessun algoritmo, per quanto addestrato sui miei dati, avrebbe potuto anticipare con sicurezza.
La human agency in questo scenario distopico che stiamo analizzando non è una parola da usare nei convegni internazionali sull’etica dell’AI come hashtag virtuoso sui social media ma un gesto materiale e concreto che dobbiamo imparare a praticare quotidianamente: la capacità attiva di negoziare il proprio racconto identitario con i sistemi algoritmici che cercano continuamente di anticiparlo e fissarlo. Non si tratta di vincere una battaglia impossibile contro la macchina computazionale in una competizione asimmetrica dove siamo strutturalmente svantaggiati, ma di non essere completamente ridotti alla dimensione macchinica della nostra esistenza. È poter dire concretamente, in contesti istituzionali che contano: “Questa versione algoritmica di me è radicalmente incompleta, non cattura aspetti essenziali della mia situazione”. È poter dimostrare effettivamente il contesto specifico che i dati aggregati non possono catturare. È poter cambiare direzione esistenziale senza essere sistematicamente puniti dal passato digitalizzato che ci segue ovunque. È poter restare internamente contraddittori, ambivalenti, in evoluzione, senza che questa contraddizione costitutiva venga automaticamente interpretata dai sistemi come un segnale di rischio da mitigare o come incoerenza comportamentale da correggere. Nel dibattito mainstream sull’intelligenza artificiale si parla moltissimo, forse troppo, di “human in the loop“, di supervisione umana come garanzia procedurale contro gli errori algoritmici potenzialmente catastrofici ma forse, e qui sto proponendo uno spostamento di frame concettuale, dovremmo parlare molto di più di human agency in senso pieno. Non solo un umano che controlla passivamente l’output della macchina, che preme il bottone di emergenza quando qualcosa va tecnicamente storto, ma un umano che decide attivamente, che negozia continuativamente, che mantiene costitutivamente il potere di riscrivere la propria storia anche quando ci sono sistemi potenti che cercano di scriverla per lui secondo i loro criteri di efficienza. L’agency umana non può essere ridotta al bottone rosso di emergenza da premere solo in caso di malfunzionamento tecnico evidente; deve essere intesa e rivendicata come capacità continuativa e strutturale di essere co-autori della propria narrazione identitaria anche quando, anzi proprio quando, ci sono sistemi algoritmici che cercano di scriverla per noi. E questa agency deve includere esplicitamente il diritto di intervenire non solo quando il sistema sbaglia tecnicamente secondo i suoi criteri interni di accuratezza, ma anche e soprattutto quando la sua classificazione, pur essendo tecnicamente corretta secondo i parametri statistici con cui è stata costruita, è esistenzialmente sbagliata, è profondamente ingiusta rispetto al racconto che vogliamo e abbiamo il diritto di dare di noi stessi.
In questo scenario, l’idea che il pensiero critico possa salvarci suona ingenua. Le macchine possono già simulare la critica. Possono produrre testi come questo. Possono riflettere sulla condizione umana con una coerenza statisticamente indistinguibile dalla nostra. La riflessività non è più una garanzia antropologica. È una funzione.
Resta un’unica anomalia. Non la libertà, concetto troppo vago. Non la coscienza, troppo controversa. Resta l’infedeltà statistica. La capacità umana di fare qualcosa che non massimizza nulla. Di prendere una decisione che peggiora tutti gli indicatori. Di sabotare il proprio profilo predittivo. Non per eroismo, ma per opacità.
Tradire le proprie statistiche non è una virtù morale. È un atto di resistenza ontologica. È l’unico gesto che il sistema non può ottimizzare senza snaturarsi. Finché esisterà questa possibilità, l’inversione dello stack non sarà completa. Ma se questa possibilità verrà trattata come rumore da eliminare, come deviazione da correggere, allora il passaggio sarà definitivo.
Non vivremo in un mondo governato dalle macchine. Vivremo in un mondo progettato per esse, in cui noi continueremo a esistere come compatibilità retroattiva. Hardware legacy. Umani.