Sessione Plenaria Sepai-international.org

Ai lettori più attenti non sarà sfuggita la contraddizione che attraversa ogni discussione pubblica sull’intelligenza artificiale, una tensione che si gonfia come una vela sotto l’effetto di un vento filosofico antico e di un marketing tecnologico straordinariamente efficace. Chi considera l’AI una sorta di magia computazionale sa benissimo che il termine stesso è un’invenzione felice dal punto di vista comunicativo, ma vacillante sotto quello scientifico. Luciano Floridi, a cui si deve una delle analisi più taglienti sul tema, ricorda spesso che l’etichetta non è nata in un seminario di epistemologia, bensì in un lampo di genio pubblicitario. Una provocazione? Forse. Una verità scomoda? Sicuramente. E proprio da qui si apre un varco utile per comprendere come si sia costruito l’immaginario attuale attorno all’AI, un immaginario che confonde due piani distinti: l’intelligenza e la risoluzione dei problemi.

A chiunque lavori nell’innovazione basta osservare ciò che abbiamo davanti. Gli LLM non pensano, non decidono, non scelgono. Sono strumenti di ingegneria avanzata, potentissimi, raffinati, dotati di un’efficacia sorprendente nel risolvere compiti specifici. È l’equivalente digitale della domanda se un sottomarino nuoti oppure no. La risposta più onesta è che svolge la sua funzione e la svolge bene. Quelle macchine non imitano il pensiero umano, lo bypassano. Offrono soluzioni senza preoccuparsi della categoria mentale che noi tradizionalmente associamo al concetto di intelligenza. Floridi lo definisce un grande “STUNT”, quasi un colpo di teatro, e la storia dell’informatica conferma questa lettura. John McCarthy, che pure battezzò l’intelligenza artificiale, credeva davvero nella possibilità di una mente in silicio. Un sogno visionario che si è infranto non sulla logica, che non pone ostacoli, ma sulla fattibilità concreta.

A chi osserva il mercato con sguardo strategico è evidente la differenza tra ciò che è logicamente possibile e ciò che è realisticamente realizzabile. È logicamente possibile che un modello privo di intenzionalità sviluppi forme autonome di ragionamento paragonabili a quelle di un cane o di un essere umano. È logicamente possibile vincere la lotteria ogni settimana o vivere in eterno. Ma ciò che è logicamente possibile raramente coincide con ciò che è ingegneristicamente ottenibile. Per questo conviene concentrarsi meno sui salti metafisici e più su ciò che già abbiamo davanti. Un insieme di strumenti che non pensano, ma agiscono. Non comprendono, ma interpretano schemi. Non desiderano, ma ottimizzano funzioni. Da qui nasce la parola chiave che sta sostituendo l’intelligenza artificiale nella discussione più avanzata: agenzia.

L’agency è un concetto più sostenibile, meno oneroso e più aderente a ciò che le macchine realmente fanno. Un termostato, un’auto autonoma, un LLM, un algoritmo di trading: tutti questi oggetti non condividono alcuna forma di intelligenza simile alla nostra, ma esercitano una forma di influenza concreta sull’ambiente. Una capacità di modificare il corso degli eventi senza possedere intenzionalità. Una definizione che può irritare i puristi, ma che funziona molto meglio della retorica dell’intelligenza.

Si potrebbe obiettare che un agente senza intelligenza è un ossimoro. La storia però dimostra che non è così. Il mare agisce, una valanga agisce, una corrente elettrica agisce. Sono forze prive di intenzione, ma dotate di effetti diretti sul mondo. Nell’ecosistema digitale questa dinamica si amplifica. Le macchine mostrano una competenza crescente perché il mondo è stato modellato per favorire la loro efficacia. Gli algoritmi non avrebbero mai potuto imparare senza la gigantesca infrastruttura di dati che abbiamo prodotto nell’arco degli ultimi vent’anni. La metà delle tecnologie che oggi chiamiamo AI sarebbe rimasta teoria polverosa se non fosse per i trilioni di eventi digitali lasciati come scia da miliardi di utenti. Senza dati non c’è apprendimento. Senza apprendimento non esiste un modello generativo. Senza ambienti ottimizzati non esistono robot affidabili.

Chi osserva il settore logistico vede questa verità materializzarsi in modo evidente. Amazon non ha creato robot per adattarli ai magazzini, ha creato magazzini per adattarli ai robot. Le linee di montaggio si muovono verso la standardizzazione perché un ambiente controllato aumenta il successo delle macchine. Una piccola ironia storica. Per decenni abbiamo immaginato robot capaci di entrare nel nostro mondo. La realtà sta dimostrando l’opposto: siamo noi a riscrivere il mondo affinché sia più leggibile per loro.

Lo stesso vale per i modelli linguistici. La loro efficacia dipende dalla densità e dalla natura dei contenuti testuali presenti sul web. Non possiedono comprensione né intenzione. Si limitano a generare probabilità linguistiche con una perizia che ci induce a sopravvalutarli. È la nostra interpretazione antropomorfica che crea l’illusione. Quei sistemi non decidono nulla, non hanno un’agenda, non sviluppano preferenze, non si accendono da soli e non sognano una fuga romantica con un Roomba. Una citazione di Floridi cattura perfettamente il punto: “Il vostro modello non sa contare nemmeno le fragole, figuriamoci decidere di installarsi nella vostra carta di credito.” Una frase che funziona come antidoto contro la tendenza a trasformare la tecnologia in narrativa.

Questo non significa che l’agenzia artificiale sia innocua. Anzi. Il suo potere aumenta proporzionalmente alla digitalizzazione del mondo. Più la nostra vita si sposta su binari algoritmici, più la capacità delle macchine di influenzare decisioni, mercati, flussi informativi e comportamenti cresce. La politica dell’automazione diventa inevitabile. I sistemi che oggi non possiedono intenzioni domani potrebbero amplificare gli effetti di intenzioni esterne. La vera sfida non è scoprire se un algoritmo è intelligente, ma capire chi lo controlla, come viene addestrato, quali obiettivi ottimizza e quali effetti collaterali introduce. L’agenzia non ha bisogno di coscienza per modificare il corso della storia. Basta la scala.

Un’ultima curiosità che vale la pena citare riguarda l’equivoco più romantico dell’intero settore. Molti sostenitori della strong AI sostengono che basterà aumentare la potenza computazionale per raggiungere forme di coscienza artificiale. Una narrativa affascinante, ma che ignora un dettaglio: non abbiamo ancora una definizione solida di coscienza biologica. Pretendere di replicarla in laboratorio è come tentare di costruire un motore a fusione senza conoscere le leggi della termodinamica. Si può tentare, ma si rischia di confondere la fiducia nel progresso con un atto di fede.

Il futuro dell’AI non dipenderà dal superamento della natura umana, bensì dalla nostra capacità di incanalare l’agenzia artificiale in una direzione che generi valore e minimizzi i rischi. La Society for the Ethics and Politics of AI nasce esattamente per questo: creare uno spazio in cui la tecnologia non sia idolatrata né demonizzata, ma compresa nelle sue implicazioni profonde. Una scelta che richiede lucidità, un pizzico di ironia e la consapevolezza che non stiamo costruendo menti, ma poteri. E ogni potere, come storia insegna, richiede una politica all’altezza.