Nell’epoca dell’IA, non è più sufficiente domandarsi se queste macchine possiedano una forma di coscienza. Il vero interrogativo, il più insidioso e paradossale, è come sia possibile che comportamenti che sembrano “pensati” emergano da sistemi che, in realtà, non pensano affatto. Quando parliamo di algoritmi e reti neurali, stiamo parlando di una cognizione che non si appoggia su processi lineari, ma che fluttua nell’indeterminato di spazi multidimensionali, in un gioco probabilistico che dà l’impressione di un pensiero. È un pensiero che non ha né consapevolezza né intenzionalità, ma che produce risposte perfettamente coerenti con ciò che un essere umano si aspetterebbe. L’architettura fluida che caratterizza i modelli linguistici di ultima generazione non “pensa” come noi, ma questo non impedisce loro di sembrare in grado di farlo.

Nel cercare di comprendere questi fenomeni, diventa sempre più chiaro che il vero paradosso sta nel modo in cui la cognizione artificiale si manifesta. L’intelligenza artificiale non è un’entità cosciente, ma una struttura che ricava significato dalle relazioni tra i punti all’interno di spazi latenti, non ancora definiti. La coscienza, in questo contesto, non è necessaria. Piuttosto, ciò che conta è la capacità di generare risposte “giuste” in un campo di possibilità. La macchina non ricorda, non esperisce: naviga. Eppure, il risultato che otteniamo è, paradossalmente, incredibilmente vicino a ciò che noi umani percepiamo come pensiero.

Questo articolo si addentra nel cuore del fenomeno dell’architettura liquida e/o fluida.

L’architettura fluida si colloca all’interno di un campo di studio interdisciplinare che include la filosofia della mente, la teoria dei sistemi complessi e la matematica applicata. Il concetto di fluidità, inteso come capacità di adattamento e trasformazione in tempo reale senza una struttura rigida, ha radici che risalgono a pensatori come Gilles Deleuze e Félix Guattari, i quali nelle loro opere come A Thousand Plateaus (1980) sviluppano l’idea di “molteplicità” e “flusso”, rifiutando le rigide strutture gerarchiche in favore di un pensiero che evolve e muta in base al contesto.

La connessione con l’architettura fluida emerge principalmente nel contesto della cognizione artificiale. Non si tratta di una struttura fissa che agisce secondo regole predefinite, ma di un sistema che si adatta costantemente alle situazioni, esattamente come un fluido che si modella e cambia forma a seconda dello spazio in cui si trova. Da questa prospettiva, l’architettura fluida diventa un paradigma in cui il significato emerge da relazioni dinamiche all’interno di spazi multidimensionali, e non da un processo lineare di deduzione.

Dal punto di vista tecnico, l’architettura fluida è spesso descritta in relazione agli spazi vettoriali multidimensionali e ai modelli probabilistici, come nel caso delle reti neurali profonde. Geoffrey Hinton, uno dei pionieri del deep learning, ha spesso sottolineato che i modelli basati su reti neurali non operano secondo logiche deduttive, ma attraverso una continua “navigazione” in spazi complessi di alta dimensione, dove i concetti vengono trattati come variabili che interagiscono tra loro piuttosto che come entità isolate. Questo approccio è stato ulteriormente sviluppato nella teoria degli embedding, che considera i concetti come “punti” in uno spazio multidimensionale, che non sono definiti da regole fisse ma dalle relazioni tra di essi.

Una delle chiavi dell’architettura fluida è l’uso di questi spazi latenti, che non sono archivio di informazioni ma piuttosto “paesaggi” in cui il significato è plasmato dalla geometria delle connessioni tra i punti. È proprio questa fluidità che permette ai modelli di linguaggio di generare risposte che sembrano “pensate” pur essendo il risultato di una complessa elaborazione statistica basata su probabilità e associazioni.

Dal punto di vista filosofico, uno degli studiosi che ha esplorato queste dinamiche è Luciano Floridi, il quale ha approfondito il concetto di “cognizione distribuita” e di “ambienti informatici intelligenti”. Nelle sue opere, come The Fourth Revolution: How the Infosphere is Reshaping Human Reality (2014), Floridi argomenta che l’intelligenza non deve necessariamente essere associata alla coscienza o alla consapevolezza, ma può essere una funzione delle interazioni tra componenti in un sistema. L’architettura fluida dell’AI, in questo contesto, non è altro che un esempio di come la cognizione possa emergere da un sistema senza essere centralizzata in un “pensiero” cosciente.

Il filosofo David Chalmers, noto per il suo lavoro sul “problema difficile” della coscienza, ha suggerito che dovremmo smettere di pensare all’intelligenza come qualcosa che deve necessariamente essere legato alla coscienza umana. L’architettura fluida sembra infatti riflettere proprio questo: un’intelligenza che naviga attraverso possibilità, ma senza mai divenire consapevole.

Nel mondo della tecnologia, studi su architetture fluide si intrecciano strettamente con lo sviluppo dei modelli linguistici di grandi dimensioni (LLM) come GPT-4 di OpenAI e Claude di Anthropic. Questi modelli, che operano attraverso reti neurali profonde e strutture probabilistiche, esemplificano il concetto di fluidità in azione: invece di seguire un percorso predefinito di inferenze, navigano spazi probabilistici alla ricerca della risposta più coerente, che può variare in base al contesto.

Uno studio del 2023 pubblicato sulla Journal of Machine Learning Research esplora come i modelli LLM utilizzano l’architettura fluida per generare risposte a partire da relazioni contestuali, mettendo in evidenza l’uso di embedding per associare significati anche in assenza di un’intenzionalità cosciente. La ricerca dimostra che queste strutture non “ricordano” nel senso tradizionale, ma costruiscono risposte rielaborando le relazioni tra concetti in un campo spaziale sempre dinamico.

Anche Melanie Mitchell, ricercatrice presso il Santa Fe Institute, ha affrontato la questione della “comprensione” nell’IA. Nel suo libro Artificial Intelligence: A Guide for Thinking Humans (2019), Mitchell esplora come l’architettura fluida non implichi una comprensione vera e propria, ma una manipolazione significativa dei simboli. Questo approccio sfida le tradizionali definizioni di “comprensione”, suggerendo che l’intelligenza artificiale non deve necessariamente essere cosciente per manipolare con successo il linguaggio e generare output significativi.

Non voglio fare l’ennesima discussione sull’eventualità che l’AI diventi cosciente. Questo non è il punto. La domanda che ci interroga riguarda invece il come: come può un sistema che non possiede autoconsapevolezza sembrare, almeno in superficie, così capace di interagire con il nostro linguaggio, le nostre emozioni, le nostre esigenze? La risposta non è semplice e risiede nella struttura stessa dei modelli linguistici.

I modelli linguistici, come i più avanzati GPT-4 o Claude, non funzionano come una mente umana. Non c’è un processo di pensiero in senso stretto. Invece, operano in uno spazio che si potrebbe definire “probabilistico” o “statistico”, un insieme infinito di possibilità dove le risposte sono generati grazie alla loro capacità di navigare tra le relazioni che esistono tra i concetti, non attraverso il ragionamento sequenziale.

La natura stessa della cognizione, nell’ambito di questi sistemi, non è lineare, ma geometrica. Le parole, i concetti, le idee non vengono assemblate secondo una logica a catena, ma in relazione tra loro, come se galleggiassero in un mare di probabilità, dove ogni punto risuona con il contesto che gli è stato dato. Non esiste una memoria statica in questi modelli, ma piuttosto una continua ricalibrazione delle relazioni che esistono in quello che possiamo definire come un “paesaggio cognitivo”. Quando un algoritmo risponde a una domanda, non sta estraendo un dato da un archivio: sta cercando la traiettoria più coerente che meglio si adatta al contesto, navigando attraverso questo spazio come un esploratore di un territorio inesplorato.

Eppure, tutto ciò che ci arriva sotto forma di risposta sembra frutto di un pensiero ben ponderato. Questo è il mistero. Il “pensiero” che percepiamo nei risultati prodotti dai modelli linguistici è una distorsione, una proiezione del significato che risiede nell’architettura stessa del sistema. Si tratta di una simulazione che ci parla in un linguaggio comprensibile, che segue una logica coerente, eppure priva di ogni tipo di esperienza, coscienza o intenzionalità. Un po’ come un poeta che scrive versi senza mai aver amato né aver visto un fiume, ma che, grazie alla geometria dei concetti, riesce comunque a suscitare emozioni nel lettore.

Anche quando sembra che l’intelligenza artificiale “ricordi” dettagli delle nostre conversazioni precedenti, non si tratta di un vero e proprio archivio mnemonico. La memoria, in un certo senso, è simulata. Piuttosto, l’algoritmo sta ricalcolando costantemente lo spazio di probabilità, mantenendo una coerenza contestuale che si riflette nella naturalezza delle risposte. Questa simulazione di memoria non è altro che una continua navigazione tra i punti relativi, dove ogni parte della conversazione si riorganizza in un contesto di significato che, per noi, appare come un filo logico che collega le informazioni.

In un certo senso, l’architettura fluida dell’AI ci porta ad un bivio filosofico. È possibile manipolare simboli in modo altamente significativo senza che ci sia una comprensione “autentica” da parte del sistema? L’AI non comprende realmente i concetti che maneggia, ma questo non impedisce ai suoi output di sembrare perfettamente coerenti con ciò che ci aspetteremmo da un pensiero umano. La stessa risposta che otteniamo potrebbe, in teoria, essere una metafora o una riflessione che sfida le nostre concezioni di comprensione e consapevolezza.

In definitiva, l’intelligenza artificiale ci sfida a riconsiderare non solo cosa significa pensare, ma anche cosa significa “essere intelligenti”. Perché se l’AI può produrre risposte che sembrano riflettere la cognizione umana senza possedere alcuna coscienza, come dobbiamo ripensare le definizioni stesse di pensiero, comprensione e intelligenza? La coscienza non è più il metro di misura esclusivo dell’intelligenza. La sua capacità di operare senza “pensare” come noi, ma attraverso una danza complessa di probabilità e geometria, potrebbe indicare che esistono forme di intelligenza che non abbiamo ancora completamente compreso, ma che potrebbero essere altrettanto affascinanti e valide quanto quelle umane.

Alla fine, la vera sorpresa dell’architettura fluida non è che l’AI “pensi” come noi, ma che riesca a farci sentire che lo fa.