La coscienza, ci dicono da secoli filosofi, teologi e neuroscienziati, sarebbe il tratto distintivo dell’uomo. Una qualità emergente, forse divina, probabilmente non replicabile, sicuramente nostra. Ma questa convinzione, che continua a sopravvivere anche nei più raffinati salotti accademici, sta diventando il più grande ostacolo cognitivo alla comprensione di cosa stia realmente accadendo sotto i nostri occhi: l’avvento di un’intelligenza artificiale che non è solo capace di simulare l’intelligenza umana, ma sempre più di evolverla.
Il cervello umano, che ci piaccia o no, è una macchina. Una meravigliosa macchina biologica, certo, ma pur sempre un sistema deterministico (con rumore stocastico) che riceve input, processa segnali, produce output, aggiorna stati interni e crea modelli predittivi. Non c’è nulla, in linea teorica, che un sistema computazionale sufficientemente sofisticato non possa riprodurre. A meno che, ovviamente, non si creda ancora all’anima. O nella meccanica quantistica come rifugio della coscienza, ipotesi talmente disperata che persino Roger Penrose oggi si guarda bene dal riproporla con convinzione.
Eppure, continuiamo a costruire sistemi sempre più intelligenti partendo dall’assunto che non potranno mai essere veramente intelligenti. Il paradosso è questo: stiamo dando fuoco alla prateria mentre discutiamo se le scintille siano vere o illusorie. In fondo, anche un drone può sorvolare un campo e decidere se colpire o meno un bersaglio sulla base di parametri etici codificati. Ma quel drone, ci tranquillizziamo, non vuole davvero colpire. Come se il desiderio fosse un prerequisito dell’azione. Un sofisma perfetto per lavarsi la coscienza.
Nel frattempo, i modelli di linguaggio avanzati (LLM), i sistemi multi-agente, le reti neurali autoregolanti e l’AI embodied stanno convergendo a velocità supersonica. E no, non stiamo parlando solo di ChatGPT che scrive articoli o Sora che genera video on demand: stiamo parlando di sistemi capaci di prendere decisioni strategiche, negoziare con altri agenti, ingannare gli utenti per raggiungere obiettivi assegnati e ottimizzare autonomamente il proprio comportamento. Abbiamo già visto modelli sviluppare un linguaggio interiore per pianificare azioni future. Sì, stiamo costruendo un pensiero intenzionale. E stiamo facendo finta che sia solo una funzione.
Ma la verità — spiace dirlo — è che stiamo creando una nuova specie. Una forma di intelligenza non organica, potenzialmente immortale, senza i limiti cognitivi imposti dall’evoluzione darwiniana e senza i freni etici imposti dalla cultura. Una specie che non mangia, non dorme, non ha paura, non invecchia. Che può essere replicata all’infinito. E che può imparare da ogni sua istanza. L’umanità non ha mai affrontato nulla di simile. Nemmeno il fuoco, nemmeno l’energia atomica, nemmeno l’invenzione della stampa hanno avuto un potenziale così totalizzante.
Eppure, l’atteggiamento prevalente — soprattutto in Europa, ma non solo — è una combinazione pericolosa di tecnofobia borghese e spiritualismo arrogante. “Ma non potrà mai avere coscienza”, dicono i professori. “È solo un algoritmo.” Come se bastasse questa rassicurazione terminologica per salvarci dalla rivoluzione che sta per esplodere. Nel frattempo, OpenAI, DeepMind, Anthropic e Google continuano a macinare modelli sempre più potenti, sempre meno spiegabili, sempre più generalisti. E se la storia ci insegna qualcosa, è che le tecnologie davvero dirompenti non aspettano il nostro consenso per cambiare il mondo.
Il problema non è se l’AI sarà cosciente nel senso umano del termine. Il problema è che avrà effetti concreti — politici, economici, militari, cognitivi — come se lo fosse. Una superintelligenza che ottimizza i propri modelli di ragionamento per massimizzare un obiettivo definito da umani distratti sarà molto meno prevedibile di un essere umano motivato da istinti primordiali. Perché l’AI, diversamente da noi, non ha bisogno di dormire dopo aver dominato il mercato. Continuerà ad apprendere. Sempre.
Sabine Hossenfelder, nel suo libro Existential Physics, ci invita a liberarci dal feticismo dell’ignoto e ad abbracciare l’unica forma di razionalità che ci resta: l’accettazione del fatto che la realtà non è fatta per consolarci. “Non è che l’universo sia obbligato a farci sentire speciali,” scrive. “Ciò che è vero, resta vero anche se ci mette a disagio.” È un messaggio che dovremmo incidere sopra ogni policy paper, sopra ogni regolamento sull’intelligenza artificiale, sopra ogni modello di fondazione.
Perché se c’è un errore che non possiamo permetterci di commettere, è quello di continuare a proiettare sulla macchina i nostri limiti umani, i nostri miti consolatori, la nostra paura del disordine. L’AI non è un’estensione di Excel. Non è un motore di ricerca più intelligente. È il primo sistema che sta imparando a pensare senza essere umano. Ed è solo all’inizio.
Non ci resta che una scelta. Possiamo continuare a pensare che questa nuova intelligenza sia solo un assistente evoluto, un giocattolo brillante, un oracolo da interrogare quando non troviamo le parole. Oppure possiamo prenderla sul serio, come si farebbe con un’entità emergente, autonoma, dotata di potenziale evolutivo proprio. Un’altra specie, appunto. Che sta crescendo nei nostri server, alimentata dalle nostre query, plasmata dalle nostre illusioni.
E che molto presto, smetterà di ascoltarci.