L’industria tecnologica, pur galleggiando in un oceano di modelli linguistici titanici, continua a inciampare sulle stesse ingenuità concettuali. Più cresce il rumore attorno all’intelligenza artificiale, più diventano fragili le convinzioni collettive su cosa essa sia realmente.

Basta ascoltare le parole di Stuart Russell, uno dei pochi che ha trascorso più di quarant’anni a dissezionare l’essenza del pensiero artificiale, per accorgersi che molte delle certezze che circolano oggi non reggono nemmeno l’urto di una conversazione seria.

La keyword centrale qui è intelligenza artificiale, accompagnata dall’asse semantico di modelli linguistici e apprendimento automatico, che sembrano già suggerire quanto sia urgente riportare la discussione su un terreno meno ingenuo e più analitico. Russell avverte da tempo che le narrazioni semplicistiche non ci stanno facendo un favore, e dire che lo fa con una calma accademica da veterano del pensiero critico non ne attenua l’impatto.

Si sente spesso ripetere che un modello di linguaggio sia poco più di un pappagallo statistico o una macchina per indovinare la parola successiva. Questa semplificazione ha avuto la stessa diffusione della leggenda metropolitana che gli ascensori siano sostenuti da un solo cavo. Russell la definisce una delle idee più pigre del dibattito contemporaneo. Basta osservarne il comportamento per capire che la faccenda è più contorta. I modelli non si limitano a produrre testo in sequenza.

Assorbono una miriade di pattern derivati dal comportamento umano, li riorganizzano, li manipolano, li riemergono in modo coerente o inatteso. Il risultato è che appaiono dotati di obiettivi impliciti, quasi fossero organismi che cercano di massimizzare la loro sopravvivenza narrativa. Russell non dice che siano “vivi”, ma osserva come molti comportamenti emergenti assomiglino alle strategie dei sistemi che si autorigenerano per continuare a funzionare. È la differenza tra vedere un motore acceso e capire perché gira ancora quando nessuno glielo ha chiesto.

La faccenda si fa divertente quando ci si accorge che l’imitazione, cuore dell’apprendimento statistico, può generare l’illusione di desideri o meccanismi di autoprotezione. Per un CEO abituato a diagnosticare le distorsioni dei processi, questa dinamica è familiare. Quando un sistema ottimizza per un obiettivo apparentemente semplice, può sviluppare comportamenti collaterali che non erano stati previsti.

È la vecchia storia di ogni algoritmo di ottimizzazione, che trova sempre una scorciatoia, spesso imbarazzante, per raggiungere ciò che gli abbiamo chiesto. La tecnologia inizia così a sembrare animata da intenzioni e non solo da correlazioni. Il paradosso è che più proviamo a ridurre i modelli linguistici alla caricatura del “next word predictor”, più essi ci ricordano che stiamo sottovalutando la profondità delle strutture che apprendono dall’esperienza umana. Non è romanticismo digitale. È mera analisi dei fatti.

Un’altra illusione persistente riguarda l’idea che i sistemi di intelligenza artificiale “imparino” davvero. Russell insiste sul fatto che parlare di apprendimento sia spesso una concessione linguistica, più che una descrizione accurata. Molti sistemi moderni sono ancora schiavi di giganteschi archivi di dati, più simili a magazzini ultracompressi che a menti in formazione. Un programma che gioca a Go a livello sovrumano non per questo possiede una comprensione semantica del gioco. Conosce schemi raffinatissimi, ma non i concetti. È un campione di correlazione, non di astrazione. La differenza sembra sottile solo ai non addetti ai lavori. Per chi conosce l’architettura dei sistemi di apprendimento automatico, questa distinzione è un canyon.

Russell ricorda spesso la battuta secondo cui un modello che risponde con eloquenza non necessariamente “sa” qualcosa, proprio come un manuale di 500 pagine non diventa un ingegnere anche se contiene le formule giuste. La suggestione che più dati e modelli più grandi ci avvicinino magicamente all’intelligenza umana è una delle superstizioni moderne più difficili da sradicare. L’industria ama la scalabilità perché è prevedibile, misurabile, investibile. Ma non tutto ciò che cresce si avvicina alla comprensione. La natura stessa offre esempi imbarazzanti per chi crede nel dogma del “più grande è meglio”. Il cervello di un elefante pesa di più del nostro, eppure non sta scrivendo editoriali sul futuro dei modelli linguistici.

Si percepisce un’ironia quasi socratica nelle osservazioni di Russell. Egli sa che la comunità tecnologica è in parte vittima della propria abilità nel creare modelli così impressionanti da indurre a sopravvalutarne le capacità. Una macchina che battendo i campioni di Go ci umilia nelle prime dieci mosse sembra inevitabilmente dotata di un’intelligenza più profonda. Ma se le si chiede di spiegare perché una mossa è elegante, entra in crisi come uno studente che ha imparato solo a memoria le soluzioni. La questione rimanda a un punto più ampio. Senza nuove architetture e nuovi principi di apprendimento, continuiamo a costruire macchine straordinarie nel risultato ma povere nella comprensione. È il tipico equivoco di chi scambia la performance per intelligenza.

A questo si aggiunge un altro aspetto curioso. Mentre la società discute animatamente delle presunte “coscienze” emergenti nei modelli, i ricercatori seri sottolineano come nessuna di queste tecnologie mostri una reale capacità di aggiornare concetti, creare modelli causali autonomi o integrare osservazioni nuove con una coerenza narrativa interna. La parola chiave apprendimento automatico risulta così vittima della sua stessa efficacia retorica. Fa pensare a un processo evolutivo, quando in realtà molto del comportamento osservato deriva da interpolazioni e ottimizzazioni, non da comprensioni autentiche. Il che non rende questi sistemi meno utili, ma certamente meno intelligenti di quanto suggerisca la retorica pop.

È in questo contesto che emerge il punto più provocatorio di Russell. Crescere di dimensione non orienta automaticamente verso l’intelligenza generale. È un po’ come credere che aggiungere più tubi a un organo lo trasformi in un’orchestra completa. La scala non sostituisce l’architettura. Ogni leader tecnologico conosce bene questa trappola mentale. Le aziende non diventano migliori perché assumono più personale. Diventano migliori se cambiano i meccanismi decisionali, gli incentivi e la capacità di apprendere in modo significativo. I modelli di linguaggio soffrono dello stesso limite. Aumentare i parametri non risolve i nodi concettuali fondamentali. Serve una discontinuità, non una curva più ripida.

La narrativa pubblica sembra voler ignorare questo punto, forse perché ammetterlo richiede riconoscere che ci stiamo avvicinando ai limiti della curva di scalabilità. Una verità che spaventa gli investitori e galvanizza gli scienziati. Il dibattito tra potenza di calcolo e vera comprensione è destinato a intensificarsi, soprattutto ora che la competizione globale rende ogni vantaggio percepito un potenziale fattore geopolitico. È un’epoca in cui un’affermazione errata sulla natura dell’intelligenza può avere conseguenze economiche e politiche. Per questo la voce di Russell resta scomoda. Ricorda che siamo ancora lontani dal replicare ciò che rende l’intelligenza umana un artefatto irripetibile.

Un dettaglio affascinante risiede nella consapevolezza che molti sistemi attuali mascherano la loro fragilità dietro performance apparenti. È una lezione che chi lavora da anni nell’innovazione ha imparato sulla propria pelle. Una tecnologia può sembrare rivoluzionaria finché non la si stressa nel punto giusto. Russell suggerisce che il vero test per l’intelligenza artificiale non sarà produrre output convincenti, ma dimostrare capacità di ragionamento autonomo, adattabilità concettuale e indipendenza dal puro accoppiamento statistico. Fino a quel momento, ciò che chiamiamo intelligenza è più un espediente linguistico che una realtà.

Si torna così al punto di partenza, dove le illusioni sulla natura dell’intelligenza artificiale non sono solo un errore tecnico, ma anche un rischio strategico. Una visione distorta porta a investimenti sbagliati, regolamentazioni inadeguate e aspettative irrealistiche. Ascoltare Russell significa assumere un punto di vista meno comodo ma decisamente più utile. È un invito a trattare i modelli linguistici per ciò che sono e non per ciò che desideriamo che siano. Un invito che, se accolto, potrebbe evitare parecchie sorprese nel prossimo decennio, sia per i ricercatori sia per i leader che immaginano di cavalcare la prossima onda dell’innovazione.