Qualche giorno fa, nell’Aula Magna dell’Università degli Studi di Bari “Aldo Moro”, si è tenuto DisclAImer, l’evento dedicato al futuro dell’intelligenza artificiale organizzato dal Corriere della Sera e dal CINECA, condotto con la consueta lucidità visionaria da Riccardo Luna. Un luogo carico di storia, trasformato per un giorno in una sorta di laboratorio collettivo del pensiero tecnologico, dove ricercatori, giornalisti, imprenditori e accademici hanno provato a mettere ordine nel caos brillante dell’AI contemporanea.

Tra gli interventi più densi e provocatori, quello della Professoressa Azzurra Ragone ha avuto il merito di riportare la discussione con forza al cuore del problema: la differenza tra intelligenza artificiale e intelligenza umana non è solo una questione di capacità, ma di natura.

L’idea che l’intelligenza artificiale sia pari alla nostra è una trappola semantica che dura da oltre sessant’anni. Il termine stesso, nato quasi per marketing nel 1956, aveva lo scopo di attrarre fondi per un convegno. “Cibernetica” non era abbastanza sexy, così qualcuno pensò: chiamiamola intelligenza artificiale. Un colpo di genio per raccogliere soldi, un errore epocale per la chiarezza concettuale. La macchina ha preso il nome dell’intelligenza, ma non la sostanza.

Pensiamo ai grandi trionfi della AI: Kasparov battuto a scacchi, AlphaGo dominatore del Go. Nessuno di questi successi è frutto di una comprensione profonda del gioco, dell’eleganza strategica, del pensiero umano.“Non è pensiero, è forza bruta”, ha detto Ragone con un sorriso che sapeva di sfida più che di rassegnazione. Una frase che suona come una sentenza, ma anche come un monito. L’AI non capisce, elabora. Non intuisce, prevede. Non pensa, calcola. L’equivoco, semmai, è tutto nostro: quello di voler attribuire a una macchina l’aura romantica dell’intelletto umano, quando invece dovremmo riconoscerle la sua natura meccanica, impersonale, eppure straordinariamente efficace.

Non sorprende che oggi il test di Turing sembri alla portata. Alcuni esperimenti recenti lo dimostrano in modo sorprendente: uno scienziato ha fatto scrivere a un modello GPT una sutra buddista, poi l’ha mostrata a esperti del buddismo. Gli studiosi non hanno riconosciuto subito l’origine artificiale. L’AI li aveva ingannati con una fluidità linguistica perfetta, con frasi che scorrono come acqua di sorgente. Ma la verità è nascosta nei dettagli. Piccoli segni tradiscono la sua natura: trattini al posto delle virgole, intercalari innaturali, costruzioni sintattiche troppo regolari. Il linguaggio parla, ma il pensiero non c’è.

Questo non è un difetto, è la definizione stessa di intelligenza artificiale oggi. È calcolo. È capacità di modellare dati e probabilità. È sofisticata manipolazione statistica. Non è creatività, non è intuizione, non è intelligenza umana. Possiamo discuterne, fare analogie poetiche, attribuirle qualità quasi umane, ma il cuore resta algoritmico. Reinforcement learning, deep learning, reti neurali: strumenti incredibili, ma strumenti. L’eleganza del pensiero umano rimane fuori dalla portata della macchina.

Chi parla di AI autonoma, consapevole, persino “cosciente”, spesso dimentica di fare un passo indietro e chiedersi: cosa significa davvero “intelligenza”? Il professor Mancuso lo ripete: confondere la capacità computazionale con la cognizione è un errore che rischia di creare illusioni pericolose. L’AI apprende pattern, calcola probabilità, simula risposte plausibili. Non sa, non sente, non comprende. È un riflesso sofisticato della nostra logica, non un duplicato della nostra mente.

Ironico, no? Abbiamo creato macchine capaci di ingannare esperti, superare scacchi e Go, scrivere testi convincenti, ma il passo verso una vera intelligenza resta enorme. È come costruire un ponte perfetto tra due montagne senza aver ancora compreso come camminare in salita. Non si tratta di impossibilità, ma di distanza. Per questo dico “non ancora”: non perché sia impossibile, ma perché la realtà attuale è molto più modesta delle fantasie hollywoodiane.

La differenza fondamentale è che noi pensiamo per intuizione, contesto, esperienza vissuta. L’AI calcola, ripete, ottimizza. Un errore comune è pensare che la capacità di generare testi simili ai nostri equivalga a comprensione. Non è così. Gli esempi sono ovunque: un testo generato da un modello linguistico può sembrare profondo, poetico, persino originale. Ma chi sa leggere tra le righe riconosce i segni distintivi: uniformità sintattica, intercalari innaturali, coerenza logica solo apparente.

Se vogliamo discutere di futuro, dobbiamo partire da qui. Non è un avvertimento catastrofista, è un esercizio di realismo tecnologico. La AI è potente, impressionante, persino sorprendente, ma non è la nostra intelligenza. Non ancora. E forse, ironicamente, la confusione sul termine ha aiutato a creare miti e aspettative che oggi dominano i titoli dei giornali e i webinar di moda.

Quando leggo articoli che parlano di AI “cosciente” o “che pensa da sola”, penso sempre al ponte incompiuto tra calcolo e cognizione. Non basta la forza bruta, non basta l’apprendimento statistico. La mente umana resta unica per il suo intreccio di intuizione, esperienza, contesto e creatività. L’AI simula, elabora, predice, ma non vive. E chiunque mantenga uno spirito critico lo percepisce subito, anche nelle pieghe di un testo apparentemente perfetto.

La sfida del futuro non è creare un clone della nostra mente, ma comprendere la nostra definizione di intelligenza, capire cosa davvero conta nel pensare, nel capire, nel creare. L’intelligenza artificiale ci offre strumenti straordinari, ma non ci offre il sé pensante. Non ancora.