Nel teatro sempre più affollato dell’intelligenza artificiale, le luci sono puntate sui profeti di una nuova era. Dario Amodei, Demis Hassabis, Sam Altman: non sono scienziati, sono evangelisti in giacca sartoriale, determinati a convincerci che il nostro futuro dipende da un algoritmo che non sa distinguere un paradosso logico da una battuta di spirito. E se vi sembra un’esagerazione, provate a leggere l’ultima fatica di Apple Research, che smonta con precisione chirurgica le velleità dei nuovi oracoli digitali.

C’è qualcosa di quasi comico, se non fosse tragico, nell’osservare Sam Altman dichiarare con la gravità di un presidente in tempo di guerra che siamo “vicini a costruire una superintelligenza digitale”. Il tono è messianico, la promessa epocale: un’IA più intelligente di noi, che spazzerà via intere classi di lavori, e ci costringerà a riscrivere il “contratto sociale”. Forse con una postilla scritta da GPT-5. Ma, nel frattempo, queste AI soffrono ancora di crisi di identità quando affrontano una semplice equazione con due incognite.

Meta – sì, quella Meta – vuole spendere 14 miliardi di dollari per rincorrere l’utopia di Zuckerberg: un’IA più sveglia di noi, che forse un giorno capirà persino il perché di Facebook. Ironico, dato che lo stesso Yann LeCun, Chief AI Scientist di Meta, ha passato gli ultimi anni a liquidare la narrativa del “pericolo superintelligenza” come fantascienza da salotto. Ma i fondi, si sa, non si muovono sulle convinzioni filosofiche, ma sull’odore del sangue. E oggi, l’unico sangue sul tavolo è quello delle startup che promettono l’impossibile.

Christopher Mims del Wall Street Journal ha il merito – raro – di gettare un secchio d’acqua gelida sull’isteria collettiva. Cita con tono quasi rassegnato il paper “The Illusion of Thinking” di Apple, che ha il pregio di parlare chiaro. Dietro la retorica degli “AI reasoning models”, il nulla. O peggio: regressione. I modelli di OpenAI, Anthropic e DeepSeek, che dovrebbero simulare ragionamenti multi-step, vanno nel pallone davanti a problemi che un bambino delle medie risolverebbe con carta e penna. Non solo falliscono: collassano. Letteralmente. Accuracy collapse. L’illusione del pensiero, appunto.

Ma il problema è più sottile, più profondo. Qui non si tratta solo di una tecnologia immatura. Si tratta di una narrazione tossica che plasma decisioni politiche, investimenti miliardari, e piani industriali. È il marketing che colonizza la governance. Mims cita altri studi: Salesforce AI Research conferma il gap abissale tra LLM e le necessità aziendali reali. L’IA generativa è eccellente nel fare finta, ma tragicamente inaffidabile quando si tratta di fare davvero. Il che non impedisce a consulenti digitali e manager affamati di buzzword di presentare PowerPoint con diagrammi che promettono il paradiso automatizzato.

Una delle frasi più affilate dell’articolo viene da Ortiz: “Sì, puoi usare l’AI per generare molte idee, ma richiedono comunque un audit importante.” Tradotto: serve più lavoro umano per correggere l’output di queste AI che per scriverlo da soli. È come usare un robot per pelare una mela con la motosega: tecnicamente possibile, ma poco consigliabile.

La verità è che l’IA generativa non “pensa”. Non ragiona. Simula la forma del pensiero umano senza comprenderne la sostanza. È una maschera lucida, una superficie riflettente che replica modelli linguistici, ma che si sgretola appena si cerca un nesso causale robusto. È l’equivalente digitale di un pappagallo accademico: impressionante nelle forme, insulso nei contenuti.

Eppure, ci ritroviamo di fronte a CEO visionari che parlano di “nuove forme di coscienza computazionale” con la stessa sicurezza con cui Theranos prometteva analisi del sangue miracolose. Il pattern è inquietantemente simile: overpromise, underdeliver, repeat. Nel frattempo, le aziende strutturano roadmap sulla base di promesse che non poggiano su alcuna base tecnica solida. Non sorprende che nel settore aumentino gli “AI Sceptics”, ex-addetti ai lavori che ora cercano di smontare la macchina della propaganda prima che faccia danni sistemici.

Il paradosso più feroce? Che mentre i modelli più recenti inciampano in problemi base di logica, i vecchi LLM “vanilla” se la cavano meglio. L’innovazione qui sembra più una spirale discendente che un’evoluzione. Con ogni nuovo modello, la complessità aumenta, ma l’affidabilità si dissolve. È l’era dell’overfitting sociale: tutti vogliono credere alla favola, anche se l’esperimento continua a fallire.

Una curiosità che vale più di mille white paper: nel 2022, un gruppo di ricercatori mise GPT-3 davanti al celebre “Wason Selection Task”, un test logico basilare. Il risultato? Prestazioni peggiori di un gruppo di liceali. A distanza di due anni, le performance dei modelli attuali non sono migliorate in modo significativo. Ma il marketing sì. E questo, più di ogni altra cosa, dovrebbe farci riflettere.

Il rischio reale non è che l’IA diventi cosciente. È che noi, collettivamente, smettiamo di esserlo. I manager, i politici, i venture capitalist: tutti presi da un’ipnosi collettiva, che li porta a vedere intelligenza dove c’è solo imitazione, genio dove c’è solo statistica.

L’IA, oggi, è un magnifico giocattolo linguistico. Una macchina per generare contenuti, idee, frasi e illusioni. Ma chiamarla superintelligenza è un abuso semantico. E crederci, un’abdicazione culturale. Forse il vero superpotere dell’IA è riuscire a convincerci che non ne abbiamo più bisogno. Di pensare, di dubitare, di chiedere prove.

In fondo, la vera “disruption” non è tecnologica. È epistemologica.

Spunto da un articolo Originale WSJ  Christopher Mims