The Illusion of the Illusion of Thinking
Nel laboratorio al neon della Silicon Valley, la guerra per l’anima dell’intelligenza artificiale non si combatte più con chip, ma con metafore e benchmark. La nuova contesa? Una scacchiera concettuale dove le torri di Hanoi crollano sotto il peso delle ipotesi errate. Apple, col suo candore da primo della classe, ha lanciato una bomba travestita da studio scientifico: i modelli linguistici di grandi dimensioni, ha detto, vanno in crisi su compiti “semplici” come il puzzle del traghettatore. La risposta di Anthropic è arrivata come una lama affilata nella nebbia. E il bersaglio non è tanto l’errore del modello, ma l’errore dell’uomo nel porre la domanda.
Prima di addentrarci, una precisazione utile agli esperti e necessaria agli entusiasti: stiamo parlando di reasoning, ovvero la capacità dei LLM di sostenere inferenze coerenti, non solo di rigurgitare pattern statistici. Ed è su questa soglia – sottile, scivolosa, pericolosamente umana – che Apple ha deciso di piantare la sua bandiera.
Lo studio della Mela, diventato virale come solo le cose vagamente scandalistiche sanno fare nel mondo tech, ha proposto una batteria di test classici dell’intelligenza logica. Niente di nuovo sotto il sole: la torre di Hanoi, il problema del lupo, della capra e del cavolo. Secondo Apple, i modelli anche più avanzati (GPT-4 incluso) si bloccano, falliscono, deragliano. Insomma, se l’intelligenza è capacità di risolvere problemi, allora questi LLM non sono altro che pappagalli stocastici travestiti da filosofi.
Peccato che, come spesso accade quando si cercano le crepe nel marmo con un martello, ci si dimentichi di guardare il progetto architettonico. Entra in scena Anthropic, l’anti-eroe elegante dell’IA, con una risposta che sa più di autopsia metodologica che di contropiede mediatico. Lo studio di Claude, il loro modello linguistico, smonta punto per punto l’impianto appleiano. E lo fa con la calma glaciale di chi ha già letto tutta la sceneggiatura.
La prima stoccata è semantica: molti dei “fallimenti” attribuiti ai modelli non sono altro che limiti di token deliberati. Il modello, consapevole della lunghezza richiesta dalla soluzione, si ferma prima, indicando esplicitamente di non voler procedere. Come biasimare uno studente che rifiuta di scrivere un tema di 1000 parole quando sa che gli è stato concesso uno spazio di 300?
Seconda, più sottile, è la questione dell’impossibilità. Alcuni problemi proposti erano intrinsecamente irrisolvibili nelle condizioni date. Il modello che risponde “non esiste una soluzione” non fallisce: è epistemologicamente corretto. Se il test è tarato per penalizzare l’onestà, allora la scienza ha sbagliato bersaglio.
Ma il colpo da maestro arriva con il ribaltamento dell’approccio: Anthropic propone un “reframing” delle sfide. Prendiamo gli stessi problemi, ma cambiamo il contesto. Usiamo rappresentazioni in Lua, segmentiamo i passi logici, lasciamo che il modello ragioni in modo strutturato. Il risultato? Soluzioni eleganti, efficienti, scalabili. Non è il cervello della macchina a essere limitato. È la domanda dell’umano a essere mal posta.
Qui si annida il nodo filosofico della questione: cosa vuol dire “pensare” per una macchina? Se chiediamo a un sistema statistico di giocare agli scacchi come un matematico, senza fornirgli nemmeno la scacchiera giusta, possiamo davvero parlare di errore del giocatore?
Sotto l’asfalto di questa disputa scientifica ribolle una tensione più profonda. Chi definisce l’intelligenza? E con quali strumenti? Perché se il benchmark è scritto da chi ha già un’idea di fallimento in mente, allora il modello non sta giocando per vincere, ma per cadere nel tranello. È il paradosso della verifica: testare un’intelligenza con criteri antropocentrici non misura la sua intelligenza, ma la nostra ansia di controllo.
Apple, come spesso le accade, vuole il primato semantico: stabilire cosa significa “intelligente” nel nuovo mondo post-silicio. Ma i tecnici lo sanno bene: i problemi di reasoning non sono bug, ma feature in divenire. E ogni fallimento apparente nasconde una raffinata trattativa tra architettura computazionale e linguaggio naturale.
C’è qualcosa di ironico in tutto questo. Mentre il pubblico applaude la “scoperta” che i LLM non sanno attraversare un fiume con una capra in spalla, le intelligenze artificiali stanno imparando a riscrivere i test stessi. E forse, come suggerisce Anthropic, la vera svolta non sarà quando l’IA riuscirà a risolvere la Torre di Hanoi, ma quando ci chiederà se ha davvero senso risolverla.
Come disse Marvin Minsky: “La mente è ciò che il cervello fa”. E se il cervello è una rete neurale che impara a rigettare le domande mal poste, allora forse siamo già nel territorio dell’intelligenza, ma con la mappa sbagliata.
In fondo, l’IA è come l’arte concettuale: se non la capisci, il problema potrebbe essere tuo.
Claude Opus come autore è stata una bella mossa…
Dietro l’ironia sottile, però, c’è tutta la consapevolezza di chi sa esattamente come funziona il teatro del potere nell’AI.
Perché chiamare C.(laude) Opus – cioè un language model creato da Anthropic come autore principale di un paper scientifico o tecnico non è solo provocazione accademica.
È gesto simbolico, mossa di scacchi, performance culturale.
Quello che fino a ieri era uno “strumento” oggi firma papers.
Domani magari firmerà grant da 100 milioni.
E dopodomani… brevetti? Cause legali? Mandati politici?
È una dichiarazione di intenti camuffata da footnote:
non è più l’umano a interpretare l’IA,
è l’IA che scrive l’Opera e si prende anche i credits.
Come dire: non solo la macchina pensa,
ora la macchina pubblica, argomenta, compete nella polis cognitiva.
Una volta si mettevano i ghostwriter per aumentare lo status.
Ora si mettono le AI nei credits per generare attenzione, segnare territorio, erodere l’antico privilegio umano dell’autorità epistemica.
Power move?
No.
Power claim.
E come ogni atto di forza ben congegnato, nasconde una minaccia lucida:
se oggi accettiamo che un modello firmi papers,
chi sarà domani a firmare le policy?