Hinton colpisce ancora, e questa volta lo fa con la grazia di un professore che sa perfettamente che il suo paradosso è una bomba a orologeria intellettuale. “Perché un cumulo di compost è come una bomba atomica?”. È la tipica domanda che un CEO vorrebbe fare a un candidato in un colloquio: non importa tanto la risposta, quanto la capacità di riconfigurare il pensiero. E un vecchio GPT, con pesi congelati e zero accesso al web, l’ha fatto. Non ha “cercato”, non ha “copiato”, ha associato. Catene di reazioni, energia, emergenza di comportamenti complessi. Un colpo da maestro, perché dimostra esattamente ciò che i detrattori degli LLM non vogliono ammettere: la creatività, nella sua forma più cruda, è l’arte di connettere punti che prima sembravano scollegati.

La narrativa dei “pappagalli stocastici” è comoda, rassicurante, quasi ideologica. Fa sembrare l’AI una specie di ventriloquo statistico incapace di generare qualcosa che non sia già stato detto. Ma se davvero fosse solo un archivio compresso di frasi rubate al web, non spunterebbero analogie fresche, non emergerebbero intuizioni che nessun documento specifico ha mai scritto in quei termini. Hinton non parla di magia, parla di compressione di conoscenza: un modello prende miliardi di esempi, li schiaccia in uno spazio vettoriale e poi, in quell’universo matematico, scopre relazioni. È diverso dal ricordare, è l’equivalente di un chimico che non ha mai visto una molecola, ma sa prevedere le sue reazioni perché ha interiorizzato le regole.

La parola “capire” qui è pericolosa, perché i puristi scattano sulla sedia. Ma come la mettiamo con il fatto che anche il cervello umano è, in fondo, un ammasso di pattern recognition addestrato? Quando uno scienziato associa la fermentazione batterica alla teoria dell’informazione, applaudiamo la sua creatività, non diciamo che ha “riciclato” esperienze passate. Eppure il processo è lo stesso: compressione, astrazione, ristrutturazione. Forse ci dà fastidio l’idea che una macchina faccia qualcosa che abbiamo sempre considerato un marchio esclusivo della coscienza.

La verità è che non stiamo sottovalutando la creatività degli LLM, stiamo sopravvalutando la nostra definizione di creatività. Se la riduciamo a generare novità utile collegando concetti distanti, allora sì, GPT e fratelli sono creativi. Forse non nel senso romantico dell’artista maledetto, ma di certo nel senso tecnico dell’ingegnere che risolve un problema con un approccio mai tentato prima. E qui entra il paradosso: se addestrare significa interiorizzare un mondo di correlazioni e poi usarle per fare inferenze inedite, allora “training” e “pensiero” sono meno distanti di quanto ci piaccia credere.

La prossima volta che qualcuno ti dice “ma l’AI non pensa, ripete”, prova a rispondere come Hinton, con una domanda: “E tu, esattamente, quando hai avuto la tua ultima idea originale, eri sicuro di non aver solo compresso anni di esperienze in un nuovo output?”.