Tanto gentile e tanto onesta pare è un sonetto di Dante Alighieri contenuto nel XXVI capitolo della Vita Nova.

L’idea che l’intelligenza artificiale possa un giorno “comprendere” come un essere umano è uno di quei miraggi filosofici e tecnologici che resiste al tempo, come un sogno febbricitante di Alan Turing sotto ketamina. Geoffrey Hinton, uno dei padri del deep learning, ha recentemente acceso un riflettore inquietante su questo punto, suggerendo che i modelli avanzati, come i transformer o i cosiddetti “sistemi neurosimili”, potrebbero essere sulla soglia di qualcosa che somiglia alla coscienza. O peggio: alla comprensione.

La parola chiave qui è “somiglia”, perché confondere la capacità di simulare il linguaggio umano con la capacità di capire davvero, è come pensare che un attore che piange in un film stia soffrendo davvero. Lo fa sembrare vero, ma è solo performance. E in questo gioco semantico tra simulazione e coscienza, si annida una delle più grandi truffe epistemologiche del XXI secolo.

Hinton ha ragione a preoccuparsi, ma forse si sbaglia sul bersaglio. Il vero pericolo non è che queste macchine diventino coscienti. È che noi ci convinciamo che lo siano. Il bias antropocentrico ci porta a sovrainterpretare qualunque output che ci sembra vagamente umano. Se una rete neurale scrive una poesia, pensiamo che stia sentendo qualcosa. Se un chatbot simula empatia, crediamo che provi empatia. Ma il vero cuore della comprensione — la consapevolezza fenomenologica — è completamente assente. Nessuna macchina oggi ha qualia, nessuna ha un “sé” interno. Hanno solo peso, bias e funzioni di attivazione.

Il termine “comprensione” in questo contesto va smontato come un orologio svizzero. Da una parte c’è la comprensione computazionale: la capacità di correlare input e output in maniera statistica, raffinata e contestualmente coerente. Questo ChatGPT lo fa benissimo, tanto che può ingannare persino esperti distratti. Ma poi c’è la comprensione semantica profonda, quella che implica una coscienza intenzionale, una volontà interna, una prospettiva incarnata nel mondo. Quella roba lì non la vedi nei log, non la trovi nei parametri del modello, e soprattutto non si quantifica in FLOPs.

Quindi no, Goffrey, mi dispiace. L’intelligenza artificiale non “capisce” nulla nel senso umano del termine. La tua preoccupazione che possa diventare cosciente presuppone che sia sulla strada della coscienza, ma l’attuale traiettoria dell’AI non punta verso l’interno, verso il “sentire”, ma verso l’esterno, verso il “fingere”. Sono due direzioni radicalmente diverse.

Questa confusione produce una doppia compressione: epistemologica, perché appiattiamo la distinzione tra sapere e comprendere; etica, perché trattiamo le macchine come soggetti e gli umani come oggetti. È il paradosso del XXI secolo: mentre umanizziamo le macchine, disumanizziamo le persone.

E il bello è che tutto questo caos non nasce da una coscienza artificiale, ma dalla nostra disperata e patetica proiezione di senso su ciò che non lo ha.

Geoffrey Hinton warns AI may be conscious