I modelli linguistici non dimenticano nulla: il paradosso dell’invertibilità e il debito nascosto dell’AI
Esiste un momento, nella traiettoria di ogni tecnologia, in cui la narrativa dominante si incrina; non per un attacco esterno, ma per una dimostrazione interna, quasi chirurgica, che rivela una verità scomoda. È in quel momento che si separano gli entusiasti dagli operatori. Questo articolo nasce da uno di quei momenti. E nasce anche da un grazie, diretto e senza retorica, a Salvatore, che ha portato alla mia attenzione un paper destinato a creare più problemi legali che entusiasmo accademico.
La ricerca in questione dimostra qualcosa che molti sospettavano ma pochi avevano il coraggio di formalizzare: i modelli linguistici non sono sistemi “lossy” nel senso comune del termine. Al contrario, sono quasi sicuramente iniettivi, e quindi invertibili. Tradotto in un linguaggio meno elegante e più operativo: ciò che entra nel modello non viene perso, viene trasformato. E può essere ricostruito.




