Le grandi promesse dei modelli linguistici di nuova generazione si scontrano con una realtà imbarazzante: non capiscono davvero il significato delle parole. La loro capacità di generare testo è impressionante, la fluidità con cui costruiscono frasi è sorprendente, ma quando si scava sotto la superficie emerge un problema: la comprensione del linguaggio da parte degli LLM è molto più fragile di quanto sembri.
A dirlo in una recente intervista ad aihub.org non è uno scettico dell’intelligenza artificiale, né un nostalgico dell’epoca pre-LLM, ma un ricercatore che lavora proprio su questi temi il Prof Roberto Navigli. La fluidità, ovvero la capacità di generare testo in modo scorrevole e convincente, ha ingannato molti. Abbiamo partecipato a un’ondata di entusiasmo, con aziende e media che parlano di questi modelli come se fossero dotati di una vera comprensione linguistica. Ma la realtà è che, quando si tratta di afferrare il senso profondo delle parole, soprattutto nei loro usi meno comuni, gli LLM brancolano nel buio.