Paper: You Are What You Eat – AI Alignment Requires Understanding How Data Shapes Structure and Generalisation
L’Intelligenza Artificiale non è magica. È stupida. Stupidamente coerente con quello che le dai in pasto. Per questo chi ancora si ostina a credere che basti un po’ di “fine tuning” o una bella iniezione di RLHF per far diventare un LLM etico, sicuro e conforme alle normative… be’, forse ha confuso un transformer con un prete. O con uno psicologo da salotto.
I modelli non pensano. Non capiscono. Non hanno né coscienza né senno. Ma una cosa la fanno bene: assorbono tutto. E quel “tutto”, se non ha una struttura, se è un blob semi-digerito di dati presi da chissà dove, non produrrà mai qualcosa di allineato, spiegabile o, peggio, conforme. Perché sì, signori: “You are what you eat” non vale solo per le diete keto o per il vostro feed di LinkedIn. Vale per l’AI, e oggi più che mai.
Nel panorama sempre più regolato e incasinato dell’AI Act europeo, ci troviamo davanti a una verità brutale: non è la quantità di dati che salva il modello, ma la loro struttura. Il paper “You Are What You Eat” lo mette nero su bianco: la forma dei dati è la forma della mente—se mai potessimo parlare di “mente” in un LLM, il che è già un’assurdità semantica che ci meritiamo.
Il dramma è che due modelli, addestrati su dataset diversi ma con simili performance superficiali, possono reagire in modo diametralmente opposto nel mondo reale. Perché? Perché il loro “cervello” interno è diverso. Non basta vedere che rispondono “correttamente” nel 95% dei casi: bisogna capire come ci sono arrivati. E qui, il Reinforcement Learning from Human Feedback fa la figura del cerotto su un femore rotto: migliora l’output, ma il ragionamento interno resta un labirinto opaco.
Il punto è che i dati strutturati offrono vincoli, gerarchie e relazioni che impongono al modello una forma mentale più coerente, più prevedibile e quindi più controllabile. È il concetto base di ogni architettura cognitiva degna di questo nome: la forma guida la funzione.
In ambiti legali, regolatori e ad alto rischio—cioè ovunque conti qualcosa più della viralità del prompt—non puoi permetterti modelli che “funzionano” ma non sai come. Devi avere tracciabilità, auditabilità, coerenza. E questo non lo ottieni dal caos dei forum anni 2000 o da Reddit. Lo ottieni da knowledge graphs, regole formali, basi normative strutturate. Da dati che hanno una sintassi e una semantica rigorosa. Non dal web scraping selvaggio.
Siamo in una fase in cui l’illusione dell’allineamento posticcio sta iniziando a crollare. Il castello di carte fatto di benchmark, metriche aggregate e classifiche di leaderboard GPT-style sta traballando di fronte alla complessità reale dell’adozione industriale dell’AI. E qui l’AI governance, tanto invocata dall’AI Act, non è un optional. È un requisito strutturale. Anzi: epistemologico.
La trasparenza che chiede l’Europa non è una nota a piè di pagina sul dataset usato. È la possibilità di risalire al perché un modello ha preso una certa decisione. E senza dati strutturati, questa trasparenza non si può nemmeno definire, figuriamoci ottenere.
In fondo, è un paradosso tutto nostro: vogliamo modelli trasparenti, etici e sicuri… ma continuiamo ad addestrarli come si addestrano le scimmie, premiandoli quando fanno la cosa giusta, sperando che capiscano. Non capiscono. Imparano pattern. E i pattern migliori nascono da dati strutturati, non da montagne di rumore.
A questo punto, la vera domanda per ogni CTO, ogni CISO, ogni regolatore o venditore di AI è: che cosa stai dando in pasto al tuo modello? Perché è quello che diventerà. E in un mondo in cui la compliance si gioca sul millimetro, e l’hallucination può costarti una class action, non è il momento di fare gli spiritualisti della machine learning.
Serve una cultura ingegneristica del dato. Serve architettura, non solo quantità. Serve mettere la struttura prima dell’output.
O come direbbe un barista di provincia, vedendoti versare prosecco nel bicchiere del gin tonic: “amico, non è la quantità che ti sballa, è come te la sei costruita”.
Benvenuti nell’era in cui l’unica AI allineata sarà quella strutturata. Tutto il resto è fuffa a 175 miliardi di parametri.