Mentre tutti discutono di prompt, agenti autonomi e chatbot che scrivono poesie migliori degli umani, i settori che generano più margine reale restano clamorosamente sottoserviti. Finanza, assicurazioni, sanità, industria manifatturiera. Mondi dominati da dati strutturati, righe, colonne, schemi rigidi, numeri che decidono bilanci e non sentimenti. Qui l’AI ha fatto poco rumore e ancora meno valore. Non per mancanza di bisogno, ma per mancanza di tecnologia adeguata.

L’illusione collettiva nasce dal successo dei large language model. Gli LLM hanno vinto perché sono nati per il testo. Internet ha fornito loro una quantità di dati non strutturati che nessun’altra tecnologia aveva mai avuto. L’attenzione ha permesso di catturare relazioni semantiche, contesto, sfumature. Il risultato è stato devastante per velocità di adozione. Startup che hanno semplicemente “incollato” API di modelli linguistici sopra flussi verticali hanno costruito aziende AI native in mesi, non in anni. Il ciclo virtuoso è noto. Più utenti, più dati, modelli migliori, più capitali. Una macchina perfetta per conquistare l’economia del testo.

Il problema è che l’economia reale non è fatta di paragrafi, ma di tabelle. Bilanci, transazioni, cartelle cliniche, polizze, sensori industriali, logistica, supply chain. Qui il linguaggio naturale è una sovrastruttura, non la fonte primaria del valore. E quando si prova a forzare un LLM in questi contesti, emergono limiti strutturali che non si risolvono con un prompt più lungo o con un wrapper più elegante.

I dati strutturati non “parlano” in frasi. Parlano in tipi di dato, relazioni tra colonne, vincoli di schema, distribuzioni numeriche. Una tabella non è testo serializzato. È un oggetto matematico. Gli LLM, per definizione, appiattiscono tutto in token. Una riga diventa una frase, una colonna diventa una parola ripetuta. Il significato quantitativo si diluisce. La semantica relazionale evapora. Le workaround più comuni, generare SQL o Python, funzionano bene nelle demo e falliscono nella vita reale. Basta un’ambiguità di schema, un campo mancante, una fonte dati incoerente, e l’intero castello crolla.

Nelle grandi imprese, quelle che contano davvero in termini di fatturato e rischio, il problema è amplificato. ERP, CRM, data warehouse, sistemi legacy stratificati in decenni di acquisizioni. Dati frammentati, definizioni non allineate, qualità variabile. In questi ambienti l’AI non può permettersi di essere fragile. Un errore in un sistema di raccomandazione è tollerabile. Un errore in un modello di credit decisioning o in una previsione clinica no. Qui l’affidabilità non è un nice to have. È una condizione di esistenza.

Ed è esattamente in questo vuoto che stanno emergendo i tabular foundation model. Non sono una moda semantica. Sono una risposta architetturale. Modelli progettati nativamente per ragionare su righe e colonne, non su frasi. Capiscono che una colonna numerica non è una stringa mascherata. Che una relazione tra tabelle è informazione, non rumore. Che lo schema è parte del significato, non un dettaglio implementativo.

La promessa è radicale. Un singolo modello generale capace di affrontare classificazione, regressione, forecasting temporale senza il rituale infinito del feature engineering. Dataset eterogenei, sporchi, incompleti, utilizzabili out of the box. Non perché la magia esista, ma perché l’architettura è allineata alla natura del problema. Per chi ha passato anni a mantenere portafogli di modelli fragili, ognuno ottimizzato per un task specifico e tenuto in vita a forza di retraining manuale, questo è un cambio di paradigma. Meno modelli, meno pipeline, meno debito operativo.

Il potenziale economico spiega perché improvvisamente il tema sta attirando attenzione seria. Il mercato globale dell’analytics e del decision support viaggia verso i 600 miliardi di dollari entro la fine del decennio. È un mercato dominato da dati strutturati e da processi core. Non da esperimenti laterali. Non da chatbot simpatici. Finora l’AI generativa ha inciso marginalmente su questa torta. I tabular foundation model potrebbero essere il grimaldello che sblocca l’adozione nei domini regolamentati e mission critical.

Il vero valore non sta solo nelle performance. Sta nella riduzione della complessità. Meno sistemi da monitorare. Meno modelli da spiegare agli auditor. Meno tuning manuale. In un mondo dove il costo nascosto dell’AI è la manutenzione, questa semplificazione vale quanto un punto percentuale di accuratezza in più. Forse di più.

I casi d’uso sono noti a chi vive questi settori dall’interno. In sanità, stratificazione del rischio, previsione di eventi avversi, supporto diagnostico basato su dati longitudinali reali, non su note cliniche romanzate. In finanza, valutazione del credito, prevenzione delle frodi, stress test dinamici su portafogli complessi. In assicurazione, triage dei sinistri, pricing adattivo, rilevazione delle anomalie. Nell’industria, manutenzione predittiva, previsione della domanda, ottimizzazione della supply chain. Tutte applicazioni che oggi esistono, ma sono lente, costose, fragili.

La tentazione, come sempre, sarà quella di credere che la superiorità tecnica basti. Non basterà. La storia dell’enterprise software è impietosa. Vince chi controlla la distribuzione, chi si integra nei workflow esistenti, chi dimostra un ROI misurabile e difendibile. I tabular foundation model non fanno eccezione. Saranno un acceleratore, non una scorciatoia. Chi pensa di costruire un unicorn solo con un paper brillante scoprirà presto che i CFO non investono in entusiasmo.

C’è però un punto strategico che molti sottovalutano. La prima ondata dell’AI ha conquistato il linguaggio perché era visibile, dimostrabile, facilmente raccontabile. La seconda ondata, quella della struttura, è meno spettacolare ma infinitamente più consequenziale. Sposta decisioni, non conversazioni. Sposta capitale, non attenzione. In questo senso, la transizione dal testo alle tabelle potrebbe rivelarsi più trasformativa di quanto lo siano stati gli LLM, e certamente più rilevante dal punto di vista economico.

Un vecchio adagio dice che ciò che non puoi misurare non puoi governare. L’economia delle tabelle è l’economia della misurazione. Se i tabular foundation model manterranno le promesse, non saranno semplicemente un’altra categoria di modelli. Saranno l’infrastruttura cognitiva di una nuova generazione di piattaforme enterprise. Silenziose, poco glamour, ma decisive. Come spesso accade alle tecnologie che cambiano davvero il mondo.