Le aziende parlano di intelligenza artificiale come se fossero tutte a un passo dal diventare la prossima OpenAI. Slide patinate, piani decennali, comitati per l’etica algoritmica che si riuniscono rigorosamente dopo l’aperitivo del venerdì. Poi guardi i dati. E scopri che sotto il vestito non c’è (ancora) niente. L’ultima valutazione di Gartner sulla maturità AI è uno specchio impietoso che riflette una realtà che chi vive nel mondo tech conosce fin troppo bene: il desiderio c’è, ma le fondamenta sono di cartapesta.

L’ambizione, in effetti, non manca. Chi guida oggi le aziende vuole la luna: intelligenze artificiali integrate ovunque, decisioni data-driven, automazioni intelligenti che riducono costi e moltiplicano margini. Ma il problema non è la visione. È la dissonanza. Gartner lo chiama “maturity gap”, una discrepanza di due o tre livelli tra lo stato attuale e gli obiettivi desiderati in tutte le aree chiave dell’adozione AI. Tradotto: si sogna in grande, ma si lavora ancora con i mattoni sbagliati.

La strategia AI, ad esempio, è spesso poco più che un documento Google condiviso con entusiasmo nel management retreat di primavera. È ancora in fase di “pianificazione” mentre l’obiettivo dichiarato sarebbe lo “scaling”. Ma non si può scalare ciò che non si è nemmeno definito. È come voler costruire un grattacielo partendo dal rendering 3D senza gettare le fondamenta. Nella realtà, la strategia AI resta teoria in power point, non prassi operativa. È un piano di battaglia senza esercito, senza logistica, e soprattutto senza nemico chiaro.

Sul fronte delle persone e della cultura, la narrativa è la stessa. Si assumono AI engineer come fossero Pokémon rari, ma nessuno si preoccupa di alfabetizzare l’organizzazione. L’intelligenza artificiale non è un affare da reparto tecnico: è una trasformazione culturale. Ma l’AI literacy resta un miraggio, confinata a qualche workshop ben sponsorizzato o ai corsi su Coursera che i manager seguono in background mentre rispondono alle mail.

Il gap qui è fatale. Stiamo creando una nuova casta sacerdotale tech che parla una lingua incomprensibile al resto dell’organizzazione. Il risultato è che l’adozione si ferma prima ancora di iniziare. L’AI diventa decorazione, non motore. Un bel prototipo che finisce nel museo aziendale delle POC morte troppo giovani.

Poi c’è il nodo gordiano: governance e dati. Entrambi bloccati in fase “Planning”, secondo Gartner. E qui, francamente, ci sarebbe da ridere se non ci fosse da piangere. Tutti parlano di “responsible AI”, di bias, di trasparenza algoritmica. Ma quando chiedi chi abbia davvero un comitato operativo, delle metriche chiare di auditabilità, dei data pipeline puliti e documentati, la stanza si svuota più velocemente di una riunione del board alle 18:30 di un venerdì.

In pratica, si parla di regole senza avere un arbitro. Si costruiscono modelli su basi dati traballanti, senza nemmeno sapere da dove provengano alcuni dataset o se siano legalmente utilizzabili. La governance è storytelling, non struttura. E finché sarà così, ogni avanzamento sarà un azzardo, non una strategia.

L’unica area in cui si intravede una parvenza di maturità è l’ingegneria AI. Qui siamo a un livello di “stabilizzazione”, con il miraggio dello “scaling” finalmente a portata di mano. È l’unico beachhead concreto, la trincea avanzata da cui partire. Ma anche qui, senza l’appoggio di cultura, governance, strategia e dati, l’ingegneria rischia di diventare l’ennesima torre isolata, brillante ma sterile.

Il pattern complessivo è lampante. In tutte le dimensioni, si registra un gap strutturale tra ambizione e realtà. Un’infrastruttura mancante che rallenta, sabota, ritarda. Per una volta, il problema non sono gli LLM, i transformer o l’hardware. Il vero freno all’AI non è tecnico, è antropologico. Sono le aziende stesse, con la loro burocrazia, la loro paura del cambiamento, il loro desiderio di controllo in un mondo che chiede esplorazione.

Ecco il paradosso che non vogliamo ammettere: le aziende si dichiarano “AI-first”, ma non hanno ancora capito cosa significhi vivere in un’organizzazione dove le macchine pensano, apprendono, decidono. C’è una forma di ipocrisia sistemica nel modo in cui parliamo di intelligenza artificiale. Celebriamo i successi, ignoriamo le zavorre. E soprattutto, non misuriamo ciò che conta davvero.

Perché se chiedi oggi a un board aziendale qual è la loro capability AI più forte, ti sentirai rispondere con fierezza: “machine learning”, “chatbot conversazionali”, “automazione intelligente”. Ma se poi guardi i dati, scopri che il livello reale di maturità è spesso molto più basso di quanto dichiarato. C’è un evidente bias cognitivo: le aziende sovrastimano ciò che sanno fare con l’AI e sottovalutano ciò che ancora manca.

Il problema è che questa dissonanza è pericolosa. Perché genera fiducia mal riposta, investimenti inefficaci, e soprattutto aspettative che non potranno essere soddisfatte. Il rischio? Una bolla narrativa che esplode quando i board si rendono conto che i milioni spesi in AI non hanno prodotto né efficienza né innovazione reale.

Perché alla fine la domanda vera è semplice, brutale e ineludibile: cosa serve davvero per scalare l’AI? Non servono altri modelli linguistici da 400 miliardi di parametri. Non servono piattaforme più intelligenti. Serve una cultura capace di adattarsi, una governance che funzioni, dati ben gestiti, una strategia coerente. In altre parole, serve tutto ciò che oggi manca.

Quindi la prossima volta che la tua organizzazione si vanta delle sue capacità AI, fermati un secondo. E chiediti: in cosa siamo veramente maturi? E dove, invece, stiamo solo fingendo di esserlo? Perché finché non risponderai con onestà a questa domanda, ogni ambizione resterà un castello costruito sulla sabbia.

E l’AI, quella vera, continuerà a restare altrove.