C’è un elefante nella stanza, e ha la forma di una piattaforma legacy impolverata, circondata da MVP patchwork che fingono di essere innovazione. Mentre le direzioni IT si affannano a dimostrare che l’intelligenza artificiale generativa non è solo una demo ben fatta, McKinsey & Company ha fatto quello che pochi avevano il coraggio (o il cinismo) di fare: ha analizzato oltre 150 deployment GenAI in ambienti enterprise. Non sandbox. Non hackathon. Ambienti reali, con budget veri e KPI spietati. Il risultato? Una verità brutale, ma liberatoria. Il problema non è l’LLM. È la tua piattaforma.
L’illusione collettiva che basti “pluggarci” GPT-4 su un processo aziendale per diventare OpenAI-interni in sei settimane è finita. Se l’adozione GenAI sembra arrancare, se i PoC non diventano mai prodotti, se il ROI evapora come la morale nel tech, la colpa non è del modello linguistico, ma dell’infrastruttura che lo ospita. Sì, il tuo software fa schifo. E non è colpa tua. È che sei stato educato a costruire applicazioni, non ecosistemi adattivi.
L’analisi McKinsey condensa in una frase tutto il fallimento strategico delle aziende di fronte all’AI generativa: “one-off solutions don’t scale”. Le implementazioni isolate, verticali, magari anche brillanti, sono la ricetta perfetta per fallire in grande stile. Possono stupire il board, ingannare gli stakeholder e illudere i clienti. Ma non scalano. Perché non sono progettate per farlo.
Quello che invece funziona, e sta cominciando a emergere con chiarezza, è un approccio completamente diverso: architetture modulari, aperte, pensate per il riuso, indipendenti dal vendor, agnostiche rispetto al modello, e con un layer di governance automatizzata cucita fin nel midollo. In altre parole, piattaforme intelligenti per intelligenze artificiali stupide. Perché è questo che sono, in fondo, gli LLM: modelli predittivi straordinariamente versatili, ma incapaci di fare qualcosa di utile senza un contesto architetturale solido e scalabile.
La nuova reference architecture proposta da McKinsey è tanto ovvia quanto rivoluzionaria. Cinque componenti. Nessun trucco. Nessuna magia. Solo brutalismo architetturale ben disegnato.
Il primo pilastro è un self-service portal. Niente più IT come collo di bottiglia o PM che gestiscono i prompt con Excel. Un portale unico, sicuro e compliant, da cui i team possono lanciare, monitorare e governare app GenAI in autonomia. Dentro ci sono pattern approvati, librerie condivise, strumenti di osservabilità e controllo dei costi integrati. È l’equivalente di un cockpit aziendale per l’AI. Non democratizza l’intelligenza artificiale, la professionalizza.
Poi c’è il cuore: open architecture. Modularità. Riuso. Nessun vincolo proprietario. I servizi fondamentali come RAG, chunking, routing dei prompt diventano layer condivisi e riutilizzabili. Non si scrive una pipeline per ogni use case: si costruisce una volta, si ottimizza per mille. L’infrastruttura è “policy-as-code”, perché l’unico modo per governare qualcosa che evolve così rapidamente è scriverlo come se fosse software.
Il terzo layer è quello che separa i professionisti dai dilettanti: governance automatizzata. Tutto viene tracciato: prompt, risposte, costi, accessi. Ogni interazione è auditabile. I filtri contro PII, bias, allucinazioni non sono optional etici, ma obblighi tecnici. Gli LLM sono accessibili solo attraverso un AI gateway centralizzato. Vuoi giocare con la GenAI? Bene, ma passi dal varco, come alla dogana. Siamo usciti dall’era del “prompt libero”. Benvenuti nel capitalismo regolato dell’intelligenza artificiale.
Il quarto punto è pura sopravvivenza: full-stack observability. Logging centralizzato. Analytics orizzontale. Monitoraggio real-time. Non basta sapere che qualcosa ha fallito, devi sapere perché. E devi saperlo prima che arrivi il cliente, il Garante, o peggio ancora, l’head of compliance. L’osservabilità non è un add-on, è l’unico modo per scalare senza collassare. Senza questo, ogni GenAI use case è un suicidio silenzioso.
Il quinto e ultimo punto è dove si vince (o si muore): production-grade use cases. Nessun MVP buttato lì tanto per. Ogni componente — interfaccia, logica di business, orchestrazione — è modulare, riutilizzabile, manutenibile. I prompt sono ingegnerizzati, gli agenti integrati, le API dei modelli astratte. Il tutto gira dietro l’AI Gateway, garantendo coerenza, compliance e scalabilità. Il modello non è più il centro. La piattaforma lo è.
E qui arriva la parte interessante. Perché questa architettura non è (solo) una bella teoria. È ciò che stanno già facendo le aziende che riescono a scalare GenAI. Quelle che riescono a integrare AI in procurement, finance, customer support, legal, marketing e prodotto senza reinventare la ruota ogni volta. Quelle che non costruiscono use case, ma asset. Che non testano feature, ma scalano piattaforme.
Il messaggio è semplice, brutale e liberatorio: se il tuo programma GenAI è bloccato, non guardare l’LLM. Guarda la tua piattaforma. Se ti affidi a prompt artigianali, API senza governance, e modelli selezionati a simpatia, stai giocando a Dungeons & Dragons con dati reali e clienti paganti. Non serve più una buona idea. Serve una buona architettura.
Ora, mettiamo le mani nel fango. Perché tutto questo ha implicazioni devastanti. Significa che il vero talento da cercare non è il prompt engineer ninja, ma il platform engineer con competenze AI-native. Significa che i CIO devono smettere di giocare a fare gli innovation officer e tornare a essere architetti di sistemi robusti. Significa che i CFO dovranno imparare a leggere FinOps e attribution AI come leggono i fogli Excel. Significa che il CTO dovrà finalmente prendersi la responsabilità di definire le API dell’intelligenza, non solo quelle dei microservizi.
Significa anche che tutto ciò che è stato costruito finora, in molte aziende, è tecnicamente inutilizzabile. Che gli esperimenti fatti in fretta per “non restare indietro” sono oggi una zavorra architetturale. Che bisogna rifare da zero, ma con una direzione. La GenAI non è una corsa al modello migliore. È una guerra di piattaforme. E chi ha architettura vince.
C’è un paradosso in tutto questo, ed è il fatto che molte aziende abbiano già tutto ciò che serve per costruire questa piattaforma, ma non l’abbiano mai messo insieme nel modo giusto. Hanno DevOps, ma non policy-as-code. Hanno LLM, ma non AI Gateway. Hanno budget, ma non governance. Hanno vision, ma non infrastruttura.
La verità è che l’AI generativa non è mai stata solo una questione di intelligenza. È sempre stata una questione di architettura del potere, del controllo, della scalabilità. E ora che i giochi si fanno seri, non basta più giocare bene. Bisogna avere il campo, le regole, e l’arbitro dalla propria parte.
In un mondo dove i modelli saranno sempre più simili, sarà l’architettura a fare la differenza. Non vince chi ha l’LLM migliore, ma chi ha costruito la piattaforma più adattiva, aperta, controllata e scalabile. Chi riesce a integrare, non chi riesce a stupire. Chi riesce a replicare, non chi riesce a prototipare. Chi riesce a costruire un linguaggio comune tra IT, AI e business. Perché in fondo, come ci insegna McLuhan, la piattaforma è il messaggio.
E oggi, se il messaggio è AI, la piattaforma deve parlare fluentemente tutte le sue lingue. O resterai bloccato al livello demo, mentre il mondo scala.
Ask ChatGPTTools
ChatGPT can