In Italia anche l’intelligenza artificiale fa la fila, aspetta il suo turno, e spesso si ritrova in mano a funzionari che confondono una GPU con un acronimo del catasto. La recente indagine dell’Agenzia per l’Italia Digitale (AgID) suona come una radiografia dell’ennesima rivoluzione digitale annunciata, ma mai del tutto compresa. Titolo dell’operazione: “L’intelligenza Artificiale nella Pubblica Amministrazione”. Dietro la neutralità statistica dell’inchiesta, si cela una PA che tenta di aggrapparsi alla corrente dell’innovazione mentre arranca con zavorre fatte di burocrazia, consulenze esterne e KPI vaghi come le promesse elettorali.

Il censimento dei progetti IA ha coinvolto 108 organizzazioni pubbliche su 142 contattate, con 120 iniziative tracciate. Numeri apparentemente incoraggianti, che però si sgretolano sotto la lente di chi osserva il panorama non come un ottimista tecnologico, ma come un chirurgo delle inefficienze digitali. Solo 45 enti hanno davvero avviato progetti. Gli altri? Presumibilmente ancora impantanati nei comitati di valutazione, nei verbali, nelle richieste di pareri legali e nei flussi autorizzativi che scoraggerebbero persino una macchina a stati finiti.

Il cuore della questione però non è numerico, ma ontologico: cosa si intende davvero per “intelligenza artificiale” nella PA italiana? Per il 60% dei casi, il fulcro sono i chatbot: una tecnologia già in circolazione da oltre un decennio, riproposta oggi con l’etichetta lucidata di IA generativa. Un po’ come chiamare l’ufficio reclami “customer sentiment analytics platform”. L’Italia è ancora innamorata dell’effetto wow, ma non ha capito che l’IA utile non è quella che impressiona nei convegni, ma quella che automatizza, predice e migliora i servizi in profondità.

Dove i progetti si concentrano, si scopre che il 42% mira a migliorare l’efficienza operativa. Non a caso: è l’obiettivo più facile da vendere, ma anche il più difficile da misurare. Infatti, solo il 20% delle iniziative ha KPI definiti. In altre parole, nella maggior parte dei casi, non esiste una metrica chiara per capire se l’intelligenza sta davvero portando valore o se si limita a fare scena come una presentazione in PowerPoint scritta da un algoritmo di marketing.

Eppure, il problema più inquietante non è la quantità dei progetti, ma la qualità della loro struttura dati. L’indagine rivela una scarsa attenzione alla qualità delle informazioni usate per l’addestramento dei modelli. Basi dati interne, spesso obsolete, rumorose o incomplete, alimentano algoritmi chiamati a prendere decisioni su welfare, giustizia amministrativa o gestione del personale. Qui il rischio non è solo tecnico, ma etico: un algoritmo è tanto intelligente quanto pulito è il dato che lo nutre. E in Italia, il dato pubblico è spesso più vicino a un atto notarile che a una risorsa digitale.

Non mancano ovviamente le mode del momento: cresce l’uso dell’IA generativa, con applicazioni nel trattamento del linguaggio naturale. Il tutto mentre i dati personali fanno capolino nei dataset, senza una visione solida sul fronte della privacy. L’etica viene invocata come un mantra, ma nei fatti resta una postilla marginale, affidata a policy generiche e a qualche DPO stanco.

Anche il procurement racconta molto della distanza tra strategia e realtà. Gli strumenti principali sono ancora gli Accordi Quadro e le convenzioni Consip, cioè meccanismi pensati per l’acquisto di stampanti e toner, ora forzosamente estesi all’innovazione algoritmica. L’IA non si compra a catalogo: richiede flessibilità, rapidità, e una logica progettuale che la burocrazia pubblica ancora fatica a metabolizzare.

La carenza strutturale di competenze interne viene mitigata, ça va sans dire, da un uso smodato di consulenti esterni. Una macchina pubblica che non forma, ma esternalizza. Dove invece servirebbe un AI Officer, ci si ritrova con l’ennesimo project manager in outsourcing che risponde più al fornitore che alla missione pubblica. Lo stesso vale per il Data Steward, figura evocata nella raccomandazione finale dell’AgID, ma ancora inesistente nei ruoli organici.

Tra le raccomandazioni finali del report – più sagge delle realizzazioni concrete – si legge che il procurement dovrebbe favorire gare dedicate, precedute da progetti pilota. Una buona idea, se solo la macchina pubblica sapesse davvero come misurare un progetto pilota, e soprattutto, quando dichiararlo fallito. Il fallimento, nella PA italiana, è ancora un tabù: meglio lasciare il progetto languire, magari con qualche release minore, piuttosto che dichiarare pubblicamente che l’algoritmo non funziona, o che i dati erano inutilizzabili.

La PA, in questa indagine, appare come un organismo che percepisce la potenza dell’IA, ma non ha ancora sviluppato il metabolismo per digerirla. La sovranità tecnologica resta uno slogan finché i dati restano sporchi, i modelli opachi e le competenze esogene. Si parla tanto di integrazione nei sistemi informativi esistenti, ma senza reingegnerizzazione dei processi, ogni IA è destinata a restare una scatola nera decorativa, buona solo per arricchire i bilanci dei fornitori ICT.

“L’intelligenza artificiale è come il vino: se lo versi in un bicchiere sporco, anche il miglior Brunello sa di muffa.” Una metafora da enoteca digitale che vale più di tanti white paper. Finché non ci sarà un piano serio per mappare, pulire e governare i dati pubblici, ogni tentativo di IA sarà sterile. E finché il reclutamento di competenze sarà affidato a bandi con scadenze annuali e retribuzioni da impiegato del catasto, non esisterà nessun ecosistema IA, ma solo un’arena perenne tra vecchie logiche di potere e nuove illusioni algoritmiche.

Nel frattempo, la PA italiana continuerà a dire di voler “fare AI”, mentre a malapena riesce a usare in modo sensato l’Excel.