L’intelligenza artificiale non parla europeo

Il nuovo report della Commissione Europea è un documento lungo, denso e (per una volta) non completamente inutile. Più di 160 pagine per dire una cosa semplice: l’Europa non controlla il futuro dell’AI generativa. E rischia di non controllare nemmeno il proprio. Sì, perché GenAI non è solo un giocattolo per startup americane con troppi soldi e zero etica. È una macchina che riscrive i fondamentali di tutto: produttività, cultura, lavoro, sovranità. E noi? Stiamo ancora litigando sul GDPR.

La Commissione, in un raro momento di lucidità strategica, ha capito che GenAI non può essere solo regolata. Deve essere anche prodotta, ospitata, posseduta. Il report lancia un’allerta chiara: senza infrastrutture europee, dataset europei e modelli fondativi europei, non stiamo governando la tecnologia. La stiamo subendo. Perché puoi scrivere tutte le leggi che vuoi, ma se il modello lo allena OpenAI su un cluster NVIDIA finanziato da Microsoft, allora stai solo recitando il ruolo del regolatore. E pure male.

Questa è la vera frattura nella sovranità digitale europea. Non è più una questione di cloud o di chip. È linguaggio. È epistemologia computazionale. È chi decide quali domande si possono porre a una macchina intelligente e quali risposte saranno considerate “accettabili” in un contesto democratico. Ed è qui che entra il nodo culturale, ben sottolineato nel report: GenAI non è solo un moltiplicatore di produttività, è anche un agente culturale, un “autore invisibile” che riscrive contenuti, significati e persino emozioni. In tutte le lingue. Tranne che in quelle sottorappresentate nei dataset americani.

La Commissione lo dice in modo educato, ma il sottotesto è feroce: senza modelli nativi europei, non c’è più nemmeno identità culturale condivisa. C’è solo outsourcing linguistico travestito da innovazione. Un Erasmus rovesciato, dove sono gli europei a doversi adattare al linguaggio della macchina, e non viceversa.

Nel frattempo, la parte interessante del report è che ammette, implicitamente, l’inadeguatezza del modello normativo verticale. Non si può più aspettare che l’AI Act venga approvato, tradotto, implementato e contestato nei tribunali. Servono sandbox. Servono testbed regolatori, partnership pubblico-privato, esperimenti locali. In breve: l’Europa deve imparare a sbagliare più in fretta. Perché mentre noi compiliamo consultazioni pubbliche, altrove si stanno addestrando modelli con l’intero patrimonio testuale dell’umanità. Letteralmente.

Un passaggio particolarmente notevole è l’appello a ridefinire cosa significhi avere “competenze digitali”. Dimenticatevi Excel. Il report parla di prompt engineering, supervisione di agenti AI, alfabetizzazione computazionale e interpretazione semantica di output sintetici. Non è più una questione tecnica. È una nuova forma di retorica digitale. E chi non la parla, rimane escluso da qualsiasi processo decisionale automatizzato. O peggio, diventa vittima inconsapevole delle sue derive.

Anche il focus sulla fiducia è interessante, perché finalmente si abbandona l’illusione del framework universale. La fiducia sarà costruita o distrutta a livello settoriale. La sanità, l’istruzione, la giustizia: ognuna dovrà decidere quali usi dell’AI sono accettabili, utili, leciti. Non ci sarà una verità unica, ma molte etiche locali. È il tramonto del regolatore panottico e l’alba di una nuova governance modulare, adattiva, forse persino democratica. Ma solo se i cittadini saranno alfabetizzati abbastanza da partecipare.

Ah, dimenticavo la chicca: la prossima frontiera non è il testo, ma il multimodale. Video, immagini, 3D, realtà sintetiche. E con loro, una valanga di problemi nuovi: copyright, manipolazione, falsificazione, detection. Siamo pronti a normare questi territori? Ovviamente no. Ma almeno ora c’è una consapevolezza che prima mancava: l’AI generativa non è neutra. È uno strumento di potere. E chi controlla il modello, controlla la narrazione.