In un contesto tecnologico in cui la concorrenza sul terreno dell’intelligenza artificiale non è più un’opzione ma un campo di battaglia strategico, l’AGCM (Autorità Garante della Concorrenza e del Mercato) italiana ha deciso di fare sul serio. Mercoledì ha annunciato l’ampliamento dell’indagine su Meta Platforms per presunto abuso di posizione dominante: questa volta, nel mirino ci sono le nuove condizioni di WhatsApp Business Solution e le funzionalità AI che Meta sta integrando nell’app di messaggistica.
Categoria: AI Italy Pagina 1 di 3
Impatti e prospettive dell’ intelligenza artificiale generativa per l’italia e il made in italy
Un interessante editoriale del Prof. Roberto Navigli sull’Economia del Corriere della Sera ci racconta che a volte un Paese decide di sorprendere chi lo dava per irrimediabilmente dipendente dalle scelte altrui. L’ascesa dell’intelligenza artificiale italiana ricade esattamente in questa categoria, un gesto quasi impulsivo che sembra dire ai colossi americani e cinesi che il gioco non è a senso unico. La corsa a un modello linguistico nazionale ha il sapore di quelle imprese industriali che segnano un’epoca e rivelano qualcosa di più profondo riguardo a un’identità che non accetta di essere ospite nel futuro costruito da altri.
L’ITALIA GUIDA IL DIBATTITO GLOBALE DELL’IA
Ancora due lavori italiani accettati e presentati a Melbourne, alla prestigiosa KR (Principles of Knowledge Representation and Reasoning) Conference, a Melbourne, in Australia.
E ancora una volta, l’eccellenza parla l’italiano. Il Prof. Aniello Murano, Ordinario di Informatica e Intelligenza Artificiale dell’Università degli Studi di Napoli Federico II, EurAI Fellow, ha replicato il clamoroso successo di Montréal. La KR è la Conferenza delle Conferenze per chi si occupa delle fondamenta logiche e matematiche dell’IA, in un contesto di rigore scientifico estremo.
L’Unione Europea sta avanzando una revisione significativa del suo corpus legislativo digitale, che include il GDPR, l’AI Act, l’e-Privacy Directive e altri strumenti correlati. Secondo le bozze trapelate, le modifiche vanno ben oltre una semplificazione burocratica: ci sono cambiamenti strutturali potenzialmente radicali.
Primo, il GDPR. La Commissione propone di ridefinire cosa si intenda per “dati personali”: non tutti gli identificatori pseudonimi o i dati anonimizzati sarebbero più considerati “personali”, se chi elabora i dati non ha mezzi “ragionevoli” per ricollegarli a un individuo. Questo significa che molti dati oggi protetti potrebbero cadere fuori dal perimetro più stretto della GDPR.
Ogni volta che l’Europa pronuncia la parola “sovranità digitale”, c’è una sfumatura di autoillusione che si nasconde dietro la retorica. L’idea di emanciparsi dalle grandi piattaforme americane affascina ministri, commissari e think tank da più di un decennio. Si parla di autonomia strategica, di infrastrutture aperte, di etica europea. Ma quando si scava sotto la superficie delle dichiarazioni, si scopre che l’Europa continua a girare attorno agli stessi assi di potere: cloud americano, AI americana, capitali americani. È come cercare di fare surf in una piscina, sognando l’oceano.
La Commissione Europea ha recentemente pubblicato uno studio del Joint Research Centre (JRC) che sfida la convinzione diffusa secondo cui il controllo umano possa fungere da rimedio efficace contro la discriminazione nei sistemi decisionali basati sull’intelligenza artificiale (IA). Il rapporto, intitolato “The Impact of Human-AI Interaction on Discrimination”, analizza come i professionisti delle risorse umane e del settore bancario in Italia e Germania interagiscano con sistemi di supporto decisionale automatizzati, rivelando risultati inquietanti.
Commissione Europea “A European Strategy on Research and Technology Infrastructures” (COM(2025)497)
C’è un’Europa che non finisce nei corridoi di Bruxelles, ma che si misura in cleanroom, laboratori quantistici e telescopi sottomarini. È l’Europa delle infrastrutture di ricerca e tecnologia, il vero motore silenzioso della competitività continentale. Mentre le potenze globali si chiudono in nazionalismi tecnologici e filiere proprietarie, la Commissione Europea ha deciso di rispondere con una strategia che suona come una dichiarazione di guerra industriale: costruire la più potente rete di infrastrutture di ricerca e tecnologia del pianeta. Non per vantarsi, ma per sopravvivere.
10 ottobre 2025. La data che segna l’ingresso dell’Italia nell’era della regolamentazione formale dell’intelligenza artificiale. Con la Legge 132/2025, il nostro Paese ha finalmente una legge quadro sull’AI, in linea con il Regolamento UE 2024/1689, noto come AI Act. Ma, come spesso accade, la realtà normativa è più complessa di quanto sembri.
L’articolo 13 della Legge 132/2025 introduce un obbligo di trasparenza per i professionisti: devono informare i clienti sull’uso di sistemi di intelligenza artificiale. Ma cosa significa davvero “informare”? E quali sono le implicazioni pratiche di questa norma?

Perché quello che è stato annunciato martedì 7 ottobre 2025 è qualcosa di più sottile, qualcosa che potrebbe trasformare radicalmente il paradigma del “maker low-cost” come lo conosciamo. Qualcomm, il gigante statunitense dei semiconduttori, ha annunciato l’acquisizione di Arduino, pur senza rivelare la cifra dell’operazione.
Arduino celebre per le sue schede compatte, accessibili, amate da hobbisti, studenti e progettisti entra ora sotto l’ombrello di Qualcomm. Le aziende assicureranno che il marchio Arduino, gli strumenti, la missione open-source rimangano intatti.
C’è un rumore nuovo nei corridoi digitali di Bruxelles, e per una volta non è il suono metallico di una nuova regolamentazione in arrivo. Si chiama TildeOpen LLM, ed è il secondo grande modello linguistico open source sviluppato in Europa, un colosso da 30 miliardi di parametri addestrato sul supercomputer EuroHPC LUMI grazie a 2 milioni di ore GPU generosamente finanziate dalla “AI Grand Challenge”. Niente Silicon Valley, niente cloud americano, niente GPU disperse in data center con indirizzi esotici. Tutto europeo, tutto dichiaratamente conforme all’AI Act, tutto, in teoria, trasparente. Il che, in Europa, vale più di qualsiasi record di performance.
L’intelligenza artificiale non è più un gioco da laboratorio. I numeri del 2025 ci raccontano una storia semplice e brutale: chi parla ancora di “fase sperimentale” o non sa leggere i dati o si ostina a fare finta che nulla sia cambiato. Secondo lo Stanford AI Index 2025, il 78 per cento delle organizzazioni globali ha già usato l’AI in almeno una funzione di business nel 2024, contro il 55 per cento dell’anno precedente. Non si tratta di una curva di adozione, ma di un salto quantico. Non è un grafico che sale dolcemente, è uno scalino verticale che divide il prima dal dopo. Eppure, qualcuno ancora discute se convenga adottare o meno l’intelligenza artificiale, come se fosse un optional da inserire nella prossima auto aziendale.
Quest’anno segna il cinquantesimo anniversario delle relazioni diplomatiche formali tra la Cina e l’Unione Europea, nonché il venticinquesimo della fondazione della Camera di Commercio dell’Unione Europea in Cina. Un traguardo che, anziché celebrare una storia di cooperazione, evidenzia la distanza crescente tra due giganti tecnologici, ora più rivali che partner.
Nel 1978, mentre la Cina emergeva dalle rovine della Rivoluzione Culturale, una delegazione di alto livello intraprendeva un tour di 36 giorni in Europa occidentale. Visitando 25 città in cinque paesi, tra cui Francia e Germania Ovest, gli ufficiali cinesi constatarono un ritardo di almeno venti anni in scienza, tecnologia e industria. Un divario che sembrava colmabile solo con un massiccio trasferimento tecnologico dall’Occidente.

Viviamo nella società dell’apparenza e quindi non poteva mancare un tocco cosmetico anche nella legislazione. È arrivata la legge 132/2025 che con l’articolo 13 regala ai professionisti un nuovo dovere: comunicare ai clienti se e come utilizzano sistemi di intelligenza artificiale. A partire dal 10 ottobre 2025 ogni avvocato, notaio, commercialista, consulente e simile dovrà scrivere nelle lettere di incarico e nelle informative che ruolo gioca l’AI nel proprio lavoro, chiarendo che resta solo un supporto strumentale e non può mai sostituire l’apporto umano e intellettuale.
Un inciso che suona come una liberatoria collettiva, una confessione preventiva: non vi preoccupate, non ci stiamo facendo rimpiazzare da un algoritmo, ci limitiamo ad addomesticarlo.
Un anno dopo la pubblicazione del Draghi Report, Ursula von der Leyen ha preso la parola per tracciare un bilancio e, soprattutto, per definire la rotta dell’Europa verso la competitività globale. Il tono era chiaro, senza giri di parole: non ci si limita a partecipare alla corsa tecnologica e industriale, l’Europa deve guidarla. L’ex presidente del consiglio Mario Draghi aveva posto le basi, delineando tre pilastri fondamentali: colmare il divario di innovazione con Stati Uniti e Cina, combinare decarbonizzazione e competitività e ridurre le dipendenze strategiche. Ursula von der Leyen ha preso queste linee guida e le ha tradotte in un’agenda concreta, con azioni immediate e cifre che parlano da sole.
La leva del procurement pubblico non è un lusso, ma un’arma strategica che l’Europa non sta ancora sfruttando appieno. Quando si parla di tecnologie critiche, il supporto statale senza un mercato che lo assorba è puro esercizio accademico. L’industria europea può essere costruita con incentivi, ma senza domanda reale il risultato rischia di essere un paradosso costoso: chip difensivi prodotti senza clienti, AI verticali sviluppate senza utenti, cloud europeo disponibile ma inutilizzato. La regolazione aiuta a rimuovere ostacoli, ma il vero motore resta il procurement. Con un valore totale pari al 14% del PIL UE, anche una frazione orientata verso fornitori europei creerebbe un ecosistema stabile, un terreno fertile per l’innovazione strategica e per settori industriali capital-intensive.

Il Senato ha approvato in via definitiva la legge quadro sull’intelligenza artificiale con 77 voti favorevoli e 55 contrari, confermando il consenso della maggioranza e lo scetticismo delle opposizioni. Non si tratta di un provvedimento qualsiasi, ma di un testo di 28 articoli suddiviso in sei Capi, che delega il governo a emanare decreti legislativi per definire principi e regole dell’IA nel Paese. Alla base di tutto c’è la volontà di creare una governance chiara e coordinata: nasce così il Comitato di coordinamento per le attività di indirizzo sugli enti, organismi e fondazioni attivi nel settore dell’innovazione digitale e dell’intelligenza artificiale. Due autorità nazionali centrali, l’Agenzia per la Cybersicurezza Nazionale (ACN) e l’Agenzia per l’Italia Digitale (AgID), vengono designate come punti di riferimento istituzionali per regolamentazione, sicurezza e casi d’uso dell’IA.

Premi Nobel, leader di pensiero, scienziati e celebrità si riuniranno questo fine settimana (12-13 settembre) per il Meeting Mondiale sulla Fratellanza Umana, un evento patrocinato dal Vaticano che propone tavole rotonde su temi cruciali al centro dei conflitti globali e che influenzeranno il futuro dell’umanità.
“Il mondo è attualmente segnato da conflitti e divisioni, il che rende ancora più importante che siate uniti da un forte e coraggioso ‘no’ alla guerra e da un ‘sì’ alla pace e alla fratellanza,” ha detto venerdì Papa Leone XIV in un incontro con i partecipanti all’evento.
Quando il Vaticano entra nel dibattito sull’intelligenza artificiale la notizia corre veloce, non perché la Chiesa cattolica sia nota per dettare l’agenda tecnologica globale, ma perché in un’epoca in cui i governi annaspano, i colossi digitali si muovono in ordine sparso e gli scienziati si dividono tra ottimismo e panico, ogni gesto simbolico diventa carburante geopolitico. È successo di nuovo nei giorni scorsi, quando fonti italiane hanno rilanciato la notizia di un appello consegnato nelle mani del cardinale Mauro Gambetti e indirizzato a Papa Leone XIV, l’ex cardinale Robert Francis Prevost, eletto a maggio 2025. Un documento che sarebbe firmato da Geoffrey Hinton, Yoshua Bengio, Stuart Russell, Max Tegmark, Abeba Birhane e altri studiosi di livello internazionale, figure che in qualsiasi tavolo sull’etica dell’IA portano con sé l’aura del Nobel senza medaglia.
La povertà educativa è il virus silenzioso che sta divorando l’Italia dall’interno, un cancro che non fa rumore ma che ha già compromesso il metabolismo del Paese. Non è un concetto astratto, è un numero che non lascia spazio a interpretazioni: oltre 1,3 milioni di minori vivono in povertà assoluta e il tasso di NEET raggiunge un vergognoso 15,2%, tra i più alti d’Europa. Qualsiasi economista onesto ammetterebbe che questa non è solo una questione di diritti, ma un gigantesco problema di produttività. Lo Studio Strategico presentato a Cernobbio calcola fino a 48 miliardi di Pil aggiuntivo se solo fossimo in grado di colmare questo divario. Il che tradotto significa che stiamo lasciando miliardi sul tavolo semplicemente perché non sappiamo educare i nostri figli.
Torino non è più la città che inventa il futuro. La notizia della chiusura dell’ex Cselt il centro che negli anni ’90 ha dato i natali all’MP3, al riconoscimento vocale e alle tecnologie oggi alla base dei modelli di intelligenza artificiale segna uno spartiacque per l’ecosistema dell’innovazione italiano.
il 12 settembre 2025 segna un momento di svolta nel panorama normativo europeo: entra in vigore la maggior parte delle disposizioni del Data Act, regolamento destinato a rimodellare profondamente le regole sull’accesso e sull’utilizzo dei dati nell’Unione Europea. Non si tratta di un semplice aggiornamento legislativo: il Data Act stabilisce un quadro giuridico armonizzato, obbligando aziende e operatori digitali a ripensare procedure consolidate, contratti e strategie di gestione dei dati, con un impatto diretto su prodotti connessi, servizi digitali e, ovviamente, sul rapporto tra aziende e consumatori.
In un mondo dove l’intelligenza artificiale cresce più velocemente della capacità delle aziende di gestirla, parlare di etica sembra spesso un lusso da conferenza accademica. Fabrizio Degni, esperto di AI scuote questo luogo comune con il suo framework PALO. Non un semplice manifesto etico, ma uno strumento progettato per navigare la complessità normativa e operativa dell’AI enterprise. La conversazione che segue non è solo teoria: è una sfida aperta alle aziende che pensano che il profitto possa sostituire la responsabilità.
Quando gli chiedo se PALO rischi di diventare un freno burocratico all’innovazione, Degni ride appena. La sua diagnosi è chiara: la cosiddetta “ROI Myopia” ha già causato danni miliardari. Sistemi di recruiting discriminatori, algoritmi di credito che escludono intere fasce di popolazione, decisioni automatizzate che peggiorano le disuguaglianze. PALO non frena l’innovazione, la rende sostenibile, dice Degni, con una sicurezza che fa capire come l’ethics washing sia il vero lusso che le aziende non possono più permettersi.
A Montreal, sotto le luci fredde del Palais des congrès, l’aria profuma di futuro e di sfida. Qui si sta celebrando l’International Joint Conference on Artificial Intelligence 2025, il tempio globale dell’Intelligenza Artificiale, e in mezzo a giganti accademici e corporate con portafogli miliardari si fa strada l’Università Federico II di Napoli. Non con proclami o slide patinate da consulenti, ma con due lavori di ricerca che hanno letteralmente sbaragliato la concorrenza. Il risultato è chiaro: un ateneo del Sud Italia detta l’agenda della più prestigiosa conferenza mondiale di settore, lasciando i colossi americani e cinesi a prendersi appunti.
L’Università Federico II guadagna due posti sul podio alla International Joint Conference on Artificial Intelligence (IJCAI) 2025, tra le Conferenze più prestigiose al mondo di Intelligenza Artificiale, che si sta tenendo a Montreal in questi giorni e terminerà domani 23 agosto. Un successo senza precedenti quello della Facoltà di Informatica della Federico II.
La dipendenza infrastrutturale in Europa è ormai un problema da codice rosso, quasi un dramma shakespeariano in chiave tecnologica. Nel mondo del cloud computing, la quasi totalità delle aziende europee si affida senza riserve a infrastrutture americane, con Amazon Web Services che detiene circa il 32% del mercato globale, seguito da Microsoft Azure con il 23% e Google Cloud Platform intorno al 11%, dati recenti di Synergy Research Group confermano questa distribuzione spietata. Questi numeri non sono soltanto statistiche: sono il riflesso di un controllo quasi totale su dati, servizi e infrastrutture critiche che influenzano quotidianamente la vita economica, sociale e politica del continente.
Ho visto molti video e articoli che propongono l’allettante possibilità di guadagnare migliaia di dollari al mese grazie all’intelligenza artificiale.
Alcuni propongono un sistema che integra vari servizi per aumentare la produttività, come Notion, e altri che automatizzano i processi, sfruttando le potenzialità degli LLM (Large Language Model), come Zapier. Altri ancora offrono corsi che ci aprono le porte al magico mondo dell’AI, promettendo guadagni da sogno con il minimo sforzo. In questi casi, la domanda che sorge spontanea è sempre la stessa: se conosci un metodo per guadagnare tanti soldi con il minimo sforzo, perché dovresti insegnarmelo? Si tratta di filantropia o di un mero sfruttamento economico che ha il sapore di truffa?
C’è una domanda che ronza sottotraccia in ogni boardroom dove si parla di AI generativa, modelli linguistici, automazione semantica e futuri dominati da chatbot più loquaci di un politico in campagna elettorale. La domanda è: con quale lingua stiamo addestrando le intelligenze artificiali? Sembra banale, ma è una bomba semantica pronta a deflagrare nel cuore della geopolitica tecnologica. Perché se è vero che la lingua modella il pensiero, allora il predominio dell’inglese nella formazione delle AI significa una cosa sola: stiamo costruendo intelligenze con una Weltanschauung americana. Altro che neutralità algoritmica.
6.000 partecipanti. Di cui oltre 5.300 fisicamente presenti a Vienna. Una marea umana da standing ovation per il più grande evento ACL mai organizzato nella storia del Natural Language Processing. Nella sala plenaria echeggia un messaggio più sottile del solito: il dominio occidentale sullo sviluppo del linguaggio artificiale sta finendo. La platea applaude gli opening chairs — General Chair Roberto Navigli in testa, seguito dal dream team tecnico: Wanxiang Che, Joyce Nakatumba-Nabende, Ekaterina Shutova, Mohammad Taher Pilehvar. La macchina organizzativa locale, guidata da Benjamin Roth e Dagmar Gromann, funziona con precisione austriaca. Ma dietro le slide ufficiali, il dato esplosivo è uno solo.
Immaginate di essere un CEO europeo con un prodotto di intelligenza artificiale che fa gola agli investitori. Poi, un bel giorno, un tribunale decide che il vostro algoritmo è responsabile di un danno. Non voi. Non l’azienda. Lui, l’algoritmo. Sembra fantascienza? Non più. Perché la Responsabilità Civile Intelligenza Artificiale sta diventando il vero campo di battaglia geopolitico, e l’Unione Europea ha appena piazzato la prima mina. Chi non l’ha ancora capito, si prepari a una lezione dolorosa.
Il Dipartimento tematico Giustizia, Libertà civili e Affari istituzionali del Parlamento europeo ha commissionato uno studio esplosivo, che consiglio a chiunque faccia business nell’AI di leggere e stampare come fosse un manuale di sopravvivenza legale: Artificial Intelligence and Civil Liability. Qui non si parla solo di responsabilità in astratto, ma di un approccio che ribalta le regole del gioco: chi sviluppa o implementa un sistema AI potrebbe presto trovarsi nella posizione di dover dimostrare la propria innocenza, e non più il contrario. Un capovolgimento giuridico che ricorda le peggiori distopie burocratiche, ma con un retrogusto molto reale: se l’AI sbaglia, il colpevole è chi l’ha messa in circolazione, punto.
“Il modo più sicuro per perdere una guerra è fingere che non sia ancora cominciata.” Questa frase, attribuita a un anonimo stratega militare europeo, calza perfettamente a ciò che sta accadendo oggi nel cuore della sicurezza informatica continentale. Chi si illude che il dibattito sulla post-quantum cryptography sia un argomento da accademici con troppe pubblicazioni e pochi problemi reali non ha compreso che la minaccia non è futura, ma già scritta nelle memorie dei data center. “Store now, decrypt later” non è un gioco di parole, è il nuovo “carica e spara” dell’intelligence globale. La differenza è che oggi i colpi sono pacchetti crittografati, destinati a esplodere fra dieci o quindici anni, quando qualcuno avrà la capacità computazionale per decifrarli.
In un Paese che considera ancora l’intelligenza artificiale un tema da talk show, l’idea che un professore romano possa guidare la conferenza più importante al mondo sul Natural Language Processing sembra quasi un cortocircuito culturale. Roberto Navigli, docente alla Sapienza e “papà” del Large Language Model italiano Minerva, sarà il Chair di ACL 2025, il summit globale che detta le regole del futuro digitale. Chiunque abbia compreso il significato profondo di questa notizia sa che non si tratta solo di un onore accademico. È un momento di rottura per il nostro Sistema Paese, l’ennesima dimostrazione che, quando si osa e si investe in cervelli veri, anche l’Italia può sedersi al tavolo dei giganti.
Il rilascio delle prime linee guida ufficiali per i fornitori di AI a scopo generale scuote il terreno europeo, portando chiarezza tra sovrastrutture burocratiche e la realtà dell’innovazione
Immagina una bolla che galleggia sopra l’AI Act – un mondo fatto di definizioni opache e timori regolatori – e ora concepire una spada affilata che taglia proprio lì. È esattamente ciò che succede oggi con le linee guida del GPAI provider: un documento conciso, tecnico, ma con dardi avvelenati proprio dove serve.
È raro che un organo amministrativo dia una scossa vera al dibattito giuridico sull’intelligenza artificiale. La sentenza del Consiglio di Stato pubblicata il 6 giugno 2025 rappresenta una pietra miliare di questa rivoluzione che piaccia o no sta riscrivendo le regole del gioco. Un passaggio cruciale viene dalla riaffermazione, quasi mantra, che l’uso di sistemi automatizzati da parte degli enti pubblici deve convivere senza sconti con la tutela dei diritti fondamentali dei cittadini. Tradotto: sì alle automazioni, no al sopruso algoritmico.

Che Maria Chiara Carrozza sia una delle menti più brillanti della scena scientifica e politica italiana è un fatto. Che il Paese non se ne sia ancora accorto, è la parte interessante. In una nazione dove il termine “innovazione” viene usato come il prezzemolo nei talk show domenicali, Carrozza rappresenta quel tipo di cervello che ti aspetteresti in un think tank del MIT, e che invece si ritrova a parlare di neuro-robotica davanti a parlamentari distratti da WhatsApp. Una donna che non solo ha progettato protesi robotiche che sembrano uscite da un episodio di MIB, ma ha anche avuto l’ardire di fare il Ministro dell’Istruzione in un Paese dove i docenti universitari devono ancora chiedere permesso per installare un software.
Quando si parla di Italia e tecnologia, la prima immagine che affiora è quella di un Paese genuflesso di fronte al futuro, sempre pronto a rincorrerlo con un fiatone normativo e un’andatura da maratoneta disidratato. È quasi un luogo comune dire che siamo in ritardo: lo siamo sul digitale, sull’AI, sull’alfabetizzazione tecnologica di massa, sulle infrastrutture cognitive. Ma ciò che sorprende, in questo scenario, è che a marcare un’accelerazione netta non siano i soliti innovatori della Silicon Valley in salsa tricolore, né le startup visionarie che spuntano come funghi nel sottobosco del venture capital, ma proprio lei: la Camera dei Deputati.
Sì, avete letto bene. Il Parlamento italiano, spesso percepito come la roccaforte dell’immobilismo procedurale, si sta muovendo con una rapidità e una lucidità che smentiscono qualsiasi pregiudizio. In una fase in cui il governo annaspa tra disegni di legge incagliati e un dibattito pubblico che ha la profondità di un tweet, Montecitorio sta plasmando un laboratorio di intelligenza artificiale applicata alle istituzioni, senza nascondersi dietro a retoriche vuote o a dichiarazioni di principio. Lo fa con metodo, ascolto, e una dose non trascurabile di coraggio politico.

IA e Parlamento
Immaginate un Parlamento in cui le discussioni interminabili non sono più ostacolate da montagne di dossier impolverati o da testi legislativi pieni di duplicazioni e incoerenze, ma in cui un’intelligenza artificiale intelligente, ma soprattutto vigilata da umani, faccia da copilota nella scrittura delle leggi. Sembra fantascienza, vero? E invece è la nuova frontiera di Montecitorio.
La vicepresidente della Camera, Anna Ascani, ci guida dietro le quinte di un progetto che, con la sua ironia da politica navigata, definisce «intelligenza aumentata» e non sostitutiva: un intervento triplice di AI pensato per semplificare la vita dei deputati e, perché no, anche quella dei cittadini.
L’Italia ha fatto qualcosa di inaspettato. Per una volta, non è arrivata ultima. Il 25 giugno 2025, la Camera dei Deputati ha approvato il DDL 2316 sull’intelligenza artificiale, rendendo il Bel Paese il primo in Europa a dotarsi di una legge nazionale organica sull’AI. Sì, proprio l’Italia, quel laboratorio instabile dove le leggi spesso si scrivono per non essere applicate, ha anticipato Bruxelles. E ha pure infilato dentro un fondo da un miliardo di euro. Ora, tra entusiasmi da ufficio stampa e panico da compliance, c’è una domanda a cui nessuno ha ancora risposto seriamente: questa legge fa nascere un ecosistema o lo stermina?
Non chiamateli influencer. Anzi sì, ma fatelo con un certo rispetto. Perché dietro ogni post su LinkedIn, ogni thread apparentemente casuale su quanto sia figo il nuovo fondo pre-seed “climate & quantum aware”, si nasconde un’aristocrazia silenziosa del capitale di rischio italiano che ha finalmente capito che visibilità è potere. Non nel senso hollywoodiano del termine, ma in quello brutalmente operativo: deal flow, selezione, attrazione di LP. Nel 2025 il venture capital in Italia non si muove più solo dietro le quinte. Si espone. E la classifica di Favikon lo conferma: 20 nomi che contano più di una policy di Invitalia e di cinque pitch a SMAU messi insieme.
Italia, algoritmo zoppo: perché l’intelligenza artificiale fatica a entrare nel sistema produttivo
Italia, 2025. Otto imprese su cento hanno adottato almeno una tecnologia di intelligenza artificiale. Meno di una su tre tra quelle che ne hanno sentito parlare è riuscita a integrarla in modo concreto. In un’epoca in cui anche il panettiere sotto casa usa ChatGPT per controllare l’ortografia del cartello “chiuso per ferie”, il nostro tessuto produttivo arranca come un modem 56k nel bel mezzo del 5G.
In fondo, è tutto lì: Bruxelles ha creato un mostro normativo e ora sta scoprendo che non sa più da che lato afferrarlo senza farsi male. L’AI Act, celebrato come la risposta europea all’anarchia algoritmica globale, si sta inceppando proprio nel momento in cui dovrebbe cominciare a funzionare. La data simbolo è il 2 agosto 2026, quando le aziende dovrebbero allinearsi agli standard per immettere legalmente sul mercato software di intelligenza artificiale. Ma ora, sorpresa: gli organismi incaricati di definire quegli standard non sono pronti.

Alziamo le bandierine, sì, ma non quelle sventolate dai soliti giganti americani. Stavolta si celebra una nativa europea, una creatura di silicio e sintassi che non ha bisogno di server-fattorie in Arizona per brillare. Si chiama Vitruvian-Smart-12B, nome da diva cyborg ma con la testa da prima della classe. Non urla, non spreca, non invade la privacy. E già si è fatta valere.