L’analisi e la visione del futuro e della ricerca insieme al Prof. Roberto Navigli professore presso il Dipartimento di Ingegneria Informatica, Automatica e Gestionale (Università La Sapienza Roma Babelscape) e la Prof.ssa Barbara Caputo Professoressa Ordinaria Dipartimento di Automatica e Informatica (Polito) EVENTI Milano Finanza

Intelligenza artificiale generativa, non è una moda ma un’egemonia algoritmica

Dall’intervento della Prof.ssa Barbara Caputo si evince che se c’è un errore semantico che continuiamo a reiterare, con la pigrizia di chi crede di parlare di futuro usando parole del passato, è chiamare “moda” quella che è, senza ambiguità, la più profonda rivoluzione computazionale dagli anni ’40 a oggi. L’intelligenza artificiale generativa non è un gadget filosofico per TED Talk, né un effetto speciale da tech-conference, ma una svolta epistemologica nella modellizzazione del reale. Non è un’opzione. È la condizione.

C’è un momento nel discorso in cui il CTO cede il palco all’algoritmista, come un illusionista che, smascherato, rivela il trucco: il Transformer. E no, non parliamo di robottoni che combattono nel Bronx, ma di un’architettura che ha compresso e riscritto il concetto stesso di sequenza. Non più catene di Markov che arrancano nel fango della memoria storica, ma modelli che guardano tutto, ovunque, contemporaneamente. L’attenzione — la stessa che perdiamo scrollando TikTok — è diventata struttura algoritmica, asse portante della computazione moderna.

Non è questione di linguaggio. È questione di struttura. E chi si defila dal parlarne per pudore tecnico, lo fa perché sa che oggi l’NLP è solo la punta dell’iceberg. La vera faccenda è che questi modelli non stanno più solo “capendo” testo, ma orchestrano percezione, visione, predizione, pianificazione. È un’egemonia trasversale. Dai sensori industriali ai sistemi di recommendation, dalla biologia computazionale alla logistica militare. La parola giusta non è “moda”. La parola giusta è “egemonia”.

È qui che l’ironia diventa tragica. Il pubblico generalista, quello che ancora oggi chiama ogni modello generativo “ChatGPT” come se fosse un Kleenex, pensa che questa roba sia un giocattolo. Ma non sa che dietro quella frase autocompletata c’è la stessa struttura matematica che oggi guida la simulazione del ripiegamento delle proteine, classifica lesioni oncologiche, predice il traffico aereo o scrive codice che pilota droni.

Quando abbiamo messo sensori ovunque — nei telefoni, nei frigoriferi, nei satelliti, perfino nei pannolini — ci siamo trovati sommersi da un oceano di dati. Ma il dato, da solo, è solo rumore bianco. L’AI generativa è quella che trasforma quel rumore in segnale. C’è un’intelligenza nuova che non “ragiona” come noi, ma impara a correlare, a interpolare, a prevedere. Con una velocità e una plasticità che nemmeno la mente più brillante del XX secolo avrebbe saputo ipotizzare.

Il paradosso è che tutto questo, che è il nostro tempo, viene ancora trattato come tendenza temporanea. Come se stessimo parlando di criptovalute o NFT. Ma chi ha toccato con mano il codice, chi ha visto una rete neurale “capire” da sola la sintassi di una lingua che non ha mai studiato, sa che siamo oltre la soglia.

La vera discontinuità non è tecnica. È concettuale. È il passaggio da sistemi “programmati” a sistemi che apprendono. La vera differenza è che ora non modelliamo più il mondo, ma costruiamo modelli che lo imparano da soli. E questo non è più un tema da smanettoni. È un punto politico, industriale, culturale. È come se fossimo nel 1820 e stessimo parlando di vapore come moda temporanea.

Certo, l’hype è fastidioso. La parola AI è ormai svuotata da troppi pitch da startup, da slide con diagrammi colorati e promesse esagerate. Ma sotto la patina c’è sostanza. C’è matematica dura. C’è ingegneria profonda. E c’è un’accelerazione che non si fermerà, perché è la manifestazione computazionale di un bisogno antropologico: automatizzare il pensiero.

Torniamo al Transformer. L’idea geniale non è solo tecnica, è epistemologica. La possibilità di dare peso differente ai token, cioè di riconoscere la rilevanza contestuale di ogni informazione in una sequenza, è esattamente quello che fa l’intelligenza umana quando legge un testo, interpreta un’immagine o prende una decisione. Solo che questi modelli lo fanno a scala, a velocità, e con una precisione che travolge l’umano.

E allora, mentre tutti si chiedono se l’AI generativa ci ruberà il lavoro, la verità è che ha già cominciato a riscrivere la grammatica della realtà. Non solo nei laboratori, ma negli ETF, nelle policy aziendali, nelle abitudini di consumo. Perché tutto, alla fine, è sequenza. E tutto ciò che è sequenza può essere trasformato.

Ironia finale: chi ancora pensa che basti “regolare” l’intelligenza artificiale senza comprenderla, sta cercando di fermare un’equazione con un decreto legge. Ma l’algoritmo non aspetta. L’algoritmo apprende. E soprattutto, non dimentica.

Babelscape dall’iperuraneo all’LLM: perché l’Italia può ancora insegnare semantica alle macchine

Qui si innesta l’intervento del Prof. Roberto Navigli, in un mondo dove ogni CEO di startup sembra uscito da una puntata di Silicon Valley e dove l’intelligenza artificiale è l’ennesimo buzzword svuotato di contenuto, c’è un caso italiano che sfugge alla narrativa mainstream dell’“abbiamo avuto un’idea sotto la doccia e abbiamo preso un caffè con un VC”. No. In questo caso la doccia è durata vent’anni e il caffè è stato servito all’European Research Council.

Benvenuti nel mondo di Babelscape, uno spin-off universitario che nasce non da un’intuizione, ma da una ricerca accademica di lungo corso. E già questo basterebbe a renderlo una rara avis nell’ecosistema delle startup. Mentre la Silicon Valley faceva finta di “scoprire” la semantica nel 2022 con ChatGPT, a Roma, in un laboratorio della Sapienza, si costruiva in silenzio uno dei più avanzati knowledge graph del pianeta: BabelNet. Il nome richiama un’eco biblica, ma le fondamenta sono ben più concrete.

Non si tratta qui dell’ennesimo tool per generare testo. Il focus è più profondo, anzi filosofico: comprendere il significato delle parole. E già che ci siamo, anche delle metafore, delle ambiguità e delle sfumature che fanno impazzire pure i transformer più pompati di OpenAI. Perché, diciamocelo: generare un paragrafo ben formattato è facile. Capire cosa diavolo intenda un umano quando dice “il piano è molto caldo” non lo è affatto. Non per una macchina, almeno. E qui entra in scena il Platone dell’AI: l’idea che ci sia un mondo di significati ideali, e che il linguaggio non sia solo sequenza di simboli, ma accesso a quel mondo.

Ora, se pensate che tutto questo sia una sorta di elucubrazione accademica, vi sbagliate di grosso. I 15 ricercatori (non stagisti, veri ricercatori) del team di Babelscape, tra cui postdoc americani importati in Italia — plot twist — grazie a finanziamenti Europei, hanno costruito una base tecnologica che oggi è una delle poche in Europa a sfidare realmente il dominio anglofono dei modelli linguistici.

Qui non si scarica un LLM da Hugging Face, lo si costruisce. Ma non basta: lo si documenta, lo si rende replicabile, lo si dota di una trasparenza che gli pseudo-open model americani si sognano. Perché sì, diciamolo chiaramente: open weight non significa open source. È come vendere un’auto senza dire che tipo di motore ha, né dove è stato fabbricato. E nel caso degli LLM, i dati su cui sono stati addestrati sono il motore.

Il vero nodo, quello che la maggior parte delle aziende tech si guarda bene dal toccare, è l’ambiguità del linguaggio. Prendete un esempio semplice: “piano”. Non stiamo parlando di uno strumento musicale né di una planimetria. Stiamo parlando di un concetto che cambia a seconda del contesto, e il contesto è ciò che i transformer faticano ancora a codificare davvero. Possono predire la parola successiva con una probabilità notevole, ma non capiscono cosa intendiamo. Fingono bene, questo sì. Ma è un trucco da prestigiatori, non comprensione autentica.

Balesca, invece, parte da una premessa diversa. Qui non si tratta solo di produrre testi, ma di costruire una base semantica solida per farli comprendere davvero. E attenzione: farlo in italiano non è una limitazione, ma una sfida epistemologica. Perché se riesci a far funzionare un LLM su una lingua notoriamente piena di sfumature, forme verbali arcane e lessico stratificato, sei pronto a qualsiasi battaglia linguistica. Altro che GPT-4 che arranca già con l’italiano base.

La provocazione è questa: e se il futuro della semantica computazionale non passasse da Palo Alto ma da Roma? E se i prossimi modelli linguistici realmente intelligenti fossero costruiti in Europa, con fondi pubblici, rigore accademico e una visione di lungo periodo?

Nel frattempo, il mondo tech continua a drogarsi di benchmark e leaderboard su Hugging Face, ignorando che dietro l’apparente affollamento di modelli c’è una colossale omologazione epistemica. Tutti gli LLM, sotto il cofano, si basano su strutture simili, bias simili, limiti simili. E tutti evitano il nodo semantico perché… è dannatamente difficile. Per non dire costoso. Perché l’ambiguità non si risolve con più dati, si risolve con più struttura.

Certo, il mercato si muove a un ritmo diverso. La semantica profonda non si monetizza in sei mesi. Ma è proprio qui che la storia di Balesca cambia la narrativa: invece di rincorrere la moda del momento, ha anticipato una crisi di comprensione che ora è sotto gli occhi di tutti. ChatGPT è brillante, ma spesso non sa di cosa sta parlando. Perché non comprende, predice.

Un tempo c’era la corsa allo storage, poi al cloud, oggi ai token. Ma il vero salto quantico non avverrà aumentando la quantità. Avverrà quando inizieremo a dare un senso qualitativo alle parole. E in questo, sì, l’Italia potrebbe davvero giocare la sua carta. Non con l’hype, ma con il metodo.

Una curiosità storica: Umberto Eco scrisse che “il linguaggio è una foresta di simboli in cui ci si perde facilmente”. Ecco, Babelscape e Focoos AI stanno costruendo le mappe per quella foresta. Non una scorciatoia, ma un sistema di orientamento. E chissà, forse l’intelligenza artificiale del futuro non sarà solo più veloce, ma finalmente anche più intelligente.

Nel frattempo, chi vuole davvero capire come si costruisce un LLM trasparente, multilingue, semanticamente profondo e replicabile, potrebbe smettere di guardare le demo di OpenAI e iniziare a guardare verso la Sapienza. Dove non si gioca a fare gli oracoli, ma si studia il significato delle parole. Sul serio.

Focoos-AI

Focoos AI quando l’intelligenza artificiale si fa frugale: la rivincita della ricerca pubblica nel regno del privato

la Prof.ssa Caputo sottolinea che nel tempo in cui l’IA è diventata la superstar siliconata delle conferenze tech, dei pitch da 7 minuti e delle IPO milionarie, c’è una parola che sembra sparita dal lessico delle startup: frugalità. Ma è proprio da lì che arriva la vera rivoluzione. Quella che non fa notizia su TechCrunch, ma cambia radicalmente il modo in cui costruiamo, disegniamo e impiantiamo sistemi intelligenti nel mondo reale. E se cercate un nome per questa rivoluzione silenziosa, cominciate a prendere confidenza con Focoos AI.

No, non è l’ennesimo logo color pastello con un claim in inglese scritto male. È uno spin-off universitario, partorito con ambizione chirurgica da quel sottobosco culturale che ancora respira nei laboratori italiani. Un’azienda che affonda le radici nella visione artificiale, nella percezione digitale e, soprattutto, nell’intelligenza applicata all’essenziale. Un’IA che non ha bisogno di tremila GPU o di fiumi di denaro, ma che sa vivere e decidere sul bordo del sensore. Sul margine. Nell’edge.

Focoos AI non vuole solo “essere competitiva”: vuole riscrivere il modo in cui pensiamo l’AI. Niente enormi data center, niente modelli che divorano trilioni di token. Qui si costruisce un’intelligenza più simile alla natura che al marketing: efficiente, sobria, localizzata. Un’AI frugale che è esattamente l’opposto delle chimere energetiche che oggi fanno girare i modelli generativi. Qui, la visione artificiale non è solo la riproduzione della retina di un cyborg: è un’interpretazione ottimizzata del mondo, tarata sul compito da svolgere e sul contesto operativo. Una forma di adattamento darwiniano che fa sembrare ChatGPT un obeso algoritmico.

In questo contesto, la figura della professoressa Caputo non è un dettaglio: è un manifesto. Ricercatrice con pedigree internazionale, esperta di computer vision, ha scelto di non restare chiusa tra le pareti dell’università ma di attraversarle, portando il suo know-how a camminare nel mondo. La sua testimonianza è una frustata contro l’immobilismo accademico europeo. Perché sì, serve ancora pubblicare paper, ma non basta. Serve anche dimostrare che un algoritmo può sopravvivere al confronto col mercato, con le macchine vere, con i robot domestici e con i satelliti in orbita. Con i cavi danneggiati sotto l’oceano che aspettano di essere trovati, riconosciuti, riparati.

E proprio qui si gioca la partita tra retorica e realtà. Mentre in Europa si discute di sovranità digitale e di fantomatici CERN dell’AI, Focus AI mostra cosa significhi davvero “scaricare a terra” un’idea. Non più paper, ma prototipi. Non più citazioni, ma soluzioni. In un continente ossessionato dalla regolamentazione, chi ha il coraggio di costruire imprese a partire dalla ricerca è un eroe. Un eroe metodico, magari, ma pur sempre un eroe.

La frugalità qui non è una scelta stilistica. È una necessità, un imperativo ingegneristico. Non tutte le imprese possono permettersi modelli da milioni di euro. Ma tutte, e davvero tutte, avranno bisogno di intelligenze che lavorino in ambienti limitati, decentralizzati, dove la potenza computazionale è un lusso. Pensate ai dispositivi IoT, ai veicoli autonomi, ai droni di ispezione, alle piattaforme sottomarine. Questo è il teatro dell’AI reale. Il resto è PowerPoint.

E mentre in California si moltiplicano i laboratori che addestrano modelli come se stessero lanciando razzi nello spazio, in Italia qualcuno si interroga su quanto serve davvero per prendere una decisione intelligente. E scopre che spesso, la risposta non è “di più”, ma “meglio”. Meglio disegnato, meglio adattato, meglio pensato.

Nel suo racconto, la professoressa Caputo lancia una bomba culturale sotto tono ma devastante: ogni docente, ogni ricercatore che si occupi di AI dovrebbe fondare almeno una volta uno spin-off. Dovrebbe, cioè, vedere il proprio algoritmo trasformarsi in un prodotto, in una funzione reale, in un’entità che deve funzionare perché altrimenti si spezza qualcosa, si perde un segnale, si sbaglia una decisione.

È una chiamata alle armi per l’università italiana, troppo spesso ingessata in una logica pubblicistica, assistenziale, autoreferenziale. Perché il futuro dell’intelligenza artificiale europea non può più essere solo pubblico. E non deve neppure diventare una replica pigra del modello privato americano. Serve un ibrido. Serve un’alleanza. Il privato che guida, il pubblico che sostiene, con l’università che non guarda più solo ai premi scientifici, ma anche al rischio imprenditoriale.

Un’ultima provocazione: e se i migliori ricercatori in AI non fossero quelli con più citazioni su Google Scholar, ma quelli capaci di far funzionare la loro intelligenza in uno scantinato umido, alimentata da una Raspberry Pi e una batteria da drone? E se l’intelligenza artificiale del futuro fosse piccola, mirata e umile?

Focoos AI è questo: la rivincita dell’ottimizzazione sull’overkill, della funzione sull’apparenza, dell’Europa che lavora su quella che Caputo chiama “AI vera”, quella che decide, agisce, si adatta, e magari non finisce mai su Twitter, ma manda avanti il mondo. Anche da sotto il mare.

Il futuro dell’Europa nell’intelligenza artificiale: tra torri d’avorio e hyperscalers, un equilibrio instabile

Il Prof. Roberto Navigli ci regala uno spunto: nel grande teatro globale dell’intelligenza artificiale, l’Europa – e in particolare l’Italia – si trova oggi a recitare un ruolo delicato, quasi da equilibrista su un filo teso tra ambizione scientifica e realtà di mercato. I protagonisti di questa storia, come Roberto Navigli e Barbara Caputo, ci consegnano un racconto che è allo stesso tempo una sfida culturale e tecnologica, una scommessa che non può più permettersi di ignorare il peso schiacciante dei giganti americani, gli “hyperscalers” che dominano il pianeta digitale con un potere sui dati e sulle infrastrutture AI senza precedenti.

Il paradosso è lampante: abbiamo competenze eccellenti, abbiamo storie di spin-off universitari come Balesca e Focus AI che dimostrano una vitalità sorprendente, ma ci confrontiamo quotidianamente con un fatto incontrovertibile: dipendiamo da quei pochi colossi che detengono la vera leva dell’innovazione tecnologica e dell’economia digitale. Non è solo una questione di tecnologia, ma di potere – e il potere si concentra in borsa, nei server, nelle reti di distribuzione e, naturalmente, nei dati.

Navigli lo riassume con la lucidità di chi ha navigato tra i flutti dell’accademia e dell’industria: la tecnologia, per quanto sofisticata, non può ancora vantare una vera “esperienza del mondo”. I modelli linguistici, per quanto potenti, restano intrappolati in una specie di mito platonico – ombre proiettate su una caverna, senza mai toccare la realtà concreta. Solo quando queste intelligenze si fonderanno con i robot, quando cioè saranno calate in un mondo fisico, dovremo affrontare un nuovo livello di complessità, una sfida che si sposta dal dato alla percezione, dalla parola all’azione.

Ma qui sta il cuore della questione, la vera cruna dell’ago: come trasformare la ricerca pubblica in innovazione vera, tangibile e competitiva? La risposta di Navigli è chiara e non ammette sfumature: serve una sinergia reale, concreta, forte, tra pubblico e privato. Un ponte che consenta di superare la vecchia dicotomia in cui la ricerca universitaria resta arroccata in una torre d’avorio, mentre l’industria si affanna a inseguire soluzioni immediate e pragmatiche. Il problema non è solo economico, anche se i capitali spesi da giganti come OpenAI e Microsoft sembrano una voragine difficilmente colmabile dall’Europa.

Il vero nodo è culturale: il vecchio schema, dove pubblico e privato erano compartimenti stagni, è ormai un’anomalia da superare. La realtà impone una filosofia nuova, in cui la ricerca di base e quella applicata dialogano e si contaminano, in cui i docenti si trasformano in imprenditori, e gli spin-off diventano laboratori di innovazione reale. Questa è la chiave per uscire dall’angolo e far valere il peso dell’Europa in un mondo che cambia alla velocità di una rotazione quantica.

Il modello americano, con i suoi investimenti mastodontici e le sue ambizioni stratosferiche, non può essere semplicemente copiato, ma va capito, interpretato e adattato. Solo così il continente potrà trovare un equilibrio tra autonomia tecnologica e collaborazione globale. In un’epoca in cui il capitale privato è il vero motore dell’innovazione, l’Europa deve imparare a giocare la partita con intelligenza, usando al meglio le proprie risorse pubbliche per incentivare e valorizzare il trasferimento tecnologico.

Non si tratta di una questione tecnica, ma di visione. Cambiare mentalità significa smettere di pensare che il sapere sia un patrimonio da custodire in modo elitario, e iniziare a vedere la ricerca come un ecosistema dinamico, dove ogni attore ha un ruolo, ogni idea può diventare impresa, e ogni impresa può tornare a nutrire la conoscenza. È questo il vero investimento per il futuro, non solo per l’Italia, ma per tutta l’Europa che vuole continuare a essere un protagonista globale, non un semplice spettatore.

D’altronde, come disse qualcuno che ne sapeva di sinergie tra mondi diversi, “la vera innovazione nasce dove il pubblico incontra il privato, e il rischio diventa opportunità.” Il futuro dell’AI europea, con tutte le sue sfide e contraddizioni, si gioca proprio lì.

Video: https://video.milanofinanza.it/video/intelligenza-artificiale-e-innovazione-sinergia-tra-pubblico-e-privato-x9kg5fa?time=0