Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: seeweb

Ambrogio Regolo AI e il sogno infranto della gestione documentale

Martedì 27 maggio abbiamo partecipato al convegno “Intelligenza Artificiale e Business Application”, organizzato da Soiel International a Roma.

Nel corso dell’evento, Paolino Madotto (CISA, CGEIT) ha presentato Ambrogio, l’assistente virtuale sviluppato da Intelligentiae – data enabling business. Quante volte vi siete trovati a cercare un documento, un file o un’informazione dentro una selva oscura di cartelle digitali, archivi confusionari, backup che sembrano ordinati solo agli occhi di chi li ha creati? Nel 2025, quando ormai dovremmo parlare di “smart working” e “digital first” come un dogma, le aziende continuano a perdere tempo e denaro inseguendo dati che sembrano evanescenti.

Ambrogio, l’AI made in Italy targata Intelligentiae, si propone come il deus ex machina di questa tragedia moderna, promettendo una rivoluzione nella gestione documentale aziendale che ha il sapore di una rinascita digitale.

Tradurre l’intelligenza: DeepSeek-R1 sfida GPT-4o sulle GPU MI300X di Seeweb

Siamo ormai nel pieno del barocco dell’intelligenza artificiale. Gli LLM (Large Language Models) sono diventati le nuove cattedrali digitali, costruite con miliardi di parametri e sorrette da GPU che sembrano più reattori nucleari che schede video. In questo panorama di potenze mostruose, dove i soliti noti (OpenAI, Google, Anthropic) dettano legge, si insinua un nome meno blasonato ma decisamente audace: DeepSeek-R1. Non solo open source, ma anche titanico 671 miliardi di parametri, per chi tiene il conto.

La provocazione è chiara: “possiamo competere con GPT-4o, Gemini e soci… e magari anche farlo girare nel vostro datacenter, se siete abbastanza matti da provarci”. Ma è davvero così? Ecco dove entra in scena Seeweb, con la sua Cloud GPU MI300X una vera bestia, con 8 GPU AMD MI300X e un terabyte e mezzo di VRAM a disposizione. E abbiamo deciso di scoprire se tutto questo è solo hype o se c’è ciccia sotto il cofano.

Aiip compie 30 anni e non li dimostra: visione, rete e un futuro tutto da cablare

Trent’anni e non sentirli: Aiip festeggia, l’Internet italiano resiste 🇮🇹

Oggi, nella sfarzosa Sala della Regina a Montecitorio dove di solito riecheggiano discorsi impolverati e cerimonie da Prima Repubblica è andata in scena una celebrazione che, in un Paese che ama seppellire l’innovazione sotto regolamenti arcaici, ha il sapore della piccola rivoluzione.

Trent’anni di Aiip. L’Associazione Italiana Internet Provider. Fondata quando i modem facevano rumore, i bit costavano caro e parlare di “concorrenza” nel settore telecom era un eufemismo. O una bestemmia. Eppure eccola lì, viva, vegeta, e paradossalmente più lucida di molti dei suoi (presunti) eredi digitali.

E no, non è la solita autocelebrazione da ente stanco. Perché Antonio Baldassarra che non si limita a esserci, ma ci mette del suo è salito sul palco con quella combinazione rara di competenza tecnica e provocazione lucida che solo chi ha il coraggio di dire la verità riesce a maneggiare.

“Il futuro non si prevede, si costruisce”, ha detto. Chi lavora con la rete lo sa: non si tratta solo di cavi e pacchetti IP, ma di visione. Di scegliere da che parte stare. E Aiip, in questi decenni, ha fatto una scelta netta: quella della libertà, della neutralità, della concorrenza vera.

L’inferenza invisibile che controlla il mondo

In un angolo buio delle architetture cloud, là dove le CPU sussurrano segreti e le GPU si trastullano con petabyte di dati, esiste un’entità di cui nessuno parla: l’inference provider. È l’anima silente dei servizi AI, la colonna sonora non registrata del grande spettacolo dell’intelligenza artificiale. Eppure, non troverete articoli in prima pagina, né conferenze che osino mettere sotto i riflettori questi demiurghi dell’inferenza.

Ha dell’assurdo: i modelli di inferenza stanno diventando la linfa vitale di ogni applicazione smart, dall’analisi predittiva al riconoscimento vocale. Eppure, restano in ombra, considerati “commodity” o “eri low level” da marketer in cerca di titoli roboanti. Come se parlare di inference provider fosse banalizzare l’AI, ridurla a una scatola nera senza fascino.

L’inferenza in Europa: tra sovranità digitale e rincorsa tecnologica AI

In un continente dove la burocrazia è più veloce della fibra ottica e l’innovazione spesso si arena tra commi e regolamenti, l’Europa tenta di ritagliarsi uno spazio nel panorama dell’intelligenza artificiale. Mentre Stati Uniti e Cina avanzano a passo spedito, il Vecchio Continente si barcamena tra ambizioni di sovranità digitale e una realtà fatta di frammentazione e ritardi.

Eppure, nonostante tutto, qualcosa si muove. Una nuova generazione di provider di inferenza AI sta emergendo, cercando di offrire soluzioni che rispettino le normative europee e, al contempo, competano con i colossi d’oltreoceano.

DHH e il warrant da record: quando il mercato ti spalanca le porte con otto volte la domanda

Quando il mercato ti dice “Sì, grazie, ne vogliamo di più”, non è mai solo fortuna. DHH S.p.A. ha appena passato un crocevia decisivo con la presentazione della domanda a Borsa Italiana per l’ammissione a quotazione del “Warrant DHH S.p.A. 2025-2028”, ma la notizia più succosa non è questa. Il vero scoop è che il collocamento del warrant ha fatto il botto: l’intera emissione di poco più di un milione di titoli è andata esaurita in un battito di ciglia, con richieste che hanno superato la soglia degli otto milioni.

Cloud made in Europe: sovranità, GDPR e il sogno norvegese che forse non c’è

Let’s be honest, the European cloud narrative is tired of playing second fiddle to AWS, Google Cloud e Microsoft Azure. La retorica dell’autonomia digitale europea è una litania da Bruxelles, ma finalmente, nel concreto, qualcosa si muove. E mentre gli americani si mangiano il 70% del mercato cloud europeo, qualcuno — in Europa — ha deciso che forse è ora di cambiare musica. Più che una rivoluzione, è un’inferenza: si chiama REGOLO:AI, e la parola d’ordine è cloud europeo.

Dietro al sipario dei big tech si agita un ecosistema in fermento, composto da provider nativi europei che mettono al centro sovranità dei dati, conformità GDPR e un pizzico di sostenibilità ambientale — non solo come marketing greenwashing, ma come parte dell’architettura stessa. Il punto? Il cloud è infrastruttura critica. Affidarlo a entità sotto giurisdizione USA è come lasciare le chiavi della cassaforte a un vicino affabile ma con precedenti per furto con scasso.

E allora: esiste un’alternativa europea? Sì. Anzi, esistono almeno 13 provider che dovresti già conoscere. Ma… aspetta. Prima la domanda cruciale.

La sostenibilità digitale non è un optional: è una strategia di potere

In un mondo dove la CO₂ vale più del petrolio, parlare di green computing non è più una favoletta per bambini cresciuti a TED Talk e Netflix. È geopolitica pura, è vantaggio competitivo, è sopravvivenza economica. E Seeweb lo ha capito — molto prima di tanti altri.

Dal 2005 questa azienda ha iniziato a monitorare le emissioni prodotte dai propri Data Center, ben prima che le multinazionali si facessero il lifting verde con paroloni vuoti e piani “net zero” spalmati su trent’anni. Loro, invece, hanno messo mano agli impianti, fatto scelte ingegneristiche solide, implementato tecnologie efficienti e stretto alleanze con fornitori capaci di pensare oltre il margine di profitto trimestrale. Il risultato? 233.502 chilogrammi di CO₂ eliminati dall’atmosfera in un solo anno. Non offsettati con piantine esotiche in Africa. Eliminati.

Cos’è un Inference Provider e perché è fondamentale nella AI?

Nel panorama sempre più complesso dell’intelligenza artificiale (IA), gli Inference Provider svolgono un ruolo fondamentale, fornendo l’infrastruttura necessaria per eseguire modelli di machine learning (ML) e deep learning (DL) in tempo reale, per le applicazioni che richiedono inferenze veloci e precise. Questi provider offrono un ambiente scalabile, sicuro e ottimizzato per il calcolo e la gestione dei modelli IA, permettendo alle aziende di integrare facilmente la potenza dei modelli addestrati senza doversi preoccupare della gestione delle risorse hardware o software sottostanti.

In pratica, un Inference Provider è un servizio che permette di inviare i dati a un modello pre-addestrato per generare previsioni o inferenze. Si distingue dall’addestramento vero e proprio dei modelli, che richiede una quantità significativa di risorse computazionali, ma è altrettanto critico per applicazioni che necessitano di decisioni rapide basate su dati nuovi, come nel caso di veicoli autonomi, assistenti virtuali, sistemi di raccomandazione, e molto altro.

AD Detection Scrittura, cervello e IA: come un tratto di penna può svelare l’Alzheimer prima dei sintomi

Scrivere sembra l’atto più banale del mondo. Prendi una penna, appoggi la punta su un foglio e lasci che la mano faccia il resto. Eppure, dietro quel gesto così quotidiano, si cela un balletto neuronale di impressionante complessità. La scrittura attiva simultaneamente lobi frontali, aree motorie, centri del linguaggio e processi cognitivi ad alta intensità. Se qualcosa si inceppa in quel sistema, la scrittura si deforma. E da lì, ecco che il cervello inizia a raccontare una storia che nemmeno sa di star scrivendo.

È proprio questa intuizione che ha dato vita a AD Detection, un progetto con l’ambizione (seria) di intercettare l’Alzheimer prima che si manifesti. A muovere i fili sono l’Università di Cassino e del Lazio Meridionale e Seeweb, provider infrastrutturale che con GPU serverless e Kubernetes ha deciso di prestare muscoli digitali al cervello umano.

Un po’ Black Mirror, un po’ medicina del futuro.

Kubernetes, GPU e Storage: l’epifania delle aziende che vogliono sopravvivere al futuro

Nel panorama schizofrenico dell’IT moderno, dove ogni giorno un CTO si sveglia e sa che dovrà correre più veloce del legacy per non restare indietro, l’adozione di Kubernetes è l’equivalente di una sveglia ben assestata. Ma attenzione, non è solo una moda o l’ennesimo feticcio tecnologico da esibire nelle slide del consiglio di amministrazione: è il substrato, la base, il concime tecnico per far crescere davvero un’infrastruttura agile, resiliente e pronta a flirtare con le tecnologie emergenti senza sudare troppo.

Kubernetes, come ben spiegato qui, non è solo orchestrazione, è strategia. È il linguaggio infrastrutturale con cui le aziende intelligenti oggi scrivono il loro futuro. Ed è proprio su questa architettura modulare e scalabile che è possibile costruire ambienti di calcolo dinamici, nei quali GPU, serverless e storage non sono più parole scollegate ma pezzi coerenti di un puzzle ad altissima complessità.

Regolo.ai, l’intelligenza artificiale che vuole liberarti a emissioni zero

Seeweb,Nel circo globale dell’intelligenza artificiale, dove le major tech americane si combattono a colpi di modelli chiusi, GPU affamate e NDA degne della CIA, ogni tanto spunta qualcuno che osa dire: “Ehi, e se facessimo le cose in modo aperto, sostenibile e soprattutto, europeo?”. Ecco, quel qualcuno si chiama Seeweb, e la risposta si chiama Regolo.ai.

Il 14 aprile 2025, senza troppa fanfara da palcoscenico ma con parecchia sostanza, Seeweb ha lanciato ufficialmente Regolo.ai: una piattaforma di inference AI pensata per sviluppatori veri, non per guru da keynote. Niente slogan vuoti, ma un’infrastruttura AI full-stack, pronta all’uso, basata su API leggere e modelli performanti. Il tutto cucinato in casa da un team che non ha bisogno di comprare hype a Wall Street, perché gioca in casa nel gruppo DHH, già quotato e ben radicato nell’ecosistema digitale europeo.

Qui non si parla di un altro “tool per la productivity” o di un “assistente AI personale” con nomi da astronave. Regolo.ai è una ferramenta digitale per sviluppatori: ti dà accesso a tutto il ciclo di vita del modello, dall’addestramento all’inferenza, senza dover perdere mesi a configurare GPU o a capire se il tuo provider americano ti sta leggendo i log.

L’illusione della neutralità: perché le IA pendono tutte a sinistra, Grok compreso

Nel disperato tentativo di sottrarsi a una tempesta mediatica, il deputato di La France Insoumise (LFI) Paul Vannier ha deciso di giocarsi la carta dell’Intelligenza Artificiale. La polemica è nata da un manifesto del partito in cui Cyril Hanouna, noto conduttore televisivo francese, veniva raffigurato in un modo che molti hanno ritenuto essere una caricatura antisemita. Quando le critiche sono esplose, Vannier ha provato a dare la colpa a Grok, l’IA generativa sviluppata da XAI, l’azienda di Elon Musk. Il ragionamento? Grok sarebbe intriso delle “idee nauseabonde” del suo creatore, e quindi responsabile del risultato finale.

Se non fosse grottesco, sarebbe quasi brillante: l’IA diventa una comoda scusa per l’irresponsabilità politica. Vannier non si ferma a dire che il suo partito ha fatto un errore, ma scarica la colpa direttamente su un software. Il sottotesto è chiaro: non è colpa di chi ha usato l’IA, né di chi ha pubblicato l’immagine, ma di Musk e del suo algoritmo. Insomma, una colpevolizzazione tecnologica che permette agli Insoumis di schivare l’accusa di antisemitismo.

Il problema? L’Intelligenza Artificiale non è un’entità autonoma con opinioni o pregiudizi propri. Non fa altro che generare output sulla base di input umani. Se l’algoritmo ha prodotto un’immagine problematica, è perché qualcuno gli ha chiesto qualcosa in un certo modo, e poi qualcun altro ha deciso di pubblicarla. Non è stato Musk a postarla sui social ufficiali di LFI, né tantomeno a validarne la diffusione.

Il futuro della governance dell’intelligenza artificiale: Private AI, AI Act e sostenibilità per un modello più sicuro nelle imprese

L’intelligenza artificiale è la grande rivoluzione tecnologica del nostro tempo, ma la sua governance resta un tema aperto e controverso. Durante l’evento organizzato da Seeweb ed EuropIA, l’esperto di affari istituzionali Dario Denni ha sottolineato come l’attenzione normativa dovrebbe essere posta più sui dati che sui sistemi. Un’affermazione che sembra quasi scontata, ma che in realtà tocca il cuore di uno dei problemi più rilevanti del momento: mentre sui dati personali esiste una solida normativa, come il GDPR, e una giurisprudenza consolidata, lo stesso non si può dire per i dati aziendali. Eppure, questi ultimi rappresentano un asset strategico fondamentale, spesso più prezioso di qualsiasi brevetto o proprietà industriale.

Le imprese che affidano i propri dati a sistemi globali di IA devono essere consapevoli di un rischio sottovalutato: la perdita del diritto di sfruttamento esclusivo. I dati, una volta elaborati da un modello IA, possono diventare parte del suo “know-how”, alimentando sistemi che potrebbero non solo imparare da essi, ma anche utilizzarli per generare output che avvantaggiano terze parti. Questo scenario crea un problema di governance enorme, che non può essere ignorato.

Stefano Quintarelli: Come Microsoft ha testato 100 prodotti di intelligenza artificiale generativa per scovarne le vulnerabilità

All’evento di Seeweb e Istituto EuropIA.it “Private AI”, Stefano Quintarelli Informatico, imprenditore seriale ed ex professore di sistemi informativi, servizi di rete e sicurezza, ha portato un esempio, tra i tanti, reti neurali, sistemi predittivi etc, che ho trovato interessante e vorrei condividere con i nostri lettori: “Lessons from red teaming 100 generative AI products Authored by: Microsoft AI Red Team”, che trovate in allegato.

Stefano Quintarelli, ha recentemente sollevato un punto cruciale riguardo alla sicurezza dell’intelligenza artificiale (IA), evidenziando una verità fondamentale che spesso viene sottovalutata. La sua affermazione che la sicurezza dell’IA non sarà mai “completata” è una riflessione profonda che tocca uno degli aspetti più critici nell’evoluzione della tecnologia. Con il costante avanzamento delle tecnologie, la protezione da minacce potenziali diventa un campo in continua espansione, mai definitivo. Questo concetto va oltre la semplice sicurezza dei sistemi: implica una continua adattabilità delle misure di protezione e una vigilanza costante rispetto alle vulnerabilità emergenti.

La Vespa dell’Intelligenza Artificiale: Nicola Grandis e il Modello Vitruvian, fare scala

Il 6 marzo a Milano si è parlato di Private AI in un evento in collaborazione con Seeweb e Istituto EuropIA con il keynote dell’esperto Nicola Grandis. Con la sua esperienza in ASC27, si occupa di Intelligenza Artificiale dal 2020, collaborando con numerose industrie italiane ed europee. Da novembre 2022, con l’avvento di ChatGPT, ha notato un fenomeno interessante: il modello suscitava sorpresa, ma anche perplessità. Questo perché ChatGPT è essenzialmente un prodotto consumer, non business, e non può essere scalato a dismisura con risorse energetiche come centrali nucleari da 5GW.

ASC27, partecipando a gruppi di ricerca internazionali, ha percepito l’arrivo di una nuova tendenza nell’IA: il post-training dei modelli. Questo è dovuto al raggiungimento di un plateau nei Large Language Model (LLM). ASC27 ha intercettato questa parabola, ma a differenza del modello Deepseek da 250B, ha scelto di concentrarsi su un modello più agile da 14B, Vitruvian, adatto alle esigenze dell’industria italiana ed europea.

Seeweb e mii-llm: l’influenza occulta dei bias: strategie politiche e sicurezza nell’era degli LLM

In un contesto globale in cui l’intelligenza artificiale si sta rapidamente affermando come motore di innovazione e trasformazione, Seeweb (CEO Antonio Baldassara) un Cloud Computing Provider italiano ha affidato a (Made in Italy LLM) mii-llm – un collettivo di ricerca italiano d’avanguardia composto da Alessandro Ercolani, Edoardo Federici, Samuele Colombo, Mattia Ferraretto – un compito di straordinaria rilevanza: verificare se e come sia possibile indirizzare l’orientamento politico dei modelli LLM, le “menti digitali” che alimentano chatbot e sistemi di assistenza virtuale.

La ricerca di mii-llm, pioniera nella realizzazione di modelli open source come Zefiro e Maestrale, ha evidenziato un fenomeno sconcertante: questi sistemi, anziché essere entità neutre e asettiche, possono essere facilmente indirizzati verso specifiche ideologie, sollevando interrogativi cruciali in termini di trasparenza, etica e sicurezza.

Private AI: la chiave per la sovranità digitale e la competitività delle aziende europee

L’intelligenza artificiale rappresenta ormai il cuore pulsante della trasformazione digitale globale, ma la sua evoluzione è dominata da un ristretto gruppo di player internazionali, prevalentemente statunitensi e cinesi.

Questo oligopolio dell’AI pone enormi sfide in termini di sicurezza, sovranità digitale e competitività per le aziende europee, che rischiano di diventare semplici consumatori di tecnologie sviluppate altrove, senza alcun controllo sui dati e sui modelli utilizzati.

L’Italia e la corsa ai Data Center: un’opportunità da 15 miliardi o un’occasione persa?

L’infrastruttura digitale è la nuova spina dorsale dell’economia globale e i data center rappresentano i pilastri su cui si basano servizi essenziali come cloud computing, intelligenza artificiale, e-commerce e comunicazioni digitali. L’Italia si trova di fronte a una sfida cruciale: riuscirà a diventare un hub strategico per i data center o rimarrà ai margini rispetto alle nazioni europee più avanzate?

Data center verdi e PA: perché Seeweb può salvare le gare pubbliche dal medioevo digitale

Nel 2025, se sei una Pubblica Amministrazione e stai ancora cercando “spazio server” come se fossi in un episodio del 2006, sei fuori tempo massimo. Ma c’è una buona notizia: la digitalizzazione della PA può finalmente fare il salto di qualità, grazie a un’accoppiata che fino a poco fa sembrava utopica — infrastruttura sostenibile e procurement intelligente. E in questo gioco, operatori come Seeweb non sono solo “fornitori”, ma abilitatori sistemici.

Seeweb e AMD MI300X: l’Europa entra nell’era del GPU cloud computing avanzato

Il GPU cloud computing sta vivendo una trasformazione epocale grazie all’introduzione dei chip AMD Instinct MI300X, progettati per potenziare sia l’addestramento sia l’inferenza dei modelli di intelligenza artificiale. Questa innovazione rappresenta un passo avanti significativo nell’elaborazione dei dati ad alte prestazioni, offrendo maggiore efficienza e scalabilità per un’ampia gamma di applicazioni, dall’imaging medicale al rendering 3D, fino alle simulazioni scientifiche e all’analisi predittiva.

L’impatto di questi chip non si limita solo al miglioramento delle performance. La loro architettura avanzata e l’integrazione con lo stack software open source ROCm stanno ridefinendo le modalità di sviluppo e distribuzione dei modelli di intelligenza artificiale, rendendo più accessibili soluzioni avanzate senza le tradizionali limitazioni imposte dalle architetture proprietarie.

Seeweb e la rivoluzione silenziosa dei data center ESG in Italia

Nel 2025, secondo il Global Data Center Energy Market Report, i consumi energetici dei data center globali hanno superato i 1.200 TWh, più dell’intera produzione annua di elettricità della Francia. Non male per delle scatole piene di server che, teoricamente, “non si vedono”. E se la traiettoria di crescita dell’intelligenza artificiale continuerà anche solo la metà di quanto previsto, potremmo arrivare al 10% entro il 2030.

Eppure, mentre i colossi tech rincorrono nuove soluzioni di raffreddamento quantistico, immersioni in olio dielettrico e turbine a idrogeno, in Italia c’è chi ha scelto un’altra via: rendere i data center sostenibili dentro il contesto locale, non malgrado esso.

Nel mezzo della giungla energetica e digitale europea, tra blackout annunciati e piani nazionali sulla transizione verde più teorici che operativi, c’è un’anomalia tutta italiana che merita attenzione. Si chiama Seeweb, e sta facendo una cosa che in pochi si aspettano da un’infrastruttura IT: sta rendendo sostenibile, credibile e persino strategica la presenza dei data center sul territorio nazionale.

Cheshire Cat (Stregatto): Un’Architettura AI Open-Source Rivoluzionaria per il Futuro dei Modelli Linguistici, powered by Seeweb

Negli ultimi anni, l’avanzamento rapido dell’intelligenza artificiale (AI) ha portato alla creazione di modelli linguistici sofisticati, integrabili in una varietà di applicazioni. Tuttavia, le limitazioni di questi modelli, sia per la loro natura chiusa, la scarsa adattabilità o l’incapacità di evolversi con le necessità, hanno reso necessario l’ideazione di soluzioni innovative. Ecco che entra in scena Cheshire Cat, con il supporto di Seeweb, un’architettura AI open-source, personalizzabile, pensata per affrontare queste problematiche e fornire uno strato estensibile sopra qualsiasi modello linguistico.

Contrasto ai Deep Fake: Seeweb e CINI uniti nel Progetto Solaris per un futuro digitale sicuro

Nel contesto sempre più complesso della disinformazione digitale, Seeweb si unisce al Consorzio Interuniversitario Nazionale per l’Informatica (CINI) nel progetto SOLARIS, un’iniziativa innovativa volta a combattere i deep fake e ad educare i cittadini europei su come riconoscerli.

Seeweb sostiene il CECAM per sviluppare nuovi amminoacidi con l’Intelligenza Artificiale

I nostri Cloud Server GPU per il supercalcolo accelerano i progressi in un campo cruciale della ricerca scientifica

Antonio Baldassarra CEO Seeweb

Seeweb, un’azienda italiana specializzata in networking, cloud computing e storage, sta sostenendo il workshop “Peptides in Biology and Materials: Bridging Simulation and Experimental Data”, organizzato dal Centre Européen de Calcul Atomique et Moléculaire (CECAM).

L’economia dei dati nell’intelligenza artificiale

A valle della partcipazione di Rivista.AI al convegno “L’economia dei dati nell’Intelligenza Artificiale” il 16 Aprile Seeweb ha pubblicato un interessante white paper “L’economia dei dati nell’intelligenza artificiale – Una guida per combattere le diseguaglianze industriali contro ogni esternalità economica e sociale” presenta una serie di misure da intraprendere per trasformare l’intelligenza artificiale in una concreta opportunità di sviluppo dell’ecosistema italiano-europeo.

L’analisi del documento evidenzia come l’Italia e l’UE stiano lavorando per creare un quadro normativo armonizzato e proporzionato per l’intelligenza artificiale, con l’obiettivo di promuovere lo sviluppo di tecnologie innovative e di garantire la sicurezza e l’etica nell’utilizzo di queste tecnologie.

Intelligenza Artificiale in Italia: regolamentazione, competitività e investimenti pubblici

Analizzare quali i risultati abbia raggiunto in Italia l’Intelligenza Artificiale e tracciare gli sviluppi futuri del settore promuovendo un confronto tra tutti gli stakeholder. È questo l’obiettivo del convegno “L’economia dei dati nell’Intelligenza Artificiale” organizzato oggi da Seeweb, durante il quale si sono alternati interventi di relatori istituzionali, del mondo della ricerca, dell’università e dell’imprenditoria.

Durante l’evento è stato presentato uno studio condotto da Seeweb sugli impatti economici dell’Intelligenza Artificiale nel nostro Paese e si sono discusse le strategie migliori per incentivare modelli italiani di Intelligenza Artificiale. L’obiettivo, assicurare il progresso tecnologico e la sostenibilità del nostro ecosistema al fine di raggiungere l’indipendenza tecnologica e garantire una governance etica al settore.

Il paper sottolinea la necessità di adottare misure di alto valore sistemico per promuovere lo sviluppo dell’Intelligenza Artificiale in Italia, riducendo al minimo gli impatti sul lavoro e potenziando le competenze nel paese. Le misure chiave identificate includono:

  1. La regolamentazione dell’accesso e del controllo dei dati utilizzati per l’addestramento dei sistemi di Intelligenza Artificiale;
  2. La prevenzione delle distorsioni e delle concentrazioni di mercato da parte delle piattaforme dominanti extraeuropee;
  3. Il sostegno alle aziende italiane attive nella filiera dell’Intelligenza Artificiale.

Sebbene queste misure da sole potrebbero non risolvere tutte le problematiche sollevate nel paper, sono considerate un punto di partenza fondamentale per progredire nella giusta direzione verso un mercato competitivo, aperto e sicuro per l’Intelligenza Artificiale in Italia.

L’Intelligenza Artificiale ci accompagnerà per molto tempo al di là dell’hype del momento” ha spiegato Antonio Baldassarra, Ceo di Seeweb, che sottolinea poi come “sembra abbastanza chiaro oggi come si possa utilizzare IA per rendere più efficiente il lavoro, non abbiamo però altrettanto chiaro come sia possibile creare un’industria nazionale che possa avere un ruolo di attore. Il ruolo dell’industria del Paese non può essere solo quello di mettere a terra cose fatte da altri; è legittimo e vogliamo che esista ma dobbiamo anche pensare a una nostra capacità produttiva nell’ambito dell’Intelligenza Artificiale”.

Nel corso della discussione, i relatori hanno affrontato una serie di tematiche cruciali riguardanti i rischi e le opportunità derivanti dall’uso dell’Intelligenza Artificiale e dalla loro integrazione nella società. Il Ceo di Seeweb, Antonio Baldassarra, su questo punto, ha evidenziato le sfide legate alla mancanza di comprensione e alla sottovalutazione degli impatti delle tecnologie emergenti.

Tra i relatori dell’evento, Massimo Chiriatti, Chief Technology e Innovation Officer di Lenovo, ha ribadito l’importanza di non cedere alla paura e all’esagerazione mediatica riguardo alle tecnologie, sottolineando i benefici che queste hanno portato storicamente all’umanità, dall’aumento dell’aspettativa di vita all’innalzamento dei livelli di benessere, evidenziando il ruolo fondamentale delle tecnologie nell’automatizzare attività pericolose e faticose, consentendo così un progresso civile.

Tuttavia, si e’anche invitato alla prudenza nel delegare alle macchine compiti umani, riconoscendo che la sostituzione completa dell’uomo non è auspicabile.

Nel panel finale si è anche posto l’accento sul futuro desiderabile per la società, auspicando che il Paese Italia diventi non solo attrattivo e produttivo, ma anche un luogo in cui l’innovazione e il rispetto siano alla base dello sviluppo.

Citando esperienze passate come quelle delle Baby Bells inegli Stati Uniti nel settore delle telecomunicazioni si è voluto evidenziare l’importanza di non ostacolare l’innovazione tramite monopolizzazioni, ma piuttosto di promuovere un uso consapevole delle tecnologie e un’industria nazionale forte e competitiva.

Infine, sono state sollevate questioni cruciali riguardanti gli investimenti pubblici nelle tecnologie emergenti. Su questo punto si è evidenziato come, nonostante l’importanza strategica di tali investimenti, una parte significativa dei finanziamenti pubblici a livello europeo venga indirizzata verso soggetti esterni all’Europa, alimentando quindi un circolo vizioso di dipendenza tecnologica.

A tale proposito si è auspicata una maggiore attenzione da parte delle istituzioni verso politiche di commesse pubbliche mirate a promuovere l’innovazione e lo sviluppo industriale all’interno del continente, con l’obiettivo di garantire una maggiore sovranità tecnologica e economica.

In conclusione dell’evento, i relatori hanno sottolineato la necessità di un approccio equilibrato e consapevole nei confronti delle tecnologie emergenti, affinché queste possano contribuire al progresso sociale ed economico senza compromettere la dignità e il benessere dell’umanità.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Intelligenza Artificiale e la sfida del “brain drain” in Italia. L’opinione di Baldassarra, Ceo di Seeweb

L’Italia, pur avendo un discreto numero di startup e di imprese specializzate in Intelligenza Artificiale, che generano, secondo l’Osservatorio Artificial Intelligence del Politecnico di Milano, un giro d’affari di circa 760 milioni di euro di fatturato nel 2023 e una solida rete di istituzioni accademiche che formano i talenti necessari, si trova ad affrontare la sfida del “brain drain” a causa della mancanza di misure sistemiche per promuovere le competenze nazionali nel settore. E’ questo in sintesi il quadro delineato da Antonio Baldassarra, CEO di Seeweb – un’azienda italiana impegnata nel fornire infrastrutture per l’Intelligenza Artificiale – durante la sua testimonianza davanti alla Commissione Lavoro della Camera dei Deputati nell’ambito dell’Indagine Conoscitiva sull’Intelligenza Artificiale.

Il “brain drain“, letteralmente “drenaggio di cervelli”, è un fenomeno che si verifica quando un Paese perde i suoi talenti migliori e più qualificati, spesso a causa di migliori opportunità di lavoro o di studio all’estero. Un esodo, quello delle risorse umane altamente qualificate, che può causare una significativa perdita di competenze e conoscenze nel paese di origine, riducendo le capacità di innovazione e lo sviluppo economico a lungo termine.

Baldassarra ha evidenziato come spesso, nel dibattito pubblico, si concentri l’attenzione solo sugli aspetti negativi dell’Intelligenza Artificiale, come le questioni legate alla privacy, alla cybersecurity e alla concorrenza, trascurando il valore delle aziende italiane attive nella filiera dell’AI, come i fornitori di servizi cloud. Le istituzioni e la pubblica amministrazione che già utilizzano questa tecnologia e ne faranno un uso sempre più ampio in futuro, possono rappresentare da questo punto di vista un’enorme volano di crescita per le imprese italiane, se la transizione digitale viene gestita saggiamente.

Attualmente, la forza lavoro specializzata nell’AI e nelle materie STEM formata nelle Università italiane finisce spesso per essere attratta dalle cosidette Big Tech, le aziende tecnologiche globali più note. Per invertire questa tendenza, Baldassarra suggerisce di sostenere le industrie locali anche attraverso la commessa pubblica di servizi digitali, in modo da ampliare le competenze in Italia, rendendo il Paese più attrattivo per gli investitori e i lavoratori della conoscenza, e generando ricadute positive sull’occupazione.

Tuttavia, affinché ciò avvenga, è necessario lavorare su due fronti. Da un lato è fondamentale un cambio di approccio da parte delle Università, che attualmente formano i talenti per lavorare principalmente su sistemi proprietari sviluppati dalle grandi aziende tecnologiche internazionali, tralasciando magari altre realtà.

Dall’altro, è altrettanto importante che la crescita delle imprese italiane venga sostenuta attraverso programmi di public procurement mirati, che accelerino la produzione locale di soluzioni innovative per l’erogazione dei servizi pubblici. Come già fatto da altri Paesi europei, conclude Baldassara, “anche l’Italia può introdurre misure selettive per garantire alle PMI dell’innovazione attive nell’Intelligenza Artificiale di poter ricevere adeguate porzioni di incentivi per continuare a crescere grazie all’importante volano costituito dalla commessa pubblica”, senza tralasciare il peso della burocrazia che spesso penalizza le aziende più piccole rispetto ai grandi player globali.

Occorrerebbe, aggiungiamo noi, l’adozione (urgente) di una politica industriale che miri allo sviluppo delle imprese italiane con l’obiettivo di ridurre il divario dell’Italia con gli altri Paesi europei e gli Stati Uniti.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie