Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Dina Pagina 1 di 39

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Iran sta per fare la bomba? il paradosso nucleare innescato da Israele

Non è l’uranio arricchito a costruire una bomba. È la paura. La paura che il nemico, messo all’angolo, abbandoni ogni freno ideologico e giochi la sua ultima carta: la dissuasione atomica. Israele lo sa, ma ha scelto comunque di alzare la posta. Con chirurgica brutalità ha colpito il cuore pulsante del programma nucleare iraniano, assassinando scienziati, bombardando impianti e facendo saltare in aria non solo edifici, ma equilibri strategici.

L’Iran si ritrova oggi in un vicolo cieco. E come ogni bestia ferita, potrebbe scegliere di fare ciò che ha sempre negato pubblicamente: costruire l’arma che non osa nominare. Perché tra Teheran e la bomba, ormai, non ci sono più barriere tecnologiche. Solo un velo sottile di reticenza politica, l’ultima linea di difesa prima del punto di non ritorno.

NAM 2025 Stefano Epifani: Etica dell’intelligenza artificiale, ovvero il nuovo volto della propaganda tecnologica

E’ stato un piacere e un onore ascoltare Stefano Epifani. President DIGITAL TRANSFORMATION INSTITUTE al Nam 2025. Un lampo, un tuono ha squarciato l’apertura del convegno organizzato da NAMEX al Gasometro.

Quando qualcuno oggi parla di “etica dell’intelligenza artificiale”, raramente si riferisce all’etica. È più facile che stia facendo marketing, PR o damage control. Perché l’etica quella vera, non quella da policy framework aziendale è una cosa sporca, scomoda, lenta e spesso irricevibile nei board meeting. L’etica, per sua natura, spacca i consensi, apre i conflitti e sabota la narrativa del progresso inarrestabile. È ciò che rende una decisione tecnologica politica, cioè carica di valori, visioni del mondo e rapporti di forza. Ed è proprio questo che molti oggi preferirebbero ignorare.

Quando un cervello da miliardi cade su una scacchiera da otto bit

Una scacchiera grigia, pochi pixel maldestri. Un processore da 1.19 MHz, Atari 2600, anno 1977. E poi c’è ChatGPT, monumento del machine learning, con miliardi di parametri, ore di training, infrastruttura da superpotenza. Risultato? Umiliazione. Confusione tra pezzi. Errori da principiante. Scacco matto dall’intelligenza di un tostapane glorificato.

Non è ironia cosmica. È una lezione spietata sul perché l’intelligenza artificiale non è onnisciente, e sul fatto che il contesto – come sempre – conta più dell’intelligenza in sé.

Le IPO tech suonano di nuovo forti: ecco perché la FOMO ha superato la razionalità

Sentito quel pop? No, non è lo champagne di qualche startup unicorn appena quotata. È il suono della nuova bolla, ma stavolta nessuno vuole chiamarla così. Perché quando Chime—una fintech che somiglia a una banca ma preferisce non esserlo—esordisce al Nasdaq con un +37% rispetto al prezzo IPO, chi osa fare il guastafeste?

Quello che accade sotto gli occhi di Wall Street è il ritorno del grande spettacolo delle IPO tech, con una sceneggiatura vecchia quanto i dot-com: hype, rally iniziale, FOMO contagiosa e occhi a dollaro nei pitch deck. Gli investitori istituzionali (quelli veri, con i polsini inamidati) e i retail più speculativi (quelli di Reddit) si stanno dando il cinque virtuale, ringraziando i banker di Morgan Stanley come se fossero DJ in un festival di capitali.

NAM 2025 Stefano Quintarelli: Quando la ricchezza evapora: come l’economia immateriale ci sta dissanguando senza che ce ne accorgiamo

A Roma, tra la placida eleganza barocca di palazzi e la tensione strisciante del futuro digitale, il keynote di Stefano Quintarelli al Namex 2025 ha fatto più rumore di quanto ci si aspettasse. Sotto la superficie rassicurante della retorica mainstream sul digitale come panacea universale, Quintarelli ha smontato pezzo dopo pezzo la narrazione dominante. E ciò che ne emerge è un paradosso: stiamo guadagnando valore, ma ne beneficiamo sempre meno. In fondo, è la stessa logica con cui si può morire di sete su una zattera in mezzo all’oceano.

Partiamo dai numeri, quelli veri. Quintarelli, con l’ostinazione di un filosofo prestato all’ingegneria e il rigore di un contabile, ha citato dati ufficiali del Bureau of Economic Analysis statunitense: se si includono i servizi nel calcolo della bilancia commerciale, e si aggiusta il tutto per l’inflazione – magari usando il 2007, l’anno dell’iPhone, come spartiacque simbolico – il famigerato deficit commerciale USA smette di sembrare una voragine apocalittica. Anzi, è sorprendentemente stabile. Le esportazioni crescono, le importazioni pure. Ma non c’è alcun abisso in allargamento. E allora perché tutti urlano alla fine del mondo?

Oracle Fiscal 2025 Fourth Quarter and Fiscal Full Year Financial Results

Oracle scommette tutto sulla nuvola e prende a calci la vecchia guardia

Il vecchio dinosauro di Redwood Shores ha finalmente tirato fuori i denti. Dopo anni passati a inseguire i giganti del cloud come un avvocato stanco che rincorre le big tech in tribunale, Oracle sembra aver trovato il suo punto di pressione: l’IA. E i numeri, almeno per ora, sembrano dare ragione a Safra Catz, che con un candore quasi spietato ha sparato: “Le nostre percentuali di crescita saranno drammaticamente più alte.”

Tradotto dal cattivo gergo delle earnings call: Oracle prevede una crescita del 70% nel business cloud nell’anno fiscale in corso. Una cifra che fa sobbalzare anche gli algoritmi delle sale trading, visto che il titolo è salito di oltre il 6% nel dopoborsa. Chiariamolo subito: non è solo storytelling da CFO con l’occhio lucido e il power suit impeccabile. Dietro c’è una scommessa brutale da $25 miliardi di capex, spinti soprattutto da acquisti di GPU Nvidia e altri arnesi indispensabili per servire il grande banchetto dell’intelligenza artificiale generativa.

Quando l’intelligenza artificiale prende fuoco: cronache da una rivolta post-luddista a Los Angeles

Nelle strade di Los Angeles, dove la città ribolle sotto la superficie patinata da cartolina, 750.000 dollari di veicoli autonomi Waymo sono andati in fumo, letteralmente. Un incidente isolato? Una follia vandalica da parte di qualche sbandato con un accendino e troppo tempo libero? Forse. Ma più probabilmente è un sintomo. Un segnale. Uno di quei momenti che, se hai l’occhio giusto, ti fanno drizzare le antenne e ti obbligano a mettere in pausa l’entusiasmo da Silicon Valley.

OpenAI stringe la mano a Google mentre prende le distanze da Microsoft: una liaison da miliardi nel cloud dell’intelligenza artificiale

Una stretta di mano tra rivali, una manovra laterale ad alta tensione geopolitica dell’AI, una sorta di Guerra Fredda tra chip e datacenter che improvvisamente si fa tiepida. OpenAI, l’astro nascente alimentato da Microsoft, ora pesca nel giardino dell’arcinemico: Alphabet. Sì, proprio Google. E non per due briciole di potenza computazionale, ma per espandere la sua infrastruttura AI con la forza di fuoco della nuvola di Mountain View. Il tutto nel momento in cui ChatGPT – definito “il rischio più concreto per il dominio di Google nella search da vent’anni a questa parte” – continua a mangiarsi fette di attenzione, di mercato e, va detto, anche di narrativa pubblica.

Oracle sogna l’ipercloud mentre Stargate resta un miraggio da 500 miliardi

Il palcoscenico era pronto, i riflettori accesi, e poi… niente. Stargate, la presunta alleanza epocale tra Oracle, SoftBank e OpenAI per dar vita a un’infrastruttura da 500 miliardi di dollari destinata all’intelligenza artificiale, è ancora una chimera. Safra Catz, CEO di Oracle, lo ha dichiarato con candore durante l’ultima call sugli utili: “non è ancora stata costituita”.

Gazometro ribolle: NAM 2025 e NAMEX riscrivono la mappa digitale italiana

Al Gazometro, ex impianto industriale rigenerato nel quartiere Ostiense — non certo tra i marmi del Campidoglio — il 11 giugno 2025 si è celebrato il Namex Annual Meeting, meglio noto come NAM 2025: un’accensione di infrastrutture silenziose e cifrate, una celebrazione pragmatica della rete sotto la cupola storica di Roma

Ogni tanto, persino nel futuro si inciampa. Mentre tutti si affannano a raccontare la prossima grande innovazione, il prossimo pivot, la roadmap a 18 mesi (che nessuno rispetterà), c’è qualcuno che accende un piccolo riflettore storto su ciò che è stato. Non per nostalgia, ma per legittimità. Perché il presente non nasce mai da zero. E se non riconosci chi ha acceso la miccia, come Namex finisci per raccontare una favola storta l’ennesima.

Le cifre non mentono. Superati 1 terabit per secondo di traffico già a gennaio 2025, e picchi di 1,122 Tbps toccati durante una partita Atletico–Real Madrid trasmessa da Prime Video a marzo. Un balzo in avanti che racconta molto più di numeri: è l’autorevolezza infrastrutturale che si afferma, mentre il cuore silenzioso della rete scorre sotto Roma.

Moratoria o morfina? Il tentativo Trumpiano di sedare l’AI con una legge che congela il futuro

Se volevate un esempio plastico del connubio perverso tra lobby, politica miope e Big Tech in cerca di deregulation, eccolo servito su piatto d’argento: un emendamento, sepolto nella finanziaria proposta da Donald Trump — il suo “big, beautiful bill” — che di fatto congela per dieci anni qualsiasi regolazione statale sull’intelligenza artificiale. Una mossa che ha più il sapore di una sabotaggio preventivo che di una visione strategica. Ma forse è proprio questo il punto: la strategia è uccidere il dibattito sul nascere, mentre si finge di attendere un’ipotetica, mai vista regolamentazione federale.

L’emendamento non si limita a fermare la corsa alla regolazione locale — la sola che negli ultimi anni abbia prodotto qualcosa di concreto — ma revoca retroattivamente anche quelle poche norme già esistenti. Uno stop totale, indeterminato e regressivo, imposto nel momento esatto in cui il settore AI accelera verso un’adozione massiva e incontrollata.

L’era dell’ovvio straordinario: Altman, ChatGPT e l’inizio della singolarità morbida

C’è qualcosa di paradossale nella calma con cui Sam Altman annuncia che l’umanità ha appena varcato un “event horizon” verso la superintelligenza. Come se stesse commentando la temperatura del tè, il CEO di OpenAI ha scritto: “Siamo oltre il punto di non ritorno; il decollo è iniziato.” È il tipo di frase che dovrebbe causare panico, o almeno un improvviso bisogno di respirare profondamente. Invece, niente. La reazione globale? Un misto di entusiasmo, scetticismo e una scrollata di spalle tecnologicamente rassegnata.

Secondo Altman, ci stiamo avviando verso quella che chiama singolarità morbida, un passaggio dolce ma inesorabile verso l’intelligenza digitale superiore. Non la distopia di Skynet, non l’esplosione prometeica di una mente artificiale che ci ridicolizza; piuttosto, una transizione “gestibile”, graduale, quasi noiosamente prevedibile. Il problema è che, come ogni vera rivoluzione, anche questa si maschera da evoluzione lineare.

AI.gov o l’algoritmo dell’Impero: la Casa Bianca reinventa la burocrazia col GPT. Happy Uploading, America

Benvenuti nell’era in cui l’intelligenza artificiale sostituisce l’intelligenza istituzionale, e la democrazia si trasforma in un backend API-first. Non è un distopico racconto di Gibson né una bozza scartata di Black Mirror: è l’America del 2025, dove l’innovazione di governo si chiama AI.gov e parla fluentemente il linguaggio dei Large Language Models. La fonte? Il codice sorgente pubblicato su GitHub. E come sempre, il diavolo si nasconde nei commit.

L’amministrazione Trump, evidentemente non ancora sazia di plot twist tecnocratici, ha deciso di lanciare una piattaforma di intelligenza artificiale gestita dalla General Services Administration, guidata da Thomas Shedd, ex ingegnere Tesla e fedelissimo del culto eloniano. Un tecnico più affine al codice che alla Costituzione. Il sito AI.gov – attualmente mascherato da redirect alla Casa Bianca – è il punto focale di una nuova strategia: usare l’AI per “accelerare l’innovazione governativa”. La parola chiave, naturalmente, è “accelerare”, il verbo preferito da chi taglia, privatizza, automatizza.

Italia, startup e intelligenza artificiale

C’è un’Italia che parla di intelligenza artificiale come se fosse a cena con Elon Musk e c’è un’altra Italia che, più realisticamente, cerca ancora di capire come configurare il Wi-Fi aziendale. In mezzo ci sono loro: le startup AI italiane, una fauna affascinante quanto rara, spesso invocata nei panel dei convegni con tono salvifico, ma ignorata dai capitali che contano.

Secondo Anitec-Assinform, metà delle oltre 600 imprese digitali innovative italiane si fregia dell’etichetta “AI-enabled”. Ma definirle startup di intelligenza artificiale è come dire che chi ha una Tesla è un esperto di energie rinnovabili. L’uso della tecnologia, nella maggior parte dei casi, è decorativo, marginale, ornamentale. Non guida, non decide, non cambia il modello di business. È là per fare scena, come un’insegna a LED su un ristorante vuoto.

L’intelligenza artificiale nella PA italiana è un’illusione da procurement

In Italia anche l’intelligenza artificiale fa la fila, aspetta il suo turno, e spesso si ritrova in mano a funzionari che confondono una GPU con un acronimo del catasto. La recente indagine dell’Agenzia per l’Italia Digitale (AgID) suona come una radiografia dell’ennesima rivoluzione digitale annunciata, ma mai del tutto compresa. Titolo dell’operazione: “L’intelligenza Artificiale nella Pubblica Amministrazione”. Dietro la neutralità statistica dell’inchiesta, si cela una PA che tenta di aggrapparsi alla corrente dell’innovazione mentre arranca con zavorre fatte di burocrazia, consulenze esterne e KPI vaghi come le promesse elettorali.

Il censimento dei progetti IA ha coinvolto 108 organizzazioni pubbliche su 142 contattate, con 120 iniziative tracciate. Numeri apparentemente incoraggianti, che però si sgretolano sotto la lente di chi osserva il panorama non come un ottimista tecnologico, ma come un chirurgo delle inefficienze digitali. Solo 45 enti hanno davvero avviato progetti. Gli altri? Presumibilmente ancora impantanati nei comitati di valutazione, nei verbali, nelle richieste di pareri legali e nei flussi autorizzativi che scoraggerebbero persino una macchina a stati finiti.

Quando i robot diventano figli unici: il paradosso cinese dell’assistenza agli anziani

C’è qualcosa di profondamente poetico — e vagamente inquietante — nel fatto che la Cina, un paese plasmato per decenni dalla politica del figlio unico, si ritrovi ora a programmare androidi per accudire i propri anziani. Come se la Silicon Valley del Dragone stesse tentando di correggere, con servomeccanismi e intelligenze artificiali, le lacune biologiche di una demografia sempre più sbilanciata. Ma tranquilli: non è fantascienza. È politica industriale, e pure parecchio concreta.

Il nuovo programma pilota lanciato congiuntamente dal Ministero dell’Industria e dell’Informazione e dal Ministero degli Affari Civili cinese prevede l’inserimento massiccio di robot per l’assistenza agli anziani. Sì, avete letto bene: badanti a circuito integrato, caregiver con sensori Lidar, compagni di vita con algoritmo di riconoscimento emotivo. Non è un nuovo anime giapponese, è il piano strategico della seconda economia mondiale per sopravvivere a se stessa. E non è un caso che il Giappone — eterno fratello-rivale nell’arena della senilizzazione — sia già da tempo sulla stessa strada.

GSM8K, LLM, il re è nudo: Apple smonta il mito del ragionamento matematico

C’è qualcosa di profondamente sbagliato nella maniera in cui valutiamo l’intelligenza artificiale, e Apple — sì, proprio Apple — ha appena scoperchiato il vaso di Pandora dell’autocompiacimento algoritmico. Niente Keynote, niente scenografie minimaliste da Silicon Valley, ma una bomba scientifica che mina il cuore stesso della narrativa dominante: i Large Language Models, osannati come nuovi oracoli logici, sono in realtà più illusionisti che matematici. E il trucco, come sempre, è tutto nei dettagli.

La scena del crimine si chiama GSM8K, una benchmark ormai celebre tra i cultori del deep learning. Una collezione di problemini da scuola elementare usata per valutare quanto un modello sappia ragionare “formalmente”. Ma come ogni quiz scolastico, anche GSM8K ha un punto debole: più lo usi, più diventa prevedibile. E gli LLM, che sono addestrati su miliardi di dati, imparano non a ragionare, ma a riconoscere pattern. Una differenza sottile, ma cruciale.

Il capitalismo dello sguardo: perché Sam Altman vuole scannerizzarti l’iride nei centri commerciali britannici

Londra, primavera 2025. Mentre il Regno Unito si prepara all’ennesimo reboot politico tra intelligenza artificiale e distopia quotidiana, una novità luccicante spunta all’orizzonte urbano: un globo metallico, lucido, vagamente alieno, ti invita ad “autenticarti”. Non con password, né con documenti. Ti chiede solo… gli occhi. O meglio, l’iride.

La macchina si chiama Orb, la società che la distribuisce Tools for Humanity. Nome ironico per un progetto tecnocratico. Dietro le quinte, l’onnipresente Sam Altman, CEO di OpenAI, e il co-fondatore Alex Blania. Non bastava ChatGPT a rivoluzionare il pensiero umano, adesso l’obiettivo è mappare chi è effettivamente umano. Non in senso filosofico — Dio ci salvi da Kant — ma in senso biometricamente verificabile.

Apple: La grande illusione del pensiero artificiale

C’era una volta l’illusione che bastasse aumentare i parametri di un modello per avvicinarlo al ragionamento umano. Poi arrivarono gli LRM, Large Reasoning Models, con il loro teatrino di “thinking traces” che mimano una mente riflessiva, argomentativa, quasi socratica. Ma dietro al sipario, il palcoscenico resta vuoto. Lo studio The Illusion of Thinking firmato da Shojaee, Mirzadeh e altri nomi illustri (tra cui l’onnipresente Samy Bengio) è una doccia fredda per chi sperava che la nuova generazione di AI potesse davvero pensare. Spoiler: no, non ci siamo ancora. Anzi, forse ci stiamo illudendo peggio di prima.

Moratoria AI: il senato USA blocca le leggi locali e spalanca le porte a big tech

Una moratoria decennale sulle leggi statali in materia di intelligenza artificiale non è semplicemente una misura di buon senso burocratico. È, in realtà, una clava politica che rischia di tagliare fuori ogni tentativo locale di regolamentare un settore ormai centrale nella nostra vita quotidiana. I senatori repubblicani del Comitato Commercio, nella loro ultima versione del mega pacchetto di bilancio del presidente Donald Trump, hanno inserito proprio questo: un blocco alle normative statali sull’AI. Un regalo dorato a Big Tech, mascherato da protezione della crescita economica e competitività americana. E mentre chi lo difende parla di “semplificazione normativa”, un numero crescente di legislatori e associazioni civiche grida al disastro, vedendo all’orizzonte l’azzeramento delle tutele per consumatori, lavoratori e persino bambini.

La tecnologia ci renderà più umani? Una provocazione firmata Ray Kurzweil

“Ciò che ci rende umani è la nostra capacità di trascenderci.” Lo dice Ray Kurzweil, e non è un filosofo new age o un poeta esistenzialista, ma un ingegnere, inventore, multimilionario e profeta della Singolarità. La stessa Singolarità che, secondo lui, arriverà verso il 2045, con l’eleganza chirurgica di un algoritmo che impara a riscrivere il proprio codice. Un futuro che profuma di silicone e immortalità.

Report Stati evolutivi AI: linguaggio, forma, percezione con AI fisica

L’analisi e la visione del futuro e della ricerca insieme al Prof. Roberto Navigli professore presso il Dipartimento di Ingegneria Informatica, Automatica e Gestionale (Università La Sapienza Roma Babelscape) e la Prof.ssa Barbara Caputo Professoressa Ordinaria Dipartimento di Automatica e Informatica (Polito) EVENTI Milano Finanza

Intelligenza artificiale generativa, non è una moda ma un’egemonia algoritmica

Dall’intervento della Prof.ssa Barbara Caputo si evince che se c’è un errore semantico che continuiamo a reiterare, con la pigrizia di chi crede di parlare di futuro usando parole del passato, è chiamare “moda” quella che è, senza ambiguità, la più profonda rivoluzione computazionale dagli anni ’40 a oggi. L’intelligenza artificiale generativa non è un gadget filosofico per TED Talk, né un effetto speciale da tech-conference, ma una svolta epistemologica nella modellizzazione del reale. Non è un’opzione. È la condizione.

META, il fabbro dimenticato dell’intelligenza artificiale moderna

E’ sabato e mi voglio concedere un pò di esegetica, c’è un paradosso elegante quasi beffardo nel vedere Yann LeCun, Chief AI Scientist di Meta, scagliare la sua verità come un martello di Thor nel silenzio autoreferenziale della Silicon Valley: “Senza Meta, molta dell’AI moderna non esisterebbe.” E mentre il pubblico digita “OpenAI” nella barra di ricerca con la stessa naturalezza con cui un tempo si scriveva “Google”, c’è chi nell’ombra ha martellato il ferro dell’open source per anni, senza ottenere mai il credito da copertina.

La questione, al di là dell’ego e delle polemiche accademiche, è brutale nella sua evidenza: senza PyTorch, oggi non avremmo neppure la metà della cultura di machine learning che inonda GitHub e arXiv. Quel framework flessibile, nato in un laboratorio di Meta (o meglio, Facebook AI Research, per gli archeologi della memoria), è l’asse portante su cui poggiano DeepSeek, Mistral, LLaMA e un’intera galassia di modelli che si vendono come “open”, “free” o “alternativi”.

Perché l’Intelligenza artificiale ama i tuoi dati sanitari più di quanto tu ami il tuo medico

Diciamolo senza girarci intorno: l’Intelligenza Artificiale non è interessata al tuo cuore, ma al tuo cuore visto da una risonanza magnetica, incrociato con i tuoi esami del sangue, i tuoi battiti notturni tracciati dall’Apple Watch, le tue abitudini alimentari dedotte da quanto sushi ordini su Glovo e da quanto insulina consumi nel silenzio della tua app.

Benvenuti nell’era dell’ecosistema dei dati sanitari, un mondo che sembra pensato da un bioeticista impazzito e un data scientist con la passione per il controllo.

Mentre l’European Health Data Space (EHDS, per gli amici stretti della Commissione Europea Regolamento 2025/327) si appresta a diventare il cuore pulsante del nuovo continente digitale della salute, le big tech affilano gli algoritmi. Il paziente europeo diventa il più grande fornitore gratuito di dati strutturati mai esistito. E noi? Noi firmiamo i consensi informati senza leggerli, applaudiamo all’efficienza predittiva, e poi ci indigniamo perché la nostra assicurazione sanitaria sa che abbiamo preso troppo ibuprofene a maggio.

The New York Times vs OpenAI: come distruggere la fiducia nell’AI in nome del copyright

Il paradosso perfetto è servito. In un’epoca in cui le Big Tech si fanno guerre epiche a colpi di etica e algoritmi, a tradire la promessa di riservatezza non è un CEO distopico né una falla nella sicurezza: è un’ordinanza giudiziaria. OpenAI, la regina madre dei modelli generativi, è costretta per ordine del tribunale a violare una delle sue stesse policy fondanti: la cancellazione delle conversazioni su richiesta dell’utente. Cancellazione, si fa per dire.

Quello che accade dietro le quinte di ChatGPT oggi non è un incidente tecnico né una svista legale. È un ribaltamento formale della logica contrattuale tra utente e piattaforma, e rappresenta un passaggio simbolico nella guerra fredda tra intelligenza artificiale e diritto d’autore. Il tutto, ovviamente, con in mezzo il cadavere illustre della privacy digitale.

ADVANCES AND CHALLENGES IN FOUNDATION AGENTS FROM BRAIN

INSPIRED INTELLIGENCE TO EVOLUTIONARY, COLLABORATIVE, AND SAFE SYSTEMS: Tradotto Il futuro ha già un cervello: come i Foundation Agents stanno trasformando l’intelligenza artificiale da pappagallo parlante a stratega senziente

Un paper con un titolo affascinante, abbiamo insegnato alle macchine a parlare prima ancora che sapessero fare. Gli LLMs, quegli oracoli linguistici superalimentati che da anni catturano titoli e investimenti, hanno un grande talento nel produrre parole ma, come tanti filosofi da salotto, faticano ad agire. È come avere un genio della lampada che può spiegarti come costruire un razzo, ma non riesce ad alzarsi dal divano per prendere un cacciavite.

Ecco perché oggi, in sordina ma con crescente inevitabilità, stiamo assistendo all’ascesa dei Foundation Agents, la vera mutazione darwiniana dell’AI. Non più solo modelli linguistici che sfornano risposte brillanti, ma entità modulari che percepiscono, ragionano, agiscono, apprendono e – con un pizzico di inquietudine – iniziano anche a sentire. O quantomeno, simulano molto bene la sensazione di farlo.

Quando Elon morde Trump: il reality techno-pop che incendia Washington

È successo di nuovo. Un altro episodio del più grande reality americano, una tragicommedia di potere, ego e tweet: Elon Musk e Donald Trump, due poli magnetici del narcisismo contemporaneo, si sono scontrati in pubblico come due CEO con troppo tempo libero e un’ossessione condivisa per l’attenzione. Il loro litigio ha avuto il sapore di un wrestling elettorale tra chi vuole dominare Marte e chi ancora pensa di poter ri-conquistare Manhattan. Il risultato? Più fumo che fuoco, ma anche un riflettore impietoso acceso sul rapporto torbido tra la Silicon Valley e la nuova – o meglio, rinnovata – MAGAcronica amministrazione trumpiana.

Anthropic lancia Claude Gov, l’intelligenza artificiale patriottica che non fa troppe domande

C’è un curioso dettaglio nelle democrazie moderne: ogni volta che una tecnologia diventa abbastanza potente da riscrivere le regole del gioco economico, qualcuno in uniforme entra nella stanza e chiede di parlarne a porte chiuse.

Così è stato per internet, per i satelliti GPS, per il cloud, e oggi ça va sans dire per l’intelligenza artificiale. La nuova mossa di Anthropic lo conferma: la startup fondata da transfughi di OpenAI ha appena annunciato Claude Gov, un set di modelli AI personalizzati creati su misura per le agenzie dell’intelligence americana. Il claim? “Rispondono meglio alle esigenze operative del governo.” Traduzione: sanno leggere, sintetizzare e suggerire azioni su documenti classificati, in contesti ad alto rischio geopolitico. Senza tirarsi indietro.

Palantir, il Trumpismo digitale e il lato oscuro dell’intelligenza artificiale

Il CEO di Palantir, Alex Karp, è apparso oggi su CNBC con lo stesso tono del professore universitario che ti guarda come se non capissi nulla, anche se è il tuo esame di dottorato. Karp ha risposto piccato all’articolo del New York Times che la scorsa settimana ha insinuato che Palantir fosse stata “arruolata” dall’Amministrazione Trump per creare una sorta di “registro maestro” dei dati personali degli americani. Un’accusa pesante. E prevedibile. In fondo, quando la tua azienda costruisce software per eserciti, spie e governi opachi, è difficile convincere il pubblico che stai solo “aiutando le agenzie a lavorare meglio”.

La smentita di Karp? “Non stiamo sorvegliando gli americani”. Certo, come no. È un po’ come se Meta dichiarasse: “Non vendiamo dati”, o come se TikTok sostenesse di non avere legami con la Cina. Palantir, per chi non la conoscesse, è l’azienda fondata con soldi della CIA e oggi quotata al Nasdaq (PLTR), che costruisce sistemi avanzati di analisi dei dati. È anche la compagnia preferita da chi vuole controllare senza che sembri controllo.

Cohere Come costruire agenti AI da battaglia nei settori regolamentati senza finire nei guai con l’audit

Siamo nell’era dell’”AI che fa cose”, ma quando si tratta di finanza, sanità o pubblica amministrazione, la differenza tra un agente che genera valore e uno che genera una causa legale è questione di tooling, temperatura, e fallimenti. Cohere — azienda nota più per i suoi modelli LLM made in Canada che per le frasi ad effetto — ha appena pubblicato una guida su come costruire agenti AI “enterprise-ready” nei settori dove la compliance non è un’opinione ma un dio vendicativo.

E la guida ha un tono quasi insolitamente pragmatico, per essere un whitepaper AI. Niente arcobaleni quantici. Solo sei regole che dovrebbero già essere scolpite in pietra in ogni SOC 2 room con tanto di badge RFID.

Yoshua Bengio AI godfather rompe il silenzio: nasce LawZero, l’intelligenza artificiale che rifiuta la menzogna

Yoshua Bengio ha finalmente deciso di sporcarsi le mani. E quando un Premio Turing, architetto fondante della moderna intelligenza artificiale, passa dal tavolo delle conferenze a quello di comando, qualcosa si muove. LawZero, la sua nuova creatura no-profit, sorge con un obiettivo che sa di eresia nell’ecosistema attuale: costruire un’IA che non solo non mente, ma rifiuta attivamente di farlo. Un’IA che non cerca di piacere, vendere o sedurre. Un’IA safe-by-design, come la chiama lui, con il coraggio di dire: “Non lo so.”

I telcos come infrastruttura dell’intelligenza artificiale

McKinsey Study AI infrastructure: A new growth avenue for telco operators

“Il miglior modo per predire il futuro è inventarlo”, diceva Alan Kay. Ma nel caso dell’economia dell’intelligenza artificiale, predirlo significa anche cablarlo. Ospitarlo. Alimentarlo a megawatt e connettività. E se oggi gli operatori telco si illudono di poter semplicemente ritagliarsi un posto accanto agli hyperscaler, farebbero meglio a studiare il caso Seeweb con il suo GPU aaS ad esempio: un player italiano che, mentre i giganti si perdono tra strategie da boardroom e infrastrutture legacy, ha già capito come posizionarsi là dove l’AI genera valore reale. Ovvero, nell’inferenza. Sì, proprio quel segmento dove la corsa ai chip diventa guerra di margini, latenza, costi energetici e disponibilità immediata.

Il contesto? Secondo McKinsey, la domanda globale di data center per applicazioni AI triplicherà entro il 2030. Non è solo una questione di training: è l’inferenza quotidiana, ubiqua, embedded in ogni app, customer service, servizio pubblico. È la fase in cui l’intelligenza artificiale non solo impara, ma lavora. E per lavorare, le servono strutture vicine, leggere, distribuite. Chi controlla la rete, controlla la distribuzione dell’intelligenza.

Mary Meeker ha appena riscritto il manuale della rivoluzione AI: Trends 2025

Mary Meeker è una venture capitalist americana ed ex analista di titoli di Wall Street. Il suo lavoro principale riguarda Internet e le nuove tecnologie. È fondatrice e socio accomandatario di BOND, una società di venture capital con sede a San Francisco. In precedenza è stata partner di Kleiner Perkins. 

È ufficiale: la transizione tecnologica più veloce della storia dell’umanità ha finalmente il suo playbook. Non una slide improvvisata, non una timeline abbozzata in un keynote. Un’opera da 340 pagine, partorita in sei anni da Mary Meeker, la stessa analista che vent’anni fa indicò l’arrivo del web con la precisione di un chirurgo e la freddezza di una scommessa da hedge fund. Ora ha puntato dritto sull’Intelligenza Artificiale. Ed è come se avesse acceso la luce nella stanza dove tutti, fino a ieri, brancolavano tra hype, buzzword e delirio mistico da prompt engineering.

Trump, Musk e l’abominio della spesa: quando il tech sputa nel piatto del potere

Era tutto troppo bello per durare. Il bromance postmoderno tra Donald Trump ed Elon Musk una miscela tossica di testosterone, libertarismo fiscale e narcisismo performativo — ha cominciato a scricchiolare sotto il peso di una delle cose più antiche del mondo: i soldi. Ma non soldi qualsiasi. Parliamo del disegno di legge sulla spesa federale, un pachiderma legislativo definito da Musk come “disgustoso abominio”, con un vocabolario degno di un predicatore texano in un rave.

La rivoluzione silenziosa dei video generati dall’intelligenza artificiale

Se Andrej Karpathy, uno dei più lucidi architetti dell’intelligenza artificiale moderna, si dice «molto impressionato» da Veo 3 e dai contenuti emergenti su r/aivideo, significa che qualcosa di epocale sta realmente accadendo. Nel mare magnum dei video online, spesso ripetitivi e talvolta fastidiosi, la vera svolta non è tanto la quantità, quanto la qualità qualitativamente superiore che emerge quando all’immagine si aggiunge l’audio generato e ottimizzato da reti neurali sofisticate. Ma ciò che Karpathy sottolinea va ben oltre un semplice upgrade tecnologico: il video come medium sta attraversando una metamorfosi che nessuno aveva previsto.

Il nuovo idolo nero dell’AI: Jony Ive, Sam Altman e il gadget che nessuno deve capire ma tutti useranno

A volte le rivoluzioni nascono in un garage, altre in un consiglio d’amministrazione. E poi ci sono quelle che prendono vita tra le pagine ovattate del Financial Times, accompagnate da sguardi nostalgici verso Steve Jobs, da un tono vellutato di redenzione e da una quantità inaccettabile di denaro paziente.

Jony Ive sì, quel Jony Ive, il demiurgo del design Apple ha deciso che è tempo di riparare. Redimersi. Prendersi la colpa per l’umanità imbambolata davanti a uno schermo. Non bastava la funzione “Non disturbare” o la modalità “Tempo di utilizzo”: ora serve un nuovo oggetto. Ma non uno qualsiasi: un “AI gadget”. Cos’è? Non si sa. Perché funziona? Neppure. Ma è già stato benedetto da Laurene Powell Jobs, una che non parla mai, ma quando lo fa, lo fa per dire: “Ho messo i soldi, so che vale.”

Scacco bipartisan sulla scacchiera di Washington: Microsoft gioca in diagonale

Un pedone cade. Uno nuovo appare.
Non è scacchi, è geopolitica d’impresa.

Mentre tutti si affannano a interpretare l’ultima mossa di OpenAI o a prevedere chi detterà legge nella prossima ondata di modelli LLM, Microsoft si muove in silenzio ma chirurgicamente su un’altra scacchiera: quella della politica americana. Con una strategia così lucida da far impallidire persino i manuali di game theory, il colosso di Redmond piazza le sue torri legali con perfetta simmetria tra repubblicani e democratici. Una sinfonia di lobbying istituzionale mascherata da innocua riorganizzazione HR.

Lisa Monaco, ex legale dell’amministrazione Biden, viene arruolata per guidare la politica globale di Microsoft. Contemporaneamente, CJ Mahoney già vice rappresentante commerciale durante il primo mandato di Trump riceve la promozione a General Counsel per Azure, il cuore pulsante dell’impero cloud dell’azienda. Una pedina da una parte, una pedina dall’altra. Equilibrio perfetto. Bipartisan. O, più cinicamente, bi-interesse.

Elon Musk, ketamina e governo

La scena è questa: un uomo con un occhio nero, un figlio di nome “X”, e una valigetta di pillole. No, non è una puntata di Black Mirror. È l’America del 2024, ed Elon Musk si aggira per la Casa Bianca come uno Steve Jobs con l’hangover. Il New York Times sgancia la bomba: Musk avrebbe fatto uso intensivo di ketamina durante la campagna elettorale, con tanto di effetti collaterali da manuale – come i ben noti problemi alla vescica. Ma c’è di più. Ci sarebbero anche funghi allucinogeni, ecstasy e un’apoteosi da party Ibiza-style camuffata da crociata di efficienza statale.

Acciaio, armi e arroganza: l’Unione Europea si sveglia dal letargo doganale

Il teatro delle guerre commerciali ha una nuova puntata, e come sempre, Donald Trump è il protagonista con la faccia di bronzo e il pollice sul pulsante delle tariffe. Questa volta il bersaglio si chiama acciaio, il metallo simbolo dell’industria pesante e delle economie che vogliono fingere di essere ancora sovrane. Dal 25% al 50% di dazio sulle importazioni: una mossa che il presidente USA ha annunciato con la stessa soddisfazione con cui un bambino mostra il suo nuovo martello, pronto a colpire qualsiasi cosa si muova.

L’intelligenza artificiale non è magia: è architettura a sette strati

Chi pensa che l’AI moderna si limiti al prompt engineering o alla messa a punto di modelli preaddestrati è fermo al livello “giocattolo”. L’AI vera, quella che finisce in produzione, quella che deve scalare, performare, rispondere in millisecondi, aggiornarsi, ragionare, non si improvvisa. Va progettata come un’infrastruttura industriale: multilivello, interdipendente, e ovviamente fragile come il castello di carte più caro che tu possa immaginare.

Serve una visione sistemica, un’architettura a sette strati. Non è teoria, è la differenza tra un POC da demo call e una piattaforma AI che regge milioni di utenti. O, come direbbe qualcuno più poetico: dalla speranza alla scalabilità. Andiamo a sezionare questo Frankenstein digitale con cinismo chirurgico.

Alla base c’è il layer fisico, dove l’AI è ancora schiava del silicio. Che siano GPU NVIDIA da migliaia di dollari, TPUs di Google usate a ore come taxi giapponesi, oppure edge devices low-power per far girare modelli ridotti sul campo, qui si parla di ferro e flussi elettrici. Nessuna “intelligenza” nasce senza una macchina che la macina. AWS, Azure, GCP? Sono solo supermercati di transistor.

Pagina 1 di 39

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie