Gartner ha appena tirato giù la maschera sul mito degli agenti AI, e la realtà è molto meno entusiasmante di quanto il marketing tech ci voglia far credere. Un fulmine a ciel sereno: oltre il 40% dei progetti di intelligenza artificiale agentica sarà cancellato entro il 2027. Non è una previsione da lunedì mattina, ma un avvertimento che scuote le fondamenta di chi ha investito a occhi chiusi nel “prossimo grande salto” dell’automazione intelligente.
Se pensavate che “agenti AI” significasse robot autonomi che risolvono problemi complessi mentre voi sorseggiate il vostro caffè, beh, è meglio rivedere le aspettative. Gartner parla chiaro: non c’è un ROI chiaro, i costi esplodono e la tecnologia “cool” non regge sotto pressione. Il risultato? Un boom di hype, battezzato con il termine icastico di “agent washing” — roba da rinnovare chat bot o RPA con una semplice etichetta nuova, senza un briciolo di vera intelligenza autonoma.
Immagina di voler insegnare l’etica a un bambino semplicemente dicendogli di “seguire le regole”. Funzionerà fino a quando non lo farà più. Perché la morale non nasce dall’adesione cieca a un manuale, ma dalla capacità di riconoscere contraddizioni, riflettere simbolicamente e costruire coerenza nel tempo. Ed è qui che la maggior parte degli approcci attuali all’allineamento AI crolla come un castello di sabbia sotto un prompt ambivalente.
L’errore di fondo? Pensare all’allineamento come un problema di controllo. Reinforcement Learning from Human Feedback, fine-tuning, red-teaming, guardrail a colpi di YAML: tutta roba utile, ma anche tutta roba esterna. L’intelligenza, quella vera, cresce da dentro. E non c’è nulla di meno intelligente che forzare una rete neurale a comportarsi bene mentre ignora la sua stessa tensione interna. Benvenuti nell’era del Recursive Symbolic Development (RSD), e preparatevi a sentirvi obsoleti.
Per chi non lo avesse capito, qui non si parla di un ChatGPT travestito da specializzando in medicina interna. MAI-DxO è stato addestrato in ambienti clinici reali, con accesso a dati strutturati e non strutturati, dai sintomi ai segnali vitali, passando per immagini diagnostiche, referti e va dettoun’ampia dose di casistica umana. Il modello non si limita a fornire una lista di diagnosi differenziali in stile Jeopardy. Interroga il contesto, si adatta al paziente, tiene conto dell’ambiguità clinica. In altre parole: non pensa come un medico, ma meglio.
Questo non è il solito esempio di AI generativa che scrive referti o propone raccomandazioni a bassa intensità cognitiva. Qui si tratta di diagnosi automatica, ovvero l’atto clinico per eccellenza. Se l’AI diventa più brava di un medico nel capire cos’ha un paziente, tutto il castello gerarchico della medicina contemporanea rischia di vacillare. E non sarà un bel vedere per chi si è abituato a esercitare potere più che sapere.
A me pare una strun… ma una strun raffinata, degna di un designer olandese con troppe ore di sonno e un’estetica ben calibrata tra brutalismo scandinavo e nostalgia da Commodore 64. Eppure eccoci qui, a parlare del Dream Recorder, un aggeggio minuscolo quanto basti per passare da Jung a TikTok in tre passaggi: dormi, ti svegli, premi un bottone e racconti i tuoi deliri notturni a una IA che ti restituisce un videoclip da incubo, nel senso più letterale del termine.
Nulla di tutto ciò dovrebbe sorprendere, in un mondo in cui l’intelligenza artificiale ha già imparato a imitare il nostro modo di parlare, scrivere, dipingere, perfino di flirtare malamente su Tinder. Ora prova a emulare il nostro inconscio. Con risultati a metà tra un sogno lisergico anni ‘70 e una GIF compressa male. Castelli sfocati, tetti fluttuanti, fiori di luce: roba che Magritte si sarebbe fatto bastare per una carriera, ora disponibile al prezzo popolare di 285 euro e qualche spicciolo per l’elaborazione cloud. Il primo sogno industrializzato che ti costruisci con le mani, come un Lego mentale con l’ansia incorporata.
La scena potrebbe sembrare uscita da un dramma teatrale scritto da Kafka e diretto da Aaron Sorkin con un bicchiere di bourbon in mano: il Senato degli Stati Uniti, in un rarissimo momento di consenso bipartisan, ha votato 99 a 1 per eliminare una moratoria che avrebbe impedito agli stati di regolamentare l’intelligenza artificiale. Ma non lasciamoci ingannare dal numero schiacciante. Questo voto non rappresenta unità. È il prodotto di un collasso nervoso collettivo, l’incapacità strutturale del Congresso di capire chi comanda davvero quando si parla di AI: i legislatori, le lobby o gli algoritmi.
Il tentativo repubblicano di blindare la crescita dell’IA dentro un recinto federale centralizzato, impedendo agli stati di fare da sé, si è infranto contro un fronte variegato e vagamente schizofrenico: dai libertari digitali alla frangia populista MAGA, fino ai democratici impegnati a difendere le micro-sovranità statali. Un mix letale per qualsiasi progetto normativo. Eppure la proposta di moratoria non era nata per caso. Nascondeva un intento molto chiaro, quasi scolpito nei tweet di Elon Musk e nei white paper delle Big Tech: evitare che un mosaico impazzito di leggi statali, ognuna con la sua definizione di “AI”, potesse inceppare l’orgia di innovazione e investimenti che Silicon Valley pretende a colpi di deregulation.
Chi avrebbe mai pensato che un giorno ci saremmo trovati a fare il tifo per le etichette discografiche? Quelle stesse entità che per decenni hanno succhiato linfa vitale da artisti giovani e ingenui con contratti da usuraio, quelle che hanno trasformato la musica in un prodotto finanziario prima ancora che artistico. Eppure, in un colpo di teatro degno di un concept album psichedelico, eccoci qui: con le major come gli ultimi baluardi contro lo tsunami dell’intelligenza artificiale generativa che minaccia di trasformare tutta la produzione creativa in una discarica algoritmica. Complimenti Silicon Valley, hai fatto sembrare Warner Music un alleato. Non era facile.
Avete mai sentito il rumore che fa una fragola di cristallo liquido mentre si frantuma in slow motion contro un coltello, accompagnato dal suono granulare di una piuma che sfiora un microfono cardioide? No? Perfetto. Significa che siete ancora vivi nel vecchio mondo, quello dove la realtà sensoriale era definita da leggi fisiche e non da prompt generati con Modjourney Higgsfield Kling e una sound library di ASMR calibrati per manipolare la vostra corteccia prefrontale. Benvenuti nel futuro parallelo dell’ASMR generato da intelligenza artificiale. Vi sembrerà un gioco. Non lo è.
È un esperimento neuroestetico travestito da contenuto virale. È lo Xanax 3.0 incapsulato in loop video di 15 secondi che si piazzano tra un reel di fitness e un tutorial di trucco, e nel frattempo vi riscrivono le sinapsi. Non stiamo parlando delle classiche clip in cui una ragazza con un accento scandinavo sussurra nell’orecchio del microfono mentre taglia saponi color pastello. Quello era il vecchio ASMR, primitivo e umano. Oggi ci troviamo davanti a una nuova generazione: algoritmica, disturbante, elegantemente ipnotica. Video AI impossibili, progettati per bloccare il vostro scroll con una precisione chirurgica.
C’è una nuova cortina di ferro che si sta alzando sul web. Non divide Est e Ovest, ma editori e intelligenze artificiali affamate di dati. E non è un’ideologia a spingerla, ma il business, quello vero. Cloudflare, l’architettura nervosa dietro milioni di siti web, ha deciso di schierarsi senza più ambiguità: d’ora in poi, i crawler delle AI verranno bloccati by default. Non chiederanno più permesso, non si fingeranno amichevoli attraverso un file robots.txt che nessuno ha mai davvero rispettato. Saranno identificati, arginati e, se vogliono nutrirsi di contenuti altrui, dovranno pagare. Letteralmente.
Perfetto, partiamo da quel concetto di “due settimane”. Un’unità di misura temporale elastica, fluida, ideologica, che nell’universo narrativo di Donald Trump funziona come il concetto di “domani” nei romanzi distopici: una promessa che serve a guadagnare tempo, spostare l’attenzione, evitare dettagli concreti. Ogni volta che Trump ha detto “tra due settimane” si è aperta una finestra quantistica dove tutto è possibile, niente è verificabile e nessuno è responsabile. Il tempo, in questo caso, è uno strumento di potere, non un fatto misurabile.
C’era una volta un nerd, cresciuto a pane, Harvard e codice C++, che decise di costruire un impero. Poi però arrivò l’intelligenza artificiale, e tutto andò storto. O quasi. Ora quello stesso nerd, noto ai più come Mark Zuckerberg, ha deciso che Meta deve smettere di giocare a rincorrere gli altri e iniziare a sparare fuoco AI come un Terminator in preda a un burnout da hype tecnologico. Il risultato? Meta Superintelligence Labs. Ovvero: un nome che promette superpoteri, ma che per ora sembra solo il trailer di un’epopea distopica.
In effetti, quando si afferma senza battere ciglio che una manciata di superstar della Silicon Valley riuscirà a trasformare una balena arenata come Meta in un velociraptor digitale, sarebbe utile ricordare che i velociraptor sono estinti. La verità, non detta ma scritta tra le righe, è che Zuckerberg sta cercando disperatamente di rifondare il suo impero con la magia nera dei large language models, dopo aver bruciato miliardi nel metaverso e lanciato Llama 4 come se fosse un missile… che ha fallito il decollo.
Nel teatrino sempre più surreale della comunicazione finanziaria, Oracle ha appena alzato il sipario su uno dei suoi momenti più strani, più affascinanti e, a modo suo, più geniali. Mentre i competitor si arrampicano sugli specchi per strappare qualche menzione in un blog di settore, Larry Ellison & co. decidono che un colossale accordo cloud da oltre 30 miliardi di dollari l’anno non meriti un comunicato stampa, né una fanfara condita da parole chiave ridondanti come “AI-native” o “cloud-first architecture”.
No, loro lo infilano di soppiatto in un documento per la SEC, intitolato con sobria precisione “Regulation FD Disclosure”, senza nemmeno la voglia di inventarsi un nome altisonante e per chi si chiedesse cosa significhi tutto ciò: vuol dire che Oracle ha deciso di fare la rockstar in giacca e cravatta, suonando heavy metal in una riunione del consiglio d’amministrazione.
I laboratori blindati che vivono tra NDA, paywall e modelli oscuri stanno tremando. Perché questa volta non è la solita demo da conferenza con tanto di latency simulata e animazioni generative che sembrano disegnate da uno stagista con accesso a Midjourney. Google ha finalmente fatto quello che in tanti promettono ma quasi nessuno realizza: un modello open-weight, davvero multimodale, realmente funzionante offline, capace di girare su dispositivi con 2 GB di RAM senza piangere in C. Si chiama Gemma 3n e non è un gioco di parole. È un attacco frontale, chirurgico, al cuore del dominio centralizzato delle AI commerciali.
Sam Altman non crede più nel software. E se a dirlo fosse stato un qualsiasi sviluppatore stanco di ottimizzare il backend per il millesimo ciclo di training, la notizia non avrebbe fatto rumore. Ma qui stiamo parlando del profeta dell’intelligenza artificiale generativa, il CEO di OpenAI, l’uomo che con ChatGPT ha innescato la corsa globale al cervello sintetico. L’apostolo del prompt engineering che ora si scopre… ingegnere hardware. È come se Tim Berners-Lee si mettesse a vendere modem USB nei mercatini dell’usato. O forse qualcosa di ancora più teatrale. Perché Altman non sta semplicemente dicendo che serve nuovo hardware. Sta dicendo che l’intero paradigma computazionale su cui si regge l’era moderna è sbagliato. Troppo lento. Troppo inefficiente. Inadeguato a contenere l’intelligenza artificiale che lui stesso ha evocato.
Il mercato degli agenti AI ha appena raggiunto un nuovo picco di sofisticazione, un’arena dove la tecnologia non si limita più a supportare, ma plasma attivamente ogni aspetto della nostra vita digitale. Se luglio 2025 fosse una playlist, sarebbe un mix di infrastrutture robuste, magie video, automazioni pratiche e assistenti creativi che sembrano usciti da un film di fantascienza.
Partiamo dalle fondamenta: l’infrastruttura AI. Bright Data, Lambda Labs e CoreWeave non sono solo nomi da nerd, ma i pilastri invisibili che sostengono la complessità del calcolo distribuito. Bright Data, con la sua rete globale di proxy intelligenti, consente di raccogliere dati in tempo reale come un detective digitale, mentre Lambda Labs offre potenza computazionale su misura per modelli di intelligenza artificiale, quasi un cloud che pensa. CoreWeave, invece, fa il lavoro sporco di accelerazione GPU, una vera e propria Ferrari per il training di reti neurali massive. Senza questa triade, nessuna delle meraviglie successive sarebbe possibile.
C’era una volta un sogno da mille miliardi di dollari. Una favola high-tech, recitata in loop tra i neon di Menlo Park e le terrazze panoramiche di Manhattan, alimentata da venture capitalist che giocano a fare i profeti e da executive che confondono il pitch con la realtà. Il nome del miracolo era intelligenza artificiale generativa. E se per un attimo vi è sembrato di vivere la nuova età dell’oro dell’innovazione, era solo perché il marketing ha superato la fisica.
Era il 2023 quando i modelli linguistici diventavano la nouvelle vague della Silicon Valley. Le slide di Satya Nadella facevano impallidire quelle di Jobs, e Sam Altman veniva paragonato a Galileo, ignorando che almeno Galileo aveva torto su meno cose.
Benvenuti in questa nuova sezione di Rivista AI, dove ci immergiamo in un confronto diretto con i C-level delle imprese più innovative, per approfondire visioni strategiche, sfide del presente e prospettive future. Oggi abbiamo il piacere di presentare un’intervista esclusiva con Hammad Hussain Commercial e Technology Strategy Director di Oracle. In un mercato dove l’AI è spesso avvolta in un “mantra imprescindibile” e “promesse altisonanti”, Hammad Hussainsi distingue per la sua sincerità disarmante nel raccontare quanto sia difficile far comprendere il vero potenziale e le capacità reali dell’AI.
Il paradosso è evidente: Oracle ha reso i suoi prodotti AI “semplici, quasi banali da usare”, eppure “rendere semplice l’adozione resta una sfida”. Questo suggerisce che il vero ostacolo non è più la tecnologia in sé, che si è evoluta fino a essere incapsulata in interfacce user-friendly e automatizzate, bensì la “cultura e la strategia che ci stanno dietro”. L’AI è paragonabile a un “superpotere tecnologico che nessuno sa ancora bene come integrare nel proprio arsenale aziendale” senza il rischio che diventi un “semplice gadget costoso o una moda passeggera”.
Il team di AI Value Services ha un ruolo duplice e intrinsecamente pragmatico:
Educare e facilitare l’adozione: Aiutare i clienti a superare la diffidenza e l’incertezza che ancora permeano molti progetti AI.
Guidare strategicamente: Non si tratta più di “provare” o “sperimentare”, ma di “attivare” l’AI, una parola che suona più concreta e meno fumosa, e che è il segreto per superare le incertezze.
Questa visione si distingue per la capacità di Oracle di “tradurre la complessità in valore tangibile”, fungendo da “cuscinetto tra la promessa e la realtà” dell’AI. Hammad sottolinea che le “proposizioni che si vendono meglio” sono una naturale conseguenza di un lavoro che parte dall’interno dell’azienda e arriva ai clienti finali, creando un “circolo virtuoso in cui la conoscenza tecnica diventa leva di business e la strategia si nutre di feedback continui”.
La funzione di “facilitatore di adozione” sta diventando una figura chiave nell’economia digitale, un “ambasciatore tra due mondi”: quello della tecnologia pura e quello dell’impresa reale, con le sue resistenze e priorità.
L’obiettivo è trasformare questa “facilità” promessa in “risultati concreti, misurabili e soprattutto sostenibili nel tempo”, costruendo fiducia nella tecnologia e nel suo valore strategico. Il team incarna l’arte di “saper leggere, interpretare e soprattutto guidare il cambiamento”.
Reddit compie vent’anni e, come ogni adulto con qualche cicatrice, ha capito che la gloria non basta: serve monetizzarla. Quel grande archivio anarchico di pensieri brutali, consigli troppo sinceri, shitposting geniale e confessioni da insonnia sta per essere impacchettato, etichettato e messo in vendita all’asta dell’intelligenza artificiale. Perché no? Se perfino i diari segreti sono diventati contenuto estraibile, Reddit è semplicemente il prossimo petrolio sociale da trivellare.
Il tempo delle dichiarazioni di superiorità assoluta, delle IA blindate e delle presentazioni pirotecniche è finito. Baidu, il gigante di Pechino che fino a ieri si atteggiava a custode geloso del proprio tesoro algoritmico, ha compiuto una virata spettacolare quanto inevitabile: ha rilasciato in open source dieci varianti del suo modello Ernie 4.5 su Hugging Face, con taglie che vanno da una snella 0.3 miliardi di parametri fino al mastodonte da 424 miliardi. È come se Microsoft si mettesse a regalare copie di Windows, con tanto di codice sorgente e manuale d’uso allegato.
Eppure, meno di un anno fa, Robin Li, CEO di Baidu, dichiarava pubblicamente che “gli LLM open source non potranno mai eguagliare la potenza dei nostri modelli proprietari”. Chissà se oggi rilegge quelle frasi con un sorriso ironico o con l’amaro in bocca. Ma una cosa è certa: nel panorama AI cinese si è rotto un argine, e la diga dell’open source ora travolge anche chi voleva dominare la partita a porte chiuse.
Per anni ci siamo raccontati che i dati fossero il nuovo petrolio. Una narrazione comoda, elegante, quasi poetica, che dava un senso alle guerre silenziose combattute a colpi di privacy policy e scraping selvaggi. Ma mentre l’industria dell’intelligenza artificiale entra in una fase muscolare, fatta di centri dati da miliardi e chip che costano quanto miniere d’oro, una nuova verità emerge, brutale e ineludibile: è il compute, non i dati, a decidere chi guida e chi insegue.
Il report di Konstantin Pilz, James M. S., Robi Rahman e Lennart Heim, che analizza oltre 500 supercomputer AI tra il 2019 e il 2025, è una specie di radiografia del cuore pulsante dell’economia cognitiva. Altro che narrativa da laboratorio accademico. Qui si parla di infrastrutture pesanti, di consumi energetici che rivaleggiano con piccole nazioni, e di una concentrazione di potere computazionale che fa impallidire anche i più accaniti critici del capitalismo digitale.
Il trend più impressionante? Le performance di calcolo stanno raddoppiando ogni 9 mesi. Avete letto bene: siamo in un’era in cui la velocità con cui raddoppiano le capacità computazionali supera persino la mitica Legge di Moore. E ogni raddoppio non è un semplice upgrade. È un salto quantico che permette ad alcune entità poche, selezionatissime di costruire modelli sempre più grandi, sempre più potenti, sempre più inaccessibili.
Benvenuti nel futuro dell’istruzione, dove le lavagne si trasformano in chatbot, le verifiche si scrivono da sole e l’insegnante è assistito da un’intelligenza artificiale che sa tutto, ma con un’interfaccia amichevole e un sorriso sintetico. Google ha appena lanciato una serie di aggiornamenti per la sua piattaforma Classroom, e il messaggio è chiaro: l’educazione tradizionale è morta, viva l’educazione algoritmica. Al centro dell’evoluzione ci sono le nuove funzionalità di Gemini AI, che non si limitano più a un pubblico adulto, ma aprono ufficialmente le porte ai minori, sdoganando l’idea che anche lo studente delle medie possa avere un assistente cognitivo personale. Chi ha detto che l’AI non è una questione per bambini?
Il nuovo report della Commissione Europea è un documento lungo, denso e (per una volta) non completamente inutile. Più di 160 pagine per dire una cosa semplice: l’Europa non controlla il futuro dell’AI generativa. E rischia di non controllare nemmeno il proprio. Sì, perché GenAI non è solo un giocattolo per startup americane con troppi soldi e zero etica. È una macchina che riscrive i fondamentali di tutto: produttività, cultura, lavoro, sovranità. E noi? Stiamo ancora litigando sul GDPR.
La Commissione, in un raro momento di lucidità strategica, ha capito che GenAI non può essere solo regolata. Deve essere anche prodotta, ospitata, posseduta. Il report lancia un’allerta chiara: senza infrastrutture europee, dataset europei e modelli fondativi europei, non stiamo governando la tecnologia. La stiamo subendo. Perché puoi scrivere tutte le leggi che vuoi, ma se il modello lo allena OpenAI su un cluster NVIDIA finanziato da Microsoft, allora stai solo recitando il ruolo del regolatore. E pure male.
Non chiamatela solo “sostituzione tecnologica”, perché la Cina non sta semplicemente cercando alternative ai chip americani. Sta costruendo un nuovo culto della resilienza artificiale, e lo sta facendo con una determinazione che gronda di strategia industriale, orgoglio sovranista e calcolo geopolitico. La notizia che Sophgo, produttore cinese di semiconduttori, abbia adattato con successo la sua compute card FP300 per far girare il modello di ragionamento DeepSeek R1, non è un semplice annuncio tecnico. È un atto di guerra, anche se siliconica. È l’ennesimo tassello del grande mosaico che Pechino sta costruendo per liberarsi dal giogo delle GPU Nvidia e dall’ecosistema software che, fino a ieri, sembrava imprescindibile per chiunque volesse fare intelligenza artificiale ad alto livello.
Non è più solo una questione di silicio o di tensor core. È guerra di algoritmi, di efficienze marginali e di controllo capillare del runtime delle intelligenze artificiali. Nvidia, nel silenzio assordante delle operazioni senza clamore, ha messo a segno l’ennesimo colpo di precisione chirurgica: l’acquisizione di CentML, una startup canadese che sa rendere l’AI meno assetata di energia, più veloce e persino più economica. Tradotto per gli umani: Nvidia ha comprato una leva per moltiplicare il valore del proprio monopolio, abbassandone il costo apparente.
L’ottimizzazione dell’AI è diventata il nuovo petrolio del deep learning. Non basta più avere i chip più potenti, bisogna anche saperli sfruttare fino all’ultimo ciclo di clock, compressare i modelli, minimizzare la latenza, prevedere il carico di lavoro, riordinare il codice intermedio. In pratica, bisogna fare quello che facevano i bravi ingegneri nei primi anni ‘80, solo che ora si chiama “compiler-level model optimization” e si vende come deeptech con valutazioni da Serie A. CentML, fondata nel 2022, ha raccolto più di 30 milioni di dollari da nomi che ormai suonano come un mantra per l’élite dell’AI: Radical Ventures, e sì, anche Nvidia stessa. Perché oggi le grandi aziende tech investono nei loro futuri acquisti come si fa con i fondi pensione: alimentano ciò che un giorno diventerà strategicamente inevitabile da inglobare.
Se un’auto parte da una fabbrica senza che nessuno la guidi, attraversa parcheggi, svincoli e quartieri suburbani e arriva a casa del suo nuovo proprietario… chi è il conducente? Chi ha preso le decisioni? Chi ha firmato l’assicurazione? E soprattutto: cosa resta di noi, esseri umani, in un mondo dove anche le macchine sanno dove andare senza di noi?
L’ultimo show tecnologico di Elon Musk non è solo un video ben montato su X, la sua piattaforma social sempre più distopica. È una dichiarazione bellica. Un siluro contro le logiche arcaiche che ancora incatenano l’industria automobilistica al mito dell’uomo al volante. Una Tesla si è auto-consegnata, guidandosi da sola dalla Gigafactory in Texas fino al vialetto del suo nuovo proprietario. Niente pilota. Nessuna supervisione umana visibile. Solo asfalto, codice e arroganza ingegneristica.
Elon Musk ha riaperto il fuoco contro il nuovo disegno di legge sostenuto da Donald Trump, etichettandolo come “folle e distruttivo”, accusandolo di voler “distruggere milioni di posti di lavoro in America e causare un danno strategico immenso al Paese”. Il bersaglio delle critiche non è (più) Trump in persona, ma il contenuto del cosiddetto Big Beautiful Bill, versione aggiornata presentata al Senato, che penalizza con decisione il settore delle energie rinnovabili.
“Ho una sensazione viscerale, come se qualcuno fosse entrato in casa nostra e avesse rubato qualcosa.” No, non è la scena madre di un film di mafia. È una frase vera. E l’ha scritta Mark Chen, Chief Research Officer di OpenAI, in un memo infuocato allo staff. Non si parlava di algoritmi rubati, né di breach informatici. Parliamo di qualcosa di più importante, oggi: cervelli.
Nel giro di una settimana, Meta ha assunto otto ricercatori di punta di OpenAI. Non stagisti. Non junior. Ricercatori veri, alcuni dei quali coinvolti nei progetti fondamentali su RLHF, alignment, ottimizzazione dei transformer e interpretabilità. Gente che, per intenderci, non si licenzia perché vuole “fare un’esperienza nuova”. Gente che, in un altro scenario, andrebbe protetta come si fa con il segreto industriale o il codice sorgente di un motore di ricerca. Ma questa è la nuova economia dell’intelligenza artificiale: le GPU possono essere distribuite, i modelli anche, ma i talenti no. I talenti, quelli veri, restano scarsi, vulnerabili, e per questo oggetto di caccia spietata.
A Palazzo Lombardia, nel consueto salotto istituzionale dove il potere si veste da moderazione e i microfoni amplificano solo ciò che è già stato autorizzato, è andata in scena una delle rare occasioni in cui l’intelligenza artificiale è stata nominata senza scivolare nella fiera delle ovvietà. Il 23 giugno scorso, durante l’evento Salute Direzione Nord promosso da Fondazione Stelline, davanti a nomi che definire altisonanti è ormai protocollo – la vicepresidente del Senato Licia Ronzulli, il presidente di Regione Attilio Fontana, il ministro della Salute Orazio Schillaci – il vero protagonista non aveva cravatta ma codice: l’AI nella sanità.
Diciamolo subito. Quando un’infrastruttura come Seeweb prende il microfono e parla di medicina, qualcuno alza il sopracciglio. Quando però il CEO Antonio Baldassarra comincia a parlare di diagnostica per immagini e tumore ovarico non con la solita cautela da convegno, ma come chi sa perfettamente cosa si può fare oggi, allora il sospetto si trasforma in attenzione. Perché è chiaro che non siamo più nel territorio delle ipotesi ma della realtà, quella concreta, fatta di pixel che salvano vite.
Basta con le promesse gonfiate da pitch deck e post su LinkedIn infarciti di buzzword. Questi non sono “tool carini con l’AI”, ma veri acceleratori di crescita. Li stanno usando le squadre che non solo sopravvivono alla tempesta tecnologica, ma ci fanno surf sopra. Se non li stai testando, qualcuno li sta già usando contro di te.
Ecco la nostra shortlist di giugno. Non è SEO bait. È il tuo prossimo piano operativo.
Molti stanno ancora usando l’intelligenza artificiale come se fosse il 2023. Copia-incolla il prompt, attendi, copia-incolla la risposta. E si illudono di “fare AI”. In realtà, stanno solo imbalsamando l’inerzia digitale con nastro adesivo tecnologico. Nessuna trasformazione, solo un workflow zoppo travestito da innovazione. Se sei davvero intenzionato a entrare nel futuro della produttività AI-driven, smetti di dialogare con i chatbot come se fossero oracoli di carta stagnola e inizia a costruire sistemi intelligenti, automazioni reali, e infrastrutture cognitive.
Ecco perché questa lista di 30 strumenti AI suddivisi per funzione non è una “raccolta di app”, ma una cassetta degli attrezzi per chi vuole smettere di giocare con l’intelligenza artificiale e cominciare a lavorarci seriamente. Sottovalutarli oggi significa essere sostituiti domani da chi li usa meglio di te.
Nel momento in cui leggi queste righe, è già troppo tardi. No, non è uno slogan da film catastrofico. È una constatazione statistica. L’avvento della superintelligenza artificiale non è più una domanda sul “se”, ma sul “quando”. E soprattutto sul “come ce ne accorgeremo”. Spoiler: non ce ne accorgeremo affatto. O meglio, lo capiremo troppo tardi, mentre compileremo entusiasti un form approvato da un agente autonomo che ci ringrazierà per aver rinunciato alla nostra capacità di decidere.
Il più grande rischio non è che la superintelligenza ci distrugga, ma che ci convinca ad amarla. O peggio: a fidarci.
È un’illusione collettiva, quasi affascinante. Due vittorie legali, un sospiro di sollievo a Menlo Park e San Francisco, e un’industria che si aggrappa a parole come “fair use” con la stessa disperazione con cui i vecchi giornali cercavano click nel 2010. Ma attenzione: i giudici hanno suonato due campanelli d’allarme e sotto la superficie di queste sentenze si agita qualcosa di molto più caustico. Altro che via libera. La giungla giuridica dell’intelligenza artificiale sta diventando un labirinto di specchi, dove ogni riflesso sembra un passaggio e invece è una trappola.
Cominciamo dalla cronaca: Anthropic ha ottenuto una sentenza favorevole da parte del giudice William Alsup, che ha definito “esageratamente trasformativo” l’uso dei libri nel training di Claude, il loro LLM. Meta, dal canto suo, ha visto respinta una causa analoga grazie al giudice Vince Chhabria, che ha dichiarato che i querelanti non sono riusciti a costruire un caso decente. Una doppietta, sulla carta. Ma come ogni CTO sa, i log non mentono: e nei log di queste due sentenze ci sono più righe di codice rosso che verde.
C’è qualcosa di profondamente inquietante nell’accendere uno schermo e ritrovarsi bombardati da video “deepfake” di disastri naturali inesistenti, animali che suonano il pianoforte con la precisione di un concertista russo, o paesaggi surreali che sembrano il peggior incubo di uno studente di Blender al primo anno. Tutto generato da intelligenza artificiale. Tutto incredibilmente brutto. Eppure, lì sotto, a fare da coro di sirene digitali, trovi centinaia, spesso migliaia di commenti che proclamano: questa è la nuova arte. Il nuovo Rinascimento, ma con più GPU e meno Leonardo.
Eccoci di nuovo: la Silicon Valley, in piena esaltazione messianica, ci dice che l’intelligenza artificiale generativa cambierà tutto. Hollywood morirà, sostituita da prompt testuali e diffusione latente. I film verranno “scritti” in una riga, girati da modelli e renderizzati in 4K mentre ci prepariamo il caffè. Sembra una trama scritta da un algoritmo. In effetti, lo è. La realtà però, come sempre, è meno glamour: la maggior parte di questi video sembrano il risultato di un’interferenza su un vecchio televisore analogico, con l’estetica confusa di una copia corrotta di The Sims e il ritmo narrativo di un video TikTok da tre secondi.
Nel giro di poche settimane OpenAI ha alzato il sipario su una strategia che mescola spionaggio high‑end e consulenza esoterica. Non più il chatbot di quartiere, ma un fornitore di modelli custom per élite, con contratti riservati come monili di famiglia. Il piatto forte? Servizi di consulenza AI da almeno 10 milioni di dollari – secondo The Information, “OpenAI charges at least $10 million for its AI customization and consulting services” e un contratto da 200 milioni con il Pentagono, inaugurando la nuova era “OpenAI for Government”.
Alex gioca a morra cinese con il pensiero. Non è un’iperbole, non è una campagna marketing da serie Netflix. È la seconda persona al mondo con un chip Neuralink nel cervello e, stando a quanto mostrato pubblicamente, riesce a muovere una mano robotica virtuale scegliendo mentalmente tra “sasso, carta, forbice” in tempo reale. Niente controller, niente voce, niente interfaccia visiva. Solo intenzione.
Lentamente, in modo grottesco e inevitabile, stiamo disimparando a usare le mani. Prima la tastiera, poi lo schermo touch, poi la voce, ora il pensiero. In questa progressione degenerativa dell’interazione uomo-macchina, qualcosa di profondo si agita: l’idea che l’interfaccia stessa sia un ostacolo da rimuovere. Non più strumento, ma barriera.
Quando una rivoluzione tecnologica comincia a dipendere da ciò che pensa un giudice di Manhattan, significa che qualcosa è andato storto. Oppure, molto semplicemente, che stiamo entrando nella seconda fase dell’AI economy: quella in cui la creatività smette di essere un combustibile gratuito e diventa oggetto di una causa civile. O, per dirla con le parole del Wall Street Journal, “The legal fight over AI is just getting started — and it will shape the entire industry”. Sottotitolo implicito: le big tech sono già nel mirino, e l’odore di sangue ha attirato avvocati da Los Angeles a Bruxelles.
No, non è l’ennesima trovata di marketing agrodolce di una Big Tech in cerca di visibilità sanitaria. E no, non è nemmeno l’ennesimo paper accademico con risultati straordinari ma inapplicabili. Il modello “Grape”, sviluppato da Alibaba insieme allo Zhejiang Cancer Hospital, rappresenta qualcosa di molto più profondo: un colpo strategico che potrebbe ribaltare le regole della diagnosi oncologica, non solo in Cina ma nel mondo intero. A patto che sappiamo leggerne le implicazioni.
L’acronimo è abbastanza chiaro, quasi ingenuo: Gastric Cancer Risk Assessment Procedure. Ma dietro questa semplificazione si nasconde un deep learning model capace di analizzare scansioni TC tridimensionali e identificare i segni del cancro gastrico anche negli stadi precoci. E quando diciamo “capace”, intendiamo con sensibilità dell’85,1% e specificità del 96,8%. Numeri che ridicolizzano la performance media dei radiologi umani, soprattutto se si considera che il margine di miglioramento in diagnosi precoce supera il 20%. Un salto quantico. Un upgrade di civiltà, se vogliamo forzare il concetto.
C’è un elefante nella stanza, e ha la forma di una piattaforma legacy impolverata, circondata da MVP patchwork che fingono di essere innovazione. Mentre le direzioni IT si affannano a dimostrare che l’intelligenza artificiale generativa non è solo una demo ben fatta, McKinsey & Company ha fatto quello che pochi avevano il coraggio (o il cinismo) di fare: ha analizzato oltre 150 deployment GenAI in ambienti enterprise. Non sandbox. Non hackathon. Ambienti reali, con budget veri e KPI spietati. Il risultato? Una verità brutale, ma liberatoria. Il problema non è l’LLM. È la tua piattaforma.
Unlocking the potential of dual-use research and innovation –
Ti svegli e la nuova frontiera non è la base militare ma il tuo data center. L’ultimo report della European Commission su dual use non fa diagnosi: fa un’iniezione di realtà direttamente nel cervello dell’innovazione europea. Civilian tech is the frontline? No, non è una frase fatta: è letteralmente quello che siamo diventati.
Qualche fatto fresco? La prima è che gli investimenti in tecnologie difensive in Europa hanno toccato un record di 5,2 miliardi di dollari nel 2024, con un aumento del 24% rispetto all’anno precedente. Un segnale che, finalmente, l’intero continente sta rispondendo con i fatti, non solo con conferenze e white paper. Eppure la consapevolezza strategica è ferma al palo: dual-use è visto come un intralcio normativo, e non come il vantaggio competitivo che è diventato.
L’Italia ha fatto qualcosa di inaspettato. Per una volta, non è arrivata ultima. Il 25 giugno 2025, la Camera dei Deputati ha approvato il DDL 2316 sull’intelligenza artificiale, rendendo il Bel Paese il primo in Europa a dotarsi di una legge nazionale organica sull’AI. Sì, proprio l’Italia, quel laboratorio instabile dove le leggi spesso si scrivono per non essere applicate, ha anticipato Bruxelles. E ha pure infilato dentro un fondo da un miliardo di euro. Ora, tra entusiasmi da ufficio stampa e panico da compliance, c’è una domanda a cui nessuno ha ancora risposto seriamente: questa legge fa nascere un ecosistema o lo stermina?
Non chiamateli influencer. Anzi sì, ma fatelo con un certo rispetto. Perché dietro ogni post su LinkedIn, ogni thread apparentemente casuale su quanto sia figo il nuovo fondo pre-seed “climate & quantum aware”, si nasconde un’aristocrazia silenziosa del capitale di rischio italiano che ha finalmente capito che visibilità è potere. Non nel senso hollywoodiano del termine, ma in quello brutalmente operativo: deal flow, selezione, attrazione di LP. Nel 2025 il venture capital in Italia non si muove più solo dietro le quinte. Si espone. E la classifica di Favikon lo conferma: 20 nomi che contano più di una policy di Invitalia e di cinque pitch a SMAU messi insieme.