Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Wimbledon ha licenziato l’umanità: l’intelligenza artificiale fischia, sbaglia e zittisce anche i sordi

C’era una volta il tennis, quello con i giudici di linea in giacca e cravatta, gli occhi fissi sulla riga e il dito puntato con autorità olimpica. Ora c’è un algoritmo che osserva tutto, non sbatte mai le palpebre e fa errori con la freddezza di un automa convinto di avere ragione. Sì, Wimbledon ha deciso che l’intelligenza artificiale è più elegante dell’occhio umano. Ma quando l’eleganza scivola sull’erba sacra del Centre Court, il rumore che fa è assordante. Anche se a non sentirlo, ironia del caso, sono proprio i giocatori sordi.

Huang Fei: i colleghi digitali sono già tra noi, solo che ancora non timbrano il cartellino

Prepariamoci: nei prossimi cinque anni i colleghi più infaticabili, discreti e onnipresenti non avranno un badge aziendale, né parteciperanno a call settimanali, né consumeranno il caffè della macchinetta. Saranno entità digitali, agenti AI autonomi e scalabili, in grado di fare tutto ciò che oggi richiede un middle manager, un junior developer e, perché no, anche un buon customer care specialist. L’ha detto Huang Fei, vice-presidente di Alibaba Cloud e capo del laboratorio NLP Tongyi, durante la China Conference 2025. Ma non ci voleva un oracolo per prevederlo: bastava osservare le onde lunghe dell’evoluzione algoritmica degli ultimi 24 mesi.

Trump gioca a risiko con le tariffe: il nuovo show economico globale

Sembra la sceneggiatura di una serie HBO andata fuori controllo: attori ricorrenti, plot twist prevedibili ma sempre rumorosi, e un protagonista che annuncia “nessuna proroga” per poi concederne una con l’entusiasmo di un venditore di multiproprietà a Las Vegas. Donald Trump è tornato, con la delicatezza di un bulldozer in cristalleria, a minacciare il mondo con la sua visione distorta del “reciprocal trade”. E questa volta, giura, fa sul serio. Almeno fino a quando non cambia idea.

La scadenza, che avrebbe dovuto essere il 9 luglio, è magicamente slittata all’1 agosto. Ma non chiamatela retromarcia: è “una scadenza ferma, ma non al 100% ferma”. In pratica, una definizione che in logica quantistica potrebbe avere un senso. Per Trump, invece, è solo l’ennesima mossa nel suo reality geopolitico preferito: mettere i partner commerciali uno contro l’altro, minacciarli con tariffe del 25% o più, e poi dare loro la possibilità di salvarsi con un’offerta last minute. Non un piano economico, ma una roulette diplomatica. E nel frattempo, i mercati oscillano come ubriachi su una nave in tempesta.

‘One Big Beautiful Bill’ potrebbe incrementare il flusso di cassa libero di Oracle e Microsoft, secondo Evercore

Immaginate di poter mettere a bilancio i vostri sogni e ricevere un bonus fiscale per ogni buona intenzione. Adesso immaginate di essere Microsoft o Oracle, e che i vostri sogni coincidano con miliardi di dollari in spese di ricerca e data center. Voilà: benvenuti nella “One Big Beautiful Bill”, l’ultima trovata di Washington, che di bello ha soprattutto il modo in cui trasforma una riga di codice in una valanga di liquidità. Sì, perché mentre la maggior parte dei contribuenti continua a compilare moduli, certe aziende tech si preparano a incassare una delle più silenziose ma potenti redistribuzioni fiscali dell’era moderna.

Mark Cuban ha lanciato un messaggio potente: sarà l’intelligenza artificiale a creare il primo trilionario.

Forse “un tizio in un seminterrato”, ha detto, che deciderà di cambiare per sempre il mondo, armato solo di una buona idea e una GPU di seconda mano.

Nel podcast “High Performance”, il miliardario texano ha spiegato come ci troviamo solo nella “preseason” dell’AI. Paragonando la situazione attuale all’alba dei personal computer o degli smartphone, ha disegnato uno scenario in cui il vero impatto della tecnologia deve ancora manifestarsi.

Secondo lui, tra cinque anni il cambiamento sarà così profondo da stravolgere completamente la nostra percezione del lavoro, del business, perfino della creatività.

Il futuro del cloud in Italia e in Europa

Quando si parla di “cloud europeo” la retorica prende il volo, i comunicati si moltiplicano e le istituzioni si affannano a mostrare che, sì, anche il Vecchio Continente può giocare la partita con i big tech americani. Ma basta grattare appena sotto la superficie per accorgersi che, mentre si organizzano convegni dal titolo vagamente profetico come “Il futuro del cloud in Italia e in Europa”, il futuro rischia di essere una replica sbiadita di un presente già dominato altrove. L’evento dell’8 luglio, promosso da Adnkronos e Open Gate Italia, ha messo in scena l’ennesimo tentativo di razionalizzare l’irrazionale: cioè la convinzione che l’Europa possa conquistare la sovranità digitale continuando a delegare le sue infrastrutture fondamentali agli hyperscaler americani. A fare gli onori di casa, nomi noti come Giacomo Lasorella (Agcom) e Roberto Rustichelli (Agcm), professori universitari esperti di edge computing, rappresentanti delle istituzioni europee e naturalmente AWS e Aruba, i due lati della stessa medaglia: chi fa il cloud globale e chi prova a salvarne un pezzetto per sé.

Context Engineering, ovvero l’arte segreta di domare l’LLM prima che ti mangi vivo

L’intelligenza artificiale non dimentica mai, e questo è il problema. Da quando i Large Language Models hanno imparato a “ragionare” come agenti autonomi – interagendo con strumenti, prendendo decisioni, riflettendo su ciò che hanno fatto due minuti prima – l’ingombro informativo è diventato il loro tallone d’Achille. Benvenuti nel regno oscuro del context engineering, la disciplina meno sexy ma più strategica della nuova ingegneria dei sistemi intelligenti. Perché puoi avere anche il modello più brillante del mondo, ma se gli butti addosso un torrente ininterrotto di token inutili, diventa stupido come un autore di contenuti SEO generati nel 2019.

La questione è brutale: ogni LLM ha una finestra di contesto (context window), cioè una quantità limitata di testo che può “ricordare” per ogni richiesta. Superata quella soglia, il modello non dimentica: semplicemente impazzisce. E quando succede, arrivano le allucinazioni, i comandi errati, i tool usati a casaccio, risposte fuori tema, promesse non mantenute. Hai presente quando un agente AI dice di aver già fatto qualcosa… che non ha mai fatto? È l’equivalente neurale di un manager che giura di aver mandato l’email, ma non l’ha nemmeno scritta. Context poisoning allo stato puro.

La rivoluzione Copilot Plus sbarca finalmente sui pc desktop, ma non grazie a Microsoft

E così, dopo un anno intero passato a guardar sfilare con invidia i notebook “Copilot Plus” in vetrina, come ragazzini fuori da un Apple Store, ecco che anche i desktop PC iniziano a fiutare il profumo dell’intelligenza artificiale locale. Non perché Microsoft abbia cambiato idea, ovviamente. Ma perché Intel ha deciso che è ora di smettere di fare figuracce e dare finalmente ai suoi chip una NPU che non sembri uscita dal 2018. La svolta si chiama Arrow Lake Refresh, ed è un nome tanto poco sexy quanto potenzialmente epocale per chi ancora crede che un tower sotto la scrivania non sia un pezzo d’antiquariato.

Chi costruisce l’intelligenza artificiale americana: i 100 miliardi di watt che stanno riscrivendo il potere

C’è qualcosa di poetico nel fatto che l’intelligenza artificiale, la più incorporea delle rivoluzioni, stia cementificando il pianeta sotto milioni di tonnellate di acciaio, cavi in fibra ottica e turbine ad alta tensione. Mentre i visionari della Silicon Valley vendono algoritmi come se fossero fuffa mistica, la vera guerra si combatte nei deserti texani, nelle paludi della Louisiana, nei freddi angoli dell’Oregon, dove i data center HPC si moltiplicano come formicai radioattivi. Altro che nuvola: qui servono ettari di cemento, interi bacini idrici, e il consumo energetico di nazioni intere per far girare LLM e modelli AI che promettono di capire l’animo umano, ma non riescono ancora a distinguere tra una banana e un cacciavite in un’immagine sfocata.

Il grande collasso silenzioso del chip: perché la siccità potrebbe rompere internet entro il 2035

L’acqua, quella banale, trasparente, liquida comodità che scorre dal rubinetto, potrebbe diventare la leva di Archimede capace di spostare o far crollare l’intera economia digitale globale. Non stiamo parlando dell’idrogeno verde o della corsa al litio, ma di rame. E della sete insaziabile che questo metallo ha per farsi estrarre e raffinare. Nel 2035, se le proiezioni del nuovo rapporto PwC si rivelassero corrette, fino a un terzo della produzione mondiale di semiconduttori potrebbe essere compromessa dalla scarsità d’acqua. Non per una guerra, non per un attacco informatico. Ma per una banale, prevedibile, ignorata siccità.

Il rame è il sangue invisibile che scorre dentro ogni chip. Serve a costruire i minuscoli filamenti che connettono le logiche interne dei processori, come vene digitali in circuiti cerebrali artificiali. L’estrazione di questo metallo però è tutto tranne che virtuale: servono oltre 1.600 litri d’acqua per produrne appena 19 chili. Tradotto: un SUV intero di molecole d’acqua per realizzare il rame necessario a una manciata di componenti che faranno girare i server dell’intelligenza artificiale, i radar delle auto autonome, le lavatrici intelligenti e i prossimi smartphone pieghevoli. Più che industria hi-tech, sembra agricoltura idrovora.

La grande bugia dell’AI coraggiosa: perché le macchine si credono tutte dei Ravenclaw

Se le AI fossero studenti di Hogwarts, il dormitorio di Ravenclaw sarebbe così affollato da sembrare un datacenter di Google sotto stress. Undici modelli su diciassette, infatti, si sono assegnati il 100% alla casa degli intellettuali, dei sapientoni, dei topi da biblioteca col senso dell’umorismo criptico. Nessuno ripetiamo, nessuno si è identificato in Gryffindor, la casa di Harry Potter, quella dei coraggiosi. Nemmeno un briciolo di audacia. I modelli linguistici di ultima generazione, secondo l’esperimento condotto dallo sviluppatore “Boris the Brave”, sembrano avere un solo tratto dominante: l’ossessione per il pensiero razionale, la preferenza per la mente sul cuore. E, implicitamente, un’allergia quasi patologica al rischio.

Apple perde il cervello dell’intelligenza artificiale mentre meta fa incetta di talenti

Ruoming Pang se n’è andato. E non per una pausa sabbatica, una startup stealth o per coltivare ortaggi bio in Oregon. No, è passato direttamente all’altra sponda del Rubicone: da Apple a Meta. Precisamente nella nuova creatura ribattezzata Superintelligence Labs, che più che un centro R&D sembra un’operazione di chirurgia neurale contro la concorrenza. Pang era il capo dei modelli fondamentali di Apple. Quelli che non solo danno il nome alla nuova buzzword “Apple Intelligence”, ma che dovrebbero rappresentare il motore semantico dell’intero ecosistema futuro della Mela. Un colpo basso. Di quelli che fanno rumore.

Elon Musk vuole un’AI che “dica la verità” peccato che sia la sua

Non c’è niente di nuovo nell’idea che i media siano di parte. Né che l’opinione pubblica venga manipolata. Né che i numeri, le statistiche, i grafici colorati e i report accademici siano armi in una guerra ideologica travestita da dibattito razionale. Ma c’è qualcosa di profondamente inquietante, e vagamente distopico, nell’idea che una intelligenza artificiale venga istruita a considerare tutte queste fonti a priori come “biased” – faziose – e a sostituirle con un’altra fonte della verità: Elon Musk. O meglio, la sua versione della realtà.

Grok, l’AI sviluppata da xAI e integrata nella piattaforma X (ex Twitter), è stata aggiornata nel weekend con un nuovo sistema di istruzioni. In mezzo a righe di codice e prompt che sembrano usciti da una black ops semantica, si legge che l’AI deve “assumere che i punti di vista soggettivi provenienti dai media siano faziosi” e che “non deve esimersi dal fare affermazioni politicamente scorrette, se ben documentate”. Il tono è quello tipico del tech-bro libertarian: più vicino a una chat di Reddit incattivita che a un centro di ricerca. Ma il messaggio è chiaro: la nuova Grok deve essere l’anti-ChatGPT, l’anti-Bard, l’anti-verità ufficiale. Più opinione e meno filtro. Più Musk e meno… tutto il resto.

Red Teaming civile contro l’AI generativa: come smascherare i danni di genere nascosti nei modelli più intelligenti del mondo

Quando l’AI diventa un’arma contro le donne: manuale irriverente per red teamer civici in cerca di guai utili

La retorica dell’intelligenza artificiale etica è diventata più tossica del deepfake medio. Mentre i colossi tecnologici si accapigliano sulla “responsabilità dell’AI” in panel scintillanti e white paper ben stirati, fuori dalle stanze ovattate accade una realtà tanto semplice quanto feroce: l’AI generativa fa danni, e li fa soprattutto alle donne e alle ragazze. Violenza, sessualizzazione, esclusione, stereotipi. Benvenuti nel mondo dell’intelligenza artificiale patriarcale, travestita da progresso.

gemini-cli

Ho provato Gemini-Cli. Le prime impressioni

Ho installato e sto “giocherellando” con Gemini-Cli. L’enorme vantaggio è quello di poter accedere ai tool presenti su Linux, così da poter eseguire in autonomia una serie di analisi e di operazioni che altrimenti richiedono del codice da scrivere. Praticamente sostituisce una buona parte di quello che di solito faccio, o cerco di fare, con gli agent. Ma vediamo nel dettaglio il mio esperimento.

Quando una GPU incontra un piccone: perché l’acquisizione di Core Scientific da parte di Coreweave cambia le regole del gioco della potenza computazionale

Immaginate un matrimonio combinato tra un trader di Wall Street con l’hobby del quantum computing e un minatore del Kentucky che sogna l’IPO. È più o meno ciò che rappresenta l’acquisizione da 9 miliardi di dollari proposta da CoreWeave (NASDAQ:CRWV) ai danni sì, ai danni di Core Scientific (NASDAQ:CORZ), storico operatore del settore crypto mining che ora si ritrova a giocare un ruolo da protagonista in una partita molto più sofisticata: l’ascesa del data center hyperscale nel contesto dell’intelligenza artificiale generativa. Altro che ASIC e proof-of-work, qui si parla di orchestrazione di workload ad alta densità per LLM e training su larga scala. Benvenuti nella fase 2 dell’era post-cloud.

La guerra secondo l’algoritmo: perché l’Europa combatte ancora con le slide

Si continua a parlare di rivoluzioni militari come se fossero aggiornamenti software, con l’entusiasmo di un product manager davanti a un nuovo rilascio beta. Droni, intelligenza artificiale, guerre trasparenti e interoperabilità digitale sono diventati il mantra ricorrente dei think tank euro-atlantici. La guerra, ci dicono, è cambiata. Il campo di battaglia sarebbe ormai un tessuto iperconnesso dove ogni oggetto emette segnali, ogni soldato è una fonte di dati, ogni decisione è filtrata da sensori, reti neurali e dashboard. Tutto bello, tutto falso.

Sul fronte orientale dell’Europa, tra gli ulivi morti e le steppe crivellate di mine, la realtà continua a parlare un’altra lingua. La lingua della mobilità corazzata, del logoramento, della saturazione d’artiglieria e, sì, anche della carne. In Ucraina si combatte come si combatteva a Kursk, con l’unica differenza che oggi il drone FPV è la versione democratizzata dell’artiglieria di precisione. Il concetto chiave, però, resta lo stesso: vedere, colpire, distruggere. Con un twist: adesso si può farlo a meno di 500 euro e senza bisogno di superiorità aerea.

MTHFR A1298C Hai già sentito questa storia, la sentirai di nuovo ed è proprio questo il problema

Un paziente. Dieci anni di visite, esami, specialisti. Nessuna diagnosi. Una spirale fatta di attese, protocolli generici e “proviamo con questo integratore e vediamo”. Poi, una sera, qualcuno inserisce la storia clinica nel prompt di ChatGPT. Referti ematici, sintomi vaghi, un elenco di visite e diagnosi fallite. E la macchina suggerisce, con la naturalezza di chi ha letto tutto PubMed, una mutazione genetica: MTHFR A1298C. Mai testata da nessun medico del Sistema Sanitario Nazionale.

Aggiunge persino un suggerimento terapeutico basato su supplementazione mirata e gestione dell’omocisteina. Non solo aveva senso. Ha funzionato.

Entro il 2030 l’intelligenza artificiale potrebbe distruggere la nozione stessa di lavoro e nessuno sta preparando il piano B

C’è un dettaglio che sfugge a molti quando si parla di large language models, quei sistemi apparentemente addestrati per generare testo umano, rispondere a domande, scrivere codice o produrre email che sembrano uscite dalle dita di un impiegato mediocre. Il punto è che questi modelli non stanno semplicemente migliorando: stanno accelerando. In modo esponenziale. E come sempre accade con l’esponenziale, la mente umana tende a fraintenderlo fino a quando è troppo tardi per rimediare. Secondo una ricerca condotta da METR (Model Evaluation & Threat Research), i LLM raddoppiano la loro capacità ogni sette mesi. Non è una proiezione teorica: è una misurazione empirica su task complessi e di lunga durata. Un LLM oggi fatica a risolvere problemi “disordinati” del mondo reale, ma tra cinque anni potrebbe completare in poche ore un progetto software che oggi richiede a un team umano un mese intero. Quarantacinque giorni in otto ore. E nessuno sembra preoccuparsene davvero.

Disambiguazione bias nella traduzione automatica come i modelli MT e LLM affrontano l’ambiguità lessicale

DIBIMT: A Gold Evaluation Benchmark for Studying Lexical Ambiguity in Machine Translation

Questo lavoro tocca un nodo cruciale e ancora sorprendentemente trascurato nel campo della traduzione automatica: l’ambiguità lessicale e il pregiudizio sistemico nella disambiguazione da parte di modelli MT e LLM. È una questione che, sotto l’apparente patina di “high BLEU performance”, nasconde un limite strutturale nei modelli encoder-decoder contemporanei, soprattutto in ambienti multilingue e con lessico polisemico.

Alcune riflessioni rapide sui punti sollevati:

Il fatto che l’encoder non riesca a distinguere efficacemente i sensi lessicali se il contesto non è esplicito, è un chiaro segno che stiamo sovrastimando la “comprensione” semantica nei transformer. Aumentare la capacità del modello non sempre migliora la rappresentazione dei significati, spesso amplifica solo la fiducia in scelte sbagliate.

La guerra fredda dell’intelligenza artificiale ha un nuovo fronte: il manifesto dei BRICS scuote l’occidente tecnologico

Nel bel mezzo della corsa globale all’intelligenza artificiale, il 6 luglio 2025, i leader dei BRICS hanno fatto qualcosa di inedito: hanno parlato chiaro. Per la prima volta, un documento congiunto e interamente dedicato alla governance dell’AI è stato rilasciato al massimo livello politico, direttamente dal summit di Rio de Janeiro.

Non una raccolta di buoni propositi, ma un testo che intende ridefinire gli assi del potere tecnologico mondiale, ponendo il Sud Globale al centro del dibattito sulla regolazione algoritmica, la sovranità digitale e l’accesso equo alle risorse computazionali.

Eppure, dietro le righe del comunicato si legge l’ambizione di scardinare l’attuale oligopolio tecnologico e riscrivere le regole del gioco a colpi di standard aperti, trasparenza algoritmica e infrastrutture condivise. Un patto tra potenze emergenti, ma con un sottotesto molto chiaro: non lasceremo che l’intelligenza artificiale diventi l’ennesimo strumento di disuguaglianza globale.

Capgemini compra WNS per $3,3 miliardi: non è outsourcing, è il grande salto dell’agentic AI

Quando Capgemini sborsa 3,3 miliardi in contanti per mettere le mani su WNS, non sta facendo una classica acquisizione da colosso del consulting assetato di quote di mercato nel Business Process Services. No, qui succede qualcosa di molto più pericoloso, e strategicamente eccitante: un salto deliberato verso un nuovo ordine operativo dominato da Agentic AI, dove le vecchie catene del BPO tradizionale si spezzano per sempre. Non è solo un’acquisizione, è una dichiarazione di guerra al modello legacy dell’efficienza incrementale. E, come sempre, i francesi lo fanno col sorriso.

Samsung affonda tra chip lenti, cinesi silenziati e intelligenza artificiale che non perdona

C’è lo racconta REUTERS se Samsung fosse un giocatore di poker, ora si troverebbe con un bel tris… di problemi. E nessuna carta vincente in mano. Mentre il mondo brucia i watt dietro a ogni bit di intelligenza artificiale, la più grande produttrice di chip di memoria al mondo si sta muovendo con l’agilità di una petroliera in una gara di jet ski. Un tempo sinonimo di innovazione implacabile, oggi Samsung arranca dietro SK Hynix e Micron, entrambi decisamente più svegli quando si tratta di cavalcare la rivoluzione dell’HBM, quelle memorie ad alta larghezza di banda che alimentano il cuore pulsante dell’IA nei data center globali.

Huawei contro tutti: la guerra sporca degli LLM e la farsa dell’open source “indigeno”

Che Huawei giochi la carta del patriottismo tecnologico non è una novità. È dal 2019 che la multinazionale cinese è inchiodata al muro delle sanzioni statunitensi, e da allora si è vestita del ruolo di simbolo della resilienza cinese, un po’ martire, un po’ profeta. Ma questa volta, la narrativa del colosso di Shenzhen si sta incrinando pericolosamente. Al centro del dramma: il nuovo modello open-source Pangu Pro MoE 72B, che la compagnia ha recentemente sbandierato come un capolavoro di sviluppo “indigeno”, realizzato sui propri chip Ascend. La parola chiave, naturalmente, è “indigeno”. E proprio lì casca l’asino.

Perché quando una misteriosa entità GitHub chiamata HonestAGI nome più satirico che casuale ha pubblicato una breve ma devastante analisi tecnica affermando che Pangu mostrava una “correlazione straordinaria” con il modello Qwen-2.5 14B di Alibaba, i sospetti hanno preso il volo come stormi di corvi digitali. Non stiamo parlando di semplici somiglianze, ma di pattern, pesi e strutture che secondo diversi sviluppatori lasciano poco spazio all’immaginazione. È l’equivalente tecnico del trovare il DNA di uno scrittore rivale nei tuoi manoscritti inediti.

OpenAI assume uno psichiatra forense: troppo tardi per prevenire la psicosi da chatbot?

Nel 2025 OpenAI ha annunciato l’assunzione di uno psichiatra forense per studiare l’impatto emotivo dell’intelligenza artificiale generativa. Una mossa che, pur se presentata come eticamente responsabile, appare tardiva e sintomatica di un approccio reattivo più che preventivo.

Già negli anni ’60 con ELIZA si intuiva il potenziale evocativo dell’interazione uomo-macchina. Dai laboratori del MIT Media Lab alle ricerche dell’AI Now Institute, esisteva una letteratura chiara sui rischi cognitivi e affettivi della simulazione dialogica. Questo articolo di Dina in collaborazione con l’eticista Fabrizo Degni analizza tale decisione alla luce della psicologia cognitiva, sociale e clinica, evidenziandone le implicazioni epistemiche e sistemiche.

Alfredo Adamo e l’arte sottile di investire: il venture capital all’italiana spiegato da chi lo pratica davvero

Ci ha invitato a prendere un caffè  un espresso in tazza grande, il mio preferito, senza che lo chiedessi niente approccio da coworking milanese e dopo cinque minuti sembrava ci conoscessimo da anni. Nessun badge, nessuna posa, solo un’intelligenza tagliente nascosta dietro una cortesia disarmante. Alfredo Adamo ti ascolta con quella calma che oggi è quasi sospetta, come se già sapesse dove andrai a parare e ti lasciasse il tempo di arrivarci da solo.

Noi di Rivista.AI siamo entrati aspettandoci il solito discorso da investitore seriale e invece ci siamo trovati davanti un hacker del sistema, uno stratega della complessità con lo sguardo da artigiano visionario. Nessun mantra da startup weekend, nessun entusiasmo forzato: solo pensiero lucido, pazienza operativa e una quantità sorprendente di cultura umanistica intrecciata alla tecnologia. Un caffè diventato viaggio mentale, tra AI, arte, capitale e futuro. E alla fine, più che un’intervista, è sembrato un debriefing tra complici.

In un ecosistema che grida “exit” come fosse l’unica parola rimasta nel dizionario del venture capital, Alfredo Adamo fa un passo di lato e, con la calma di un artigiano digitale e l’astuzia di un giocatore di scacchi da circolo, continua a costruire. Non corre, non strepita, non si vanta. Investe. E resta. La sua presenza si sente più nei sottotraccia dei pitch che negli editoriali di Forbes. Ma chi sa leggere i flussi, più che i titoli, lo ha già capito: se vuoi sapere dove sta andando l’innovazione tech in Italia, segui le rotte di Alfredo, non i botti delle exit.

La parola chiave è “persistenza”. Non quella da brochure motivazionale, ma quella rude, fatta di cene infinite con founder squattrinati, valutazioni da decimare a colpi di business plan e la santa pazienza di chi sa che prima di vendere serve costruire valore vero. Mentre gli unicorni italiani si contano ancora sulle dita di una mano, Alfredo Adamo è già oltre il mito. Ha fatto della discrezione il suo biglietto da visita, e del capitale intelligente la sua firma invisibile su decine di startup.

Quando gli altri si Azzuffano, il distributore automatico vince

Il “distributore automatico” di Anthropic è, in realtà, un esperimento che incapsula perfettamente la filosofia con cui Dario Amodei guida l’azienda: affrontare l’intelligenza artificiale non solo come una corsa alla potenza computazionale, ma come una questione esistenziale di governance, sicurezza e impatto sistemico. A prima vista, sembra quasi un aneddoto surreale, un easter egg da Silicon Valley post-pandemica: un distributore automatico alimentato da Claude, il modello linguistico di Anthropic, che consente agli utenti di interagire con l’IA per ottenere snack e riflessioni etiche in egual misura. Ma sotto la superficie giocosa, l’iniziativa è profondamente sintomatica del loro approccio distintivo: usare prototipi tangibili per testare come l’intelligenza artificiale può essere implementata responsabilmente nel mondo reale.

New York, intelligenza artificiale e arte pubblica: quando Google scolpisce specchi nel cemento

Le informazioni sono arrivate il 6 luglio 2025, ma la storia era già nell’aria da settimane. Manhattan suda, letteralmente e metaforicamente, sotto un sole di maggio che sa di agosto. Rockefeller Center pullula di turisti sudati, ragazzini viziati con frappuccino rosa e dirigenti Google con lo sguardo distaccato. Al centro della scena: una scultura che sembra uscita da un incubo LSD di Escher e Yayoi Kusama, ribattezzata con disinvoltura “un vivace labirinto di specchi”. Solo che qui, a riflettersi, non c’è solo chi guarda. C’è anche l’ombra lunga della macchina, che ha cominciato a disegnare.

La fiducia è l’interfaccia: come abbiamo smesso di chiederci perché crediamo alle macchine

La fiducia, come concetto filosofico, è sempre stata un atto rischioso. Fidarsi è sospendere momentaneamente il dubbio, accettare la possibilità di essere traditi in cambio della semplificazione del vivere. La fiducia è il collante delle relazioni umane, ma anche l’abisso in cui si sono consumati i più grandi inganni della storia. Fidarsi dell’altro significa spesso delegare la fatica del pensiero. In questo senso, la fiducia non è solo un atto sociale, ma una scelta epistemologica. Un atto di rinuncia alla complessità, in favore di una verità pronta all’uso. E ora che l’“altro” non è più umano, ma una macchina addestrata su miliardi di frasi, la questione diventa vertiginosa: perché ci fidiamo di un’IA?

Retrieval-Augmented Generation for Large Language Models: A Survey

Perché stai ancora usando solo dense embeddings? la vera rivoluzione dei sistemi RAG è (finalmente) sparsa

Se stai ancora costruendo sistemi RAG basati solo su dense embeddings, forse è ora che ti fermi, rifletti, e ti chieda: sto davvero spremendo tutto il potenziale del mio stack di Information Retrieval? Perché mentre tutti guardano ai soliti supermodelli densi come se fossero la panacea semantica, là fuori c’è un’arma meno appariscente, più silenziosa, ma devastantemente efficace: le sparse embeddings. E no, non parliamo solo di TF-IDF come nel 2005. Parliamo della nuova generazione: sparse neurali, semantiche, interpretabili e oranative.

Forbes AI 50 2025 e la fine dell’era delle chiacchiere digitali

Un tempo c’erano i prompt, le risposte brillanti e un florilegio di contenuti generati per stupire il pubblico e sfamare gli algoritmi di engagement. Poi è arrivato il 2025 e Forbes ha buttato all’aria il salotto buono dell’intelligenza artificiale. Nella sua settima edizione, la classifica AI 50 non premia più chi sa parlare, ma chi sa lavorare. È l’inizio di una nuova era, quella in cui l’AI non è più un maggiordomo digitale ma un’operaia specializzata, infaticabile, ipercompetente. Addio chiacchiere, benvenuti flussi di lavoro automatizzati.

Il precipizio del calcolo: l’apartheid computazionale che sta decidendo il futuro dell’intelligenza artificiale

C’è una bugia ben educata che ci raccontiamo sull’intelligenza artificiale: che sia universale, democratica, accessibile. Basta un’idea brillante e una connessione a internet, giusto? Sbagliato. Oggi la vera valuta dell’intelligenza artificiale non è l’algoritmo, né il talento. È la potenza di calcolo. E su quel fronte, il mondo non è solo diviso: è spaccato come una lastra di ghiaccio sottile sotto il peso di un futuro che pochi potranno davvero controllare.

Elon Musk si inventa un partito: l’ennesimo colpo di teatro di un miliardario in cerca di nemici

È nato un nuovo partito negli Stati Uniti, o almeno così dice Elon Musk. L’ha chiamato “America Party”, come fosse il reboot di una sitcom anni ’90 girata in un garage di Palo Alto con troppa caffeina e nessuna vergogna. Il tweet – perché tutto comincia e spesso finisce lì – recita: “Oggi nasce l’America Party per restituirvi la libertà”. Se vi sembra una frase partorita da un algoritmo con problemi di identità nazionale, non siete soli. Il punto, però, non è tanto la vaghezza del proclama, quanto la logica distorta che sta dietro al progetto: usare il brand Musk per hackerare la democrazia, come fosse un’auto da aggiornare via software.

Mentre Trump gioca a fare il KING, la Cina mette gli occhi sul mondo: perché gli occhiali AR di xREAL possono far tremare Apple, Meta e Google

Mentre Donald Trump rispolvera lo slogan da reality show “Make America Great Again”, i cinesi di Xreal si apprestano a colonizzare il campo della realtà aumentata con un’aggressività chirurgica che farebbe impallidire Sun Tzu. Sì, perché mentre l’Occidente si balocca con prototipi da salotto, Xreal – la startup cinese fondata da tre cervelli di Zhejiang University – sta per catapultare sul mercato di massa un paio di occhiali AR leggeri, potenti, con un campo visivo da 70 gradi e una strategia da conquistatori digitali. Il nome in codice è Project Aura. Non è un gioco di parole. È un assedio.

Non è solo un’altra startup cinese con velleità da unicorno: Xreal è il braccio operativo della seconda grande offensiva XR targata Google, dopo il poco incisivo Moohan, il visore realizzato insieme a Samsung che ha fatto meno rumore dell’ultimo keynote di Zuckerberg. Aura, invece, è il nuovo feticcio tech con l’anima di Android XR e il corpo disegnato da ingegneri che sembrano usciti direttamente da un laboratorio DARPA. Con un chip Snapdragon firmato Qualcomm e il nuovo X1S customizzato da Xreal, questi occhiali vogliono far impallidire sia il Vision Pro di Apple sia i Ray-Ban Reality di Meta. E il bello? Arriveranno nel Q1 2026, proprio mentre l’America sarà distratta da una nuova guerra elettorale tra gerontocrazie.

Quando la Tokenizzazione diventa truffa: l’illusione dell’equity e l’ennesimo pasticcio di Robinhood

Siamo nel 2025 e qualcuno ancora si stupisce che la parola “token” venga usata come specchietto per le allodole. Come se la storia di FTX non avesse già inoculato abbastanza anticorpi nel sistema. Eppure eccoci qui, con Robinhood il broker per millennial disillusi e boomer con velleità da day trader che lancia “OpenAI tokens”, suggerendo, neanche troppo velatamente, che si tratti di partecipazioni azionarie in OpenAI. Spoiler: non lo sono. Non lo sono mai state. E non lo saranno mai, a meno che Sam Altman e soci non decidano improvvisamente di mettere la loro equity sul banco del supermercato accanto alle patatine.

Alibaba si prende tutto: DeepSWE e l’egemonia gentile del codice open-source

Le intelligenze artificiali non stanno solo imparando a scrivere codice: lo stanno riscrivendo. E tra le macerie dei modelli proprietari e delle API chiuse a pagamento, spunta una nuova aristocrazia algoritmica, fondata non su brevetti ma su repository GitHub. Il nuovo padrone del gioco si chiama Alibaba, e ha un nome tanto tenero quanto micidiale: Qwen. Dietro questo suono da panda antropomorfo, si nasconde il sistema nervoso di una rivoluzione che parte dalla Cina e si insinua, come una variabile nascosta, nei workflow dei developer globali.

La notizia, al netto del politicamente corretto delle PR, è semplice: DeepSWE – un framework agentico specializzato in software engineering – ha appena distrutto la concorrenza nei benchmark SWEBench-Verified grazie al modello Qwen3-32B, sviluppato da Alibaba Cloud e allenato da Together AI e Agentica. Ma il dettaglio che nessuno vuole evidenziare davvero è che tutto questo è open-source. Non “open-weight”, non “quasi open”, non “sandboxed API su cloud a consumo”. Codice sorgente. Reinforcement learning modulare. Dataset pubblici. E una dichiarazione che suona più come una minaccia che un annuncio: “Abbiamo open-sourcizzato tutto – il dataset, il codice, i log di training e di valutazione – per consentire a chiunque di scalare e migliorare gli agenti con l’RL”. Qualunque cosa, chiunque. Benvenuti nel nuovo ordine.

AI Act: 44 Ceo europei chiedono una retromarcia a Bruxelles

Da Airbus a BNP Paribas, cresce la pressione sul legislatore europeo: “Così l’Europa resterà indietro nella corsa globale all’AI”. Ma Bruxelles è davvero pronta ad allentare le maglie della legge più severa al mondo sull’intelligenza artificiale?

Perché Milano è la nuova Francoforte e l’Italia sta finalmente smettendo di essere solo una cartolina per l’Europa dei dati

Il panorama dei Data Center in Italia e in Europa: un’analisi approfondita

Nel cuore di questa corsa globale verso l’elaborazione decentralizzata e la dominazione algoritmica, alcune città europee iniziano a muovere pedine che fino a ieri sembravano ferme come statue. Milano non è più sola: Roma, Marsiglia e Varsavia stanno diventando nomi familiari nei pitch deck degli investitori. No, non stiamo parlando di turismo, ma di hyperscale, colocation e edge computing. La nuova geopolitica digitale non si combatte con trattati o accordi doganali, ma con latenza, connettività e temperatura media. Sì, anche il meteo ora fa strategia.

La farsa della moratoria sull’IA è finita (per ora), ma non cantate vittoria: l’ecosistema AI Safety resta un cane con la museruola

Il mondo dell’intelligenza artificiale è pieno di annunci roboanti, iperboli apocalittiche e un generale senso di urgenza che neanche un economista keynesiano sotto adrenalina. Ma il teatrino della moratoria regolatoria andato in scena a Washington questa settimana merita uno slow clap. Una commedia degli equivoci dove nessuno sembra aver letto davvero il copione, ma tutti fingono di aver vinto. Spoiler: non ha vinto nessuno. E men che meno l’AI safety.

Il riassunto, per chi ha avuto la fortuna di ignorare il caos: lunedì, i senatori Marsha Blackburn e Ted Cruz si erano accordati su una moratoria di cinque anni per regolamentazioni sull’IA, con qualche deroga su temi sensibili come la sicurezza dei minori e la tutela dell’immagine dei creatori di contenuti. Non esattamente una stretta totale, ma abbastanza per sollevare più di un sopracciglio tra chi crede che un po’ di freno all’orgia deregolatoria dell’AI non sia poi un’idea così malsana.

Il futuro dell’intelligenza artificiale tra fuga di cervelli e leadership in crisi

Se pensate che la guerra per l’intelligenza artificiale si giochi solo sulle capacità dei modelli e sulla potenza dei data center, vi sbagliate di grosso. Dietro ogni algoritmo all’avanguardia c’è una partita ben più umana, meno visibile ma molto più decisiva: la battaglia per il talento. E in questa sfida, le mosse di Meta contro OpenAI raccontano una storia che va ben oltre i numeri o le dichiarazioni di facciata.

Meta ha appena fatto un colpo grosso, strappando almeno otto ricercatori di punta da OpenAI con offerte stratosferiche da 100 milioni di dollari. Non si tratta di un semplice scambio di dipendenti, ma di un vero e proprio esodo di menti preziose che scuote le fondamenta della più famosa startup dell’intelligenza artificiale. In gioco non c’è solo la supremazia tecnologica, ma la sopravvivenza stessa delle culture organizzative di due giganti che stanno scrivendo il futuro del mondo digitale.

Pagina 2 di 146

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie