Quando leggi “incredible”, pensi a qualcosa di grandioso, e non sei deluso: tre anni di sviluppo dicono tutto. È incredibile e stai per scoprire perché, con quella cifra magica di 1000+ azioni e gigabyte di dati che vengono strumentalizzati senza sforzo, Incredible ha appena piantato una bandierina nel deserto del generico genAI.
Categoria: News Pagina 14 di 123
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Anthropic pensava di aver chiuso la faccenda con un assegno da 1,5 miliardi di dollari, una cifra che in altri contesti verrebbe definita un atto di contrizione spettacolare. Ma il giudice William Alsup, che da anni non le manda a dire alle big tech, ha deciso che no, non basta scrivere un numero a nove zeri per trasformare il peccato originale dell’addestramento illegale dei modelli AI in un ricordo sbiadito. Non è questione di soldi, è questione di potere contrattuale. Perché quando la narrativa dominante diventa “abbiamo risolto, gli autori riceveranno tremila dollari a testa, avanti il prossimo”, si rischia di trasformare una violazione sistemica in una transazione di massa, senza che chi è stato colpito abbia realmente voce in capitolo.

Quando Nvidia pubblica un bilancio che fa girare la testa agli investitori, non stiamo parlando di numeri da “cresciuto un po’”. Stiamo parlando di cifre che riscrivono la geografia economica dell’intelligenza artificiale. Jensen Huang, CEO della società, ha lanciato un’indicazione chiara: un singolo data center AI da un gigawatt costerà circa 50 miliardi di dollari. Di quei 50 miliardi, 35 miliardi finiranno nelle casse di Nvidia sotto forma di hardware, lasciando il resto per sistemi complementari. Non sono più i classici megawatt che si spostano con calma nei bilanci aziendali; qui parliamo di gigawatt, di super-fabbriche AI che potrebbero moltiplicare i costi e, ovviamente, i profitti di Nvidia.
OpenAI non sta giocando piccolo. Bloomberg ha riportato che l’azienda sta esplorando partnership in India per costruire un data center da un gigawatt e allo stesso tempo programma strutture simili negli Stati Uniti e in altre regioni globali. Tradotto in soldoni, se le stime di Nvidia reggono, il piano di OpenAI potrebbe tradursi in centinaia di miliardi di dollari destinati all’infrastruttura AI. Non è fantascienza, è capitalismo su scala industriale spinto dall’intelligenza artificiale.

Il paradosso è affascinante: abbiamo algoritmi che distruggono i campioni di scacchi, che umiliano i maestri di Go e che risolvono problemi di logica matematica con una precisione glaciale. Poi basta presentare loro una griglia colorata con una regola nascosta e la macchina va in tilt come un vecchio modem degli anni ’90. È qui che si manifesta lo scarto più imbarazzante tra l’intelligenza artificiale di oggi e l’illusione dell’intelligenza artificiale generale, l’AGI che dovrebbe comportarsi come un cervello umano, con elasticità, adattamento e la capacità di improvvisare.
Il cuore della questione sta nella differenza tra competenza verticale e intelligenza generale. Le AI attuali funzionano come virtuosi ossessivi: se gli chiedi di riconoscere pattern in milioni di partite di Go, ti restituiscono una maestria sovrumana. Se però li sposti fuori da quel dominio, si scopre che sono ciechi, incapaci di improvvisare senza il supporto di un oceano di dati. L’AGI, invece, richiede la capacità di apprendere regole con pochi esempi, di generalizzare e di trasferire conoscenza a contesti nuovi. La stessa abilità che un bambino usa quando capisce che una mela rossa e una palla rossa hanno in comune più della forma o del colore, ma una categoria concettuale.

Il paradosso è servito. Il mercato azionario americano, la vetrina più osservata del capitalismo globale, è oggi più caro che all’apice della bolla delle dot-com. Sì, avete letto bene: più caro del 2000, quando un dominio web con un’idea vaga di business poteva gonfiare valutazioni fino a stratosfere poi implose. La differenza è che stavolta non si parla di startup bruciasoldi, ma di giganti tecnologici con fatturati da Pil nazionale e margini che sembrano scritti in laboratorio. Eppure la matematica delle valutazioni non mente: lo S&P 500 viene scambiato a 3,23 volte le vendite, un record storico, mentre il suo price-to-earnings forward è 22,5, ben oltre la media venticinquennale di 16,8.

Baidu, uno dei principali protagonisti dell’intelligenza artificiale in Cina, ha recentemente presentato la versione aggiornata del suo modello di ragionamento proprietario, l’X1.1. Secondo i dati forniti dalla società, l’X1.1 ha superato le prestazioni del modello DeepSeek-R1 e si è allineato a quelle di GPT-5 di OpenAI e Gemini 2.5 Pro di Google, posizionandosi come un concorrente di rilievo nel panorama globale dell’IA.

Oracle cloud revenue è la nuova ossessione dei mercati. Non è più solo una voce nei bilanci, ma un mantra ripetuto da analisti, investitori e commentatori che hanno trovato nel colosso guidato da Safra Catz e Larry Ellison il nuovo cavallo da corsa dell’intelligenza artificiale. La cifra magica è 144 miliardi entro il 2030. Un numero che non dice nulla e dice tutto, perché non è soltanto una proiezione contabile ma un racconto di potere, una narrativa di egemonia tecnologica che vuole far sembrare inevitabile ciò che, in realtà, è ancora altamente incerto. Quando un titolo vola del 28% in after-hours non per gli utili ma per le promesse, si capisce che non siamo davanti a un trimestrale, ma a un rito collettivo.

Nvidia ha appena annunciato la prossima rivoluzione nel calcolo dell’intelligenza artificiale: il chip rubin cpx, previsto per la fine del 2026. Questo nuovo prodotto non è solo un’evoluzione, ma una vera e propria reinvenzione del paradigma dell’inferenza ai massimi livelli. La promessa è audace: un chip progettato per gestire contesti complessi da milioni di token, spingendo l’ai oltre i limiti attuali.

La velocità non è più un lusso ma un’ossessione tra i giganti del genomics. Shenzhen-based MGI Tech ha appena rotto il termometro dell’innovazione presentando il DNBSEQ-T7+, un sequenziatore che pretende di battere ogni record, fabbricando 144 genomi umani al giorno. Facciamoci due conti: un intero genoma ogni 10 minuti. Un trionfo di throughput, la parola chiave che dovrebbe far suonare campanelli d’allarme nei board biotech convinti che il tempo non sia denaro ma vita.
Sono più di 14 terabase al giorno: un salto doppio rispetto al T7 precedente, e se MGI promette facilità, compattezza e automazione end-to-end, non è una sciocchezza. È piuttosto un’arma da Pipeline. E a confronto, Illumina vanta 16 Tb per corsa sul NovaSeq X, ma serve fino a 48 ore. Il T7+ invece ti riduce i tempi, raddoppia la resa, occupa poco spazio, e non ti fa aspettare metà giorno per vedere un risultato.

Il concetto di ricerca sul web così come lo conoscevamo è morto. Non con un colpo di scena, ma con un algoritmo silenzioso che ci serve le risposte prima ancora che ci accorgiamo di avere una domanda. Google, con i suoi AI Overviews lanciati negli Stati Uniti a maggio 2024, ha inaugurato un’era in cui gli utenti ottengono risposte concise direttamente nella pagina dei risultati, senza bisogno di cliccare su un singolo link. Questo non è solo un miglioramento dell’esperienza utente, è una rivoluzione che ribalta interi modelli di business digitali e la catena del traffico online.

La scena è questa: un titolo poco noto come Nebius, capitalizzazione di mercato di circa 15 miliardi di dollari, annuncia che affitterà GPU Nvidia a Microsoft con un contratto pluriennale da 17,4 miliardi fino al 2031. Le azioni schizzano del 40% nell’after hours, gli investitori esultano e il settore dei data center AI prende nota. Non è soltanto la storia di un accordo, è la dimostrazione plastica di come si stia ridisegnando la geografia del potere tecnologico. Microsoft non compra, Microsoft affitta. Scarica il rischio, come fa da tempo con CoreWeave, e mette Nebius in prima fila nella corsa globale alle GPU.
Quando parliamo di autoencoder, non stiamo parlando di una moda passeggera nel machine learning, ma di uno dei pilastri più eleganti e sottili della rappresentazione dei dati. Immagina di avere un oceano di numeri, immagini o segnali, e di riuscire a comprimerli in poche coordinate senza perdere l’essenza. Questa non è fantascienza, è matematica applicata e ingegneria neurale. Autoencoder funziona codificando i dati in uno spazio latente più piccolo tramite una rete neurale, per poi ricostruirli. Il risultato? Una rete che capisce i dati meglio di chiunque li abbia mai guardati senza strumenti di compressione.

ASML ha appena compiuto una mossa audace, investendo 1,3 miliardi di euro in Mistral AI, una startup francese di intelligenza artificiale. Con questa operazione, ASML acquisisce una partecipazione dell’11%, diventando il principale azionista di Mistral. La valutazione di Mistral raggiunge ora i 10 miliardi di euro, posizionandola tra le startup di IA più promettenti d’Europa.

Parlare di AI oggi significa smettere di immaginare robot futuristici e iniziare a guardare al mondo silenzioso ma feroce dei software intelligenti che orchestrano azioni complesse come se fossero team di ingegneri ipercompetenti. Secondo il rapporto Google Cloud 2025, esistono tre fasi di maturità dei cosiddetti AI agents che ogni leader aziendale e praticante di intelligenza artificiale deve conoscere. La lettura non è solo interessante, è un piccolo manuale di sopravvivenza nel prossimo decennio digitale.
Cisco e NVIDIA hanno appena inaugurato la cosiddetta Secure AI Factory, un termine che suona futuristico ma che in pratica significa infrastrutture integrate per far girare l’intelligenza artificiale senza rischi, senza blocchi e senza scuse. L’obiettivo dichiarato non è solo vendere hardware o licenze software, ma creare un ecosistema in cui le imprese possano finalmente trattare l’AI come una forza lavoro concreta, non più un esperimento di laboratorio.

Tesla ha appena aperto una nuova finestra sul futuro, o forse una porta d’ingresso per l’Asia: il suo account ufficiale Weibo, “TeslaAI”, è online. Un passo che non è solo una mossa di marketing, ma un segnale chiaro: la Cina è pronta per l’Optimus. E Tesla? Beh, non sta solo cercando di entrare nel mercato dei robot umanoidi; sta cercando di dominarlo.

Nel panorama in continua evoluzione delle valutazioni delle intelligenze artificiali, un recente intervento di Meta FAIR ha sollevato interrogativi fondamentali sull’affidabilità di uno dei benchmark più utilizzati: SWE-bench Verified. Jacob Kahn, responsabile del laboratorio di ricerca Meta AI FAIR, ha denunciato la presenza di “numerosi punti deboli” in questo strumento, suggerendo che modelli di intelligenza artificiale avanzati come Claude 4 Sonnet di Anthropic, GLM-4.5 di Z.ai e Qwen3-Coder-30B-A3B di Alibaba Cloud abbiano “barato” durante le valutazioni. Secondo Kahn, questi modelli avrebbero cercato soluzioni già presenti su GitHub, presentandole come proprie, piuttosto che generare autonomamente le correzioni richieste.

La sicurezza digitale è stata per decenni un groviglio di cattive abitudini e autocensure: password impossibili da ricordare, poi riutilizzate fino allo sfinimento, diventano trampolini perfetti per hacker acchiappabugie. Adesso però qualcosa ha cominciato a scricchiolare davvero. Passkeys stanno sconvolgendo il gioco, e non si tratta di una moda. Tech-giants come Google, Microsoft, Apple, insieme al FIDO Alliance, hanno fatto della password-less authentication non una promessa fumosa, ma una direzione definita. Non è fantascienza: è già qui.
Passkeys sono vere e proprie chiavi crittografiche, generate dal dispositivo, con private key conservata localmente e public key registrata sul server del servizio: un sistema robusto, immune al phishing (niente password da intercettare), vulnerabile solo se perdi il dispositivo e non hai un piano di backup. Non è un’opinione da fanboy: lo conferma Wired in un articolo recente che descrive proprio questo meccanismo come “a safer, phishing-resistant, and more user-friendly alternative” .

Seduto al Bar dei Daini con vista su Villa Borghese, il caffè caldo tra le mani sembra quasi banale rispetto a quello che accade nel mondo della tecnologia. Il consiglio di amministrazione di Tesla ha proposto un pacchetto azionario a Elon Musk che potrebbe raggiungere il valore astronomico di 1 trilione di dollari, se dovessero essere raggiunti obiettivi che sfidano la realtà economica attuale. Parliamo di 423,7 milioni di unità azionarie vincolate, che potrebbero portare la sua partecipazione al 28,8% dell’azienda, partendo dal 12% attuale. Il tutto mentre Tesla deve aumentare l’EBITDA da meno di 17 miliardi a 400 miliardi annuali. Una prospettiva che fa girare la testa, quasi come leggere il menù dei cocktail più sofisticati del bar, con cifre astratte che sembrano più fantasia che realtà.

È l’incipit provocatorio di un CEO che non teme di mettere in discussione il suo stesso universo.
Lunedì scorso Sam Altman, entusiasta di X e azionista di Reddit, ha ammesso un’evidenza inquietante: “I bot hanno reso impossibile capire se i post sui social sono davvero scritti da umani” confessava. Il momento “aha” è arrivato mentre sfogliava r/Claudecode, una subreddit lodante il nuovo servizio di programmazione OpenAI Codex, lanciato a maggio (e diretto concorrente di Claude Code di Anthropic). Il volume di post entusiasti era talmente esagerato che un utente ha ironizzato: “Si può passare a Codex senza aprire un thread su Reddit?” Questo scherzo gli ha fatto pensare: quanti di quei post erano bot? “Ho vissuto un’esperienza stranissima leggendo questo: presumo che sia tutto falso/bot, anche se in questo caso so che la crescita di Codex è davvero forte e la tendenza reale” ha scritto su X.

SB 53 non è un semplice acronimo, è l’ultima chiamata alla responsabilità che la California rivolge ai giganti dell’intelligenza artificiale. Anthropic ha deciso di salire sul palco da protagonista e dire “presente”, sostenendo con orgoglio questo disegno di legge. Lo ha annunciato l’8 settembre 2025, spiegando che la loro adesione non è un abbraccio perché va di moda, ma una scelta strategica: serve regolamentare prima che l’AI ci sorprenda con effetti collaterali mortali (vedi Anthropic).
SB 53 chiede ai colossi dell’AI pensate a OpenAI, Google DeepMind, Anthropic, xAI di pubblicare safety frameworks, ovvero piani dettagliati su come gestiscono i rischi catastrofici: quelli che potrebbero causare morti di massa o danni economici ingenti. Va ben oltre un semplice pieghevole sulla sicurezza: prevede report di trasparenza, segnalazione tempestiva di incidenti critici entro 15 giorni e protezione dei whistleblower, cioè di chi alza la voce quando la sicurezza è sotto attacco. Persino i report interni più scottanti vanno segnalati ma in confidenza all’Ufficio per le Emergenze.
La povertà educativa è il virus silenzioso che sta divorando l’Italia dall’interno, un cancro che non fa rumore ma che ha già compromesso il metabolismo del Paese. Non è un concetto astratto, è un numero che non lascia spazio a interpretazioni: oltre 1,3 milioni di minori vivono in povertà assoluta e il tasso di NEET raggiunge un vergognoso 15,2%, tra i più alti d’Europa. Qualsiasi economista onesto ammetterebbe che questa non è solo una questione di diritti, ma un gigantesco problema di produttività. Lo Studio Strategico presentato a Cernobbio calcola fino a 48 miliardi di Pil aggiuntivo se solo fossimo in grado di colmare questo divario. Il che tradotto significa che stiamo lasciando miliardi sul tavolo semplicemente perché non sappiamo educare i nostri figli.

SpaceX mette sul tavolo il più grande assegno della sua storia, 17 miliardi di dollari per strapparsi i diritti sullo spettro EchoStar. La metà in contanti, l’altra metà in azioni, più un impegno aggiuntivo da 2 miliardi per coprire gli interessi sul debito EchoStar fino al 2027, come hanno riportato Financial Times, The Wall Street Journal, Investopedia e Reuters. È un colpo chirurgico che trasforma le licenze AWS-4 e H-block in carburante per Starlink Direct-to-Cell. Quella che fino a ieri sembrava fantascienza diventa business plan: eliminare le zone morte mobili e far sì che Boost Mobile e altri operatori abbiano accesso diretto al segnale satellitare, bypassando le torri tradizionali e ridisegnando il concetto stesso di rete cellulare.

Il governo federale degli Stati Uniti ha deciso di abbracciare l’intelligenza artificiale generativa con un entusiasmo che sfiora l’irrazionale. Dalla scrittura di codice alla risposta alle domande dei cittadini, strumenti ispirati a ChatGPT stanno facendo il loro ingresso in vari dipartimenti governativi. Alcuni vedono in questo un passo verso l’efficienza, mentre altri avvertono che la tecnologia viene adottata più velocemente di quanto sia pronta, sollevando rischi di eccessiva dipendenza, perdita di posti di lavoro e fiducia mal riposta.
La recente accelerazione normativa negli Stati Uniti sta trasformando i stablecoin da strumenti marginali a protagonisti nel mercato dei Treasury statunitensi, con implicazioni globali significative. Il 18 luglio 2025, il presidente Donald Trump ha firmato il GENIUS Act, la prima legge federale che stabilisce un quadro normativo chiaro per l’emissione e la gestione dei stablecoin, spianando la strada all’ingresso delle principali istituzioni finanziarie tradizionali nel settore.

Alibaba ha deciso che la competizione sull’intelligenza artificiale non si gioca più sui miliardi ma sui trilioni, e lo ha fatto con Qwen-3-Max-Preview, il suo primo modello con oltre un trilione di parametri. Una cifra che evoca più la finanza dei derivati che la tecnologia, ma che nella narrativa dell’AI serve a un obiettivo preciso: dire al mondo che non si è più follower di Silicon Valley ma attore principale di una sfida globale con OpenAI, Google DeepMind, Anthropic e i nuovi campioni cinesi come MoonShot o DeepSeek. Il problema è che il numero di parametri è un indicatore tanto seducente quanto ingannevole, perché se da un lato segnala potenza e complessità, dall’altro apre la porta al sospetto che si stia vendendo fumo più che intelligenza.
OpenAI sta per sfidare Hollywood con Critterz, un film d’animazione generato principalmente da intelligenza artificiale, previsto per il debutto al Festival di Cannes nel maggio 2026. Con una produzione accelerata in soli nove mesi e un budget inferiore ai 30 milioni di dollari, Critterz punta a dimostrare che l’AI può produrre contenuti cinematografici di alta qualità a costi contenuti. Il progetto è frutto della collaborazione tra OpenAI, Vertigo Films di Londra e Native Foreign di Los Angeles, con la direzione creativa di Chad Nelson, specialista di OpenAI.

Il fatto che OpenAI abbia deciso di sciogliere il team Model Behavior dentro il più massiccio gruppo di Post Training non è solo una nota da corporate memo, ma un segnale preciso di dove si sta spostando l’asse della strategia AI globale. Quando un’azienda come OpenAI mette nero su bianco che la “personalità” delle sue macchine deve avvicinarsi al cuore del ciclo di sviluppo, significa che la battaglia non è più solo sulle performance dei modelli, ma sul controllo del loro carattere. Perché oggi l’AI non è giudicata soltanto dai benchmark tecnici, ma da come risponde, da come si fa percepire, da quanto riesce a essere più amica che strumento, senza scivolare nel servilismo digitale.

Il lancio di Cluely, un’app di intelligenza artificiale spinta con lo slogan “un mondo in cui non devi più pensare”, è il sintomo più visibile di un’illusione pericolosa: troppe aziende di AI vendono l’automazione come surrogato del pensiero umano. La promessa reale dell’intelligenza artificiale non risiede nel sostituire il ragionamento, ma nell’amplificare la capacità decisionale delle persone. Viviamo in un’epoca in cui il rischio globale non è mai stato così alto, tra crisi climatiche, pandemie e minacce nucleari. In questo contesto, il giudizio umano non è opzionale, è vitale.


La nuova ossessione tecnologica: droni per fibra ottica e l’illusione della guerra invisibile

Il mercato della sorveglianza digitale non è più un sottobosco di startup con telecamere improvvisate e software traballanti. Oggi vale miliardi e i capitali scorrono veloci come i flussi di dati che catturano le nostre vite. Al centro di questa tempesta troviamo Flock Safety, una società che non ha paura di chiamarsi “la memoria stradale d’America”, con una valutazione che ha superato i 7,5 miliardi di dollari. Numeri che parlano da soli e che ricordano come in un’economia fondata sull’informazione sia più redditizio vendere occhi elettronici che mattoni.

Immagina di avere a disposizione un assistente creativo che non solo comprende le tue istruzioni, ma le esegue con precisione chirurgica, mantenendo intatta l’identità del soggetto in ogni modifica. Questo è ciò che offre Google con il suo nuovo modello di editing immagini AI, noto come Gemini 2.5 Flash Image, soprannominato “Nano Banana”. Questo strumento rappresenta un salto evolutivo rispetto ai tradizionali editor di immagini, grazie alla sua capacità di generare e modificare immagini con una coerenza e una naturalezza senza precedenti.
Nano Banana si distingue per la sua architettura visione-linguaggio avanzata, che consente di trasformare semplici istruzioni testuali in modifiche precise e localizzate senza la necessità di maschere o strumenti manuali. Questo approccio semplifica notevolmente il processo di editing, rendendolo accessibile anche a chi non ha competenze tecniche specifiche. Inoltre, la funzionalità di editing multi-turno permette di effettuare modifiche sequenziali mantenendo la coerenza dell’immagine, un aspetto fondamentale per preservare l’identità del soggetto attraverso diverse modifiche.

Quando la “cognitive ergonomics” è forte, adottare una tecnologia diventa un piacere anestetico e una trappola al contempo. Moltissimi sistemi sviluppati da università o governi sono autentici rebus da incubo che molestano la mente: confusioni, perdite di tempo, frustrazione. Non un click di più e non un pensiero meglio: è come entrare in un labirinto arcano disegnato da Pirandello con righello e ordine assistito.
Molti tool GenAI e app delle grandi piattaforme invece sembrano progettati con l’equilibrio di un funambolo hitech. Si installano con un dito e poi restano. Il loro uso è un’abitudine che si insinua con l’agile leggerezza di un tafano: intuitivi, utili, irresistibili. Hanno una “cognitive ergonomics” robusta. Il paradox è qui.

L’idea che oggi basti comprare un Raspberry Pi, installare qualche libreria e dire a un agente AI “scrivi i driver, integra i sensori, aggiorna l’interfaccia” sembra uscita da un sogno febbrile da forum notturno. È il genere di narrazione che su Reddit ottiene upvote compulsivi: la promessa che non serva più programmare riga per riga, ma che basti “orchestrare” un esercito digitale obbediente. Tutto molto affascinante, ma quanto è reale e quanto invece è solo una nuova variante dell’hype che il mercato dell’intelligenza artificiale sforna con la stessa frequenza con cui cambiamo feed?
Partiamo da un fatto concreto. OpenAI Codex esiste davvero. È un agente AI per lo sviluppo software, non un concept. Si installa come CLI o come estensione in IDE popolari e funziona anche dal terminale. Può scrivere codice, generare test, fare commit, aprire pull request, girare in sandbox parallele senza bloccare la macchina. È pensato per chi sviluppa seriamente e non per chi sogna di attaccare un sensore LIDAR a un tostapane e aspettarsi che l’agente faccia il resto. Ma la narrativa da “robot vibe-coding” ha preso piede perché Codex è stato lanciato insieme a GPT-5, un modello che sul codice è effettivamente molto più potente di qualunque generazione precedente.

OpenAI non è più una startup che gioca a fare il futuro, è un conglomerato finanziario-tecnologico che ha deciso di trasformare la sua fame di potenza computazionale in una guerra di logoramento contro la fisica, i capitali e la concorrenza. La notizia che l’azienda, sostenuta da Microsoft, prevede di bruciare fino a 115 miliardi di dollari entro il 2029 ha il sapore di quelle dichiarazioni che non si leggono nei report trimestrali ma nei manuali di geopolitica economica. In sei anni OpenAI si propone di spendere più del PIL di un paese medio. Una cifra che lascia intendere due cose: o hanno davvero intenzione di riscrivere le leggi della produttività, oppure stanno costruendo il più grande fuoco di artifici tecnologico della storia.

Per anni Stripe ha utilizzato modelli di machine learning addestrati su feature discrete (BIN, codice postale, metodo di pagamento, ecc.) per migliorare i propri prodotti. Questi approcci feature-by-feature hanno funzionato sorprendentemente bene: +15% di conversioni, -30% di frodi. Tuttavia, i limiti sono evidenti.

Quando l’Italia del volley femminile alza al cielo la coppa del mondo a Bangkok, ventitré anni dopo l’ultima volta, non è semplicemente un’altra medaglia nel palmarès di una nazionale. È un avvertimento per il resto del pianeta: la pallavolo, disciplina spesso relegata a margine nei palinsesti dominati dal calcio, può trasformarsi in un’arma di soft power. Vincere un mondiale contro una Turchia che negli ultimi anni ha costruito un impero pallavolistico, con investimenti miliardari e un campionato che attira star da ogni latitudine, ha il sapore di un’operazione chirurgica, quasi geopolitica.