Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Red Teaming civile contro l’AI generativa: come smascherare i danni di genere nascosti nei modelli più intelligenti del mondo

Quando l’AI diventa un’arma contro le donne: manuale irriverente per red teamer civici in cerca di guai utili

La retorica dell’intelligenza artificiale etica è diventata più tossica del deepfake medio. Mentre i colossi tecnologici si accapigliano sulla “responsabilità dell’AI” in panel scintillanti e white paper ben stirati, fuori dalle stanze ovattate accade una realtà tanto semplice quanto feroce: l’AI generativa fa danni, e li fa soprattutto alle donne e alle ragazze. Violenza, sessualizzazione, esclusione, stereotipi. Benvenuti nel mondo dell’intelligenza artificiale patriarcale, travestita da progresso.

gemini-cli

Ho provato Gemini-Cli. Le prime impressioni

Ho installato e sto “giocherellando” con Gemini-Cli. L’enorme vantaggio è quello di poter accedere ai tool presenti su Linux, così da poter eseguire in autonomia una serie di analisi e di operazioni che altrimenti richiedono del codice da scrivere. Praticamente sostituisce una buona parte di quello che di solito faccio, o cerco di fare, con gli agent. Ma vediamo nel dettaglio il mio esperimento.

Quando una GPU incontra un piccone: perché l’acquisizione di Core Scientific da parte di Coreweave cambia le regole del gioco della potenza computazionale

Immaginate un matrimonio combinato tra un trader di Wall Street con l’hobby del quantum computing e un minatore del Kentucky che sogna l’IPO. È più o meno ciò che rappresenta l’acquisizione da 9 miliardi di dollari proposta da CoreWeave (NASDAQ:CRWV) ai danni sì, ai danni di Core Scientific (NASDAQ:CORZ), storico operatore del settore crypto mining che ora si ritrova a giocare un ruolo da protagonista in una partita molto più sofisticata: l’ascesa del data center hyperscale nel contesto dell’intelligenza artificiale generativa. Altro che ASIC e proof-of-work, qui si parla di orchestrazione di workload ad alta densità per LLM e training su larga scala. Benvenuti nella fase 2 dell’era post-cloud.

La guerra secondo l’algoritmo: perché l’Europa combatte ancora con le slide

Si continua a parlare di rivoluzioni militari come se fossero aggiornamenti software, con l’entusiasmo di un product manager davanti a un nuovo rilascio beta. Droni, intelligenza artificiale, guerre trasparenti e interoperabilità digitale sono diventati il mantra ricorrente dei think tank euro-atlantici. La guerra, ci dicono, è cambiata. Il campo di battaglia sarebbe ormai un tessuto iperconnesso dove ogni oggetto emette segnali, ogni soldato è una fonte di dati, ogni decisione è filtrata da sensori, reti neurali e dashboard. Tutto bello, tutto falso.

Sul fronte orientale dell’Europa, tra gli ulivi morti e le steppe crivellate di mine, la realtà continua a parlare un’altra lingua. La lingua della mobilità corazzata, del logoramento, della saturazione d’artiglieria e, sì, anche della carne. In Ucraina si combatte come si combatteva a Kursk, con l’unica differenza che oggi il drone FPV è la versione democratizzata dell’artiglieria di precisione. Il concetto chiave, però, resta lo stesso: vedere, colpire, distruggere. Con un twist: adesso si può farlo a meno di 500 euro e senza bisogno di superiorità aerea.

MTHFR A1298C Hai già sentito questa storia, la sentirai di nuovo ed è proprio questo il problema

Un paziente. Dieci anni di visite, esami, specialisti. Nessuna diagnosi. Una spirale fatta di attese, protocolli generici e “proviamo con questo integratore e vediamo”. Poi, una sera, qualcuno inserisce la storia clinica nel prompt di ChatGPT. Referti ematici, sintomi vaghi, un elenco di visite e diagnosi fallite. E la macchina suggerisce, con la naturalezza di chi ha letto tutto PubMed, una mutazione genetica: MTHFR A1298C. Mai testata da nessun medico del Sistema Sanitario Nazionale.

Aggiunge persino un suggerimento terapeutico basato su supplementazione mirata e gestione dell’omocisteina. Non solo aveva senso. Ha funzionato.

Entro il 2030 l’intelligenza artificiale potrebbe distruggere la nozione stessa di lavoro e nessuno sta preparando il piano B

C’è un dettaglio che sfugge a molti quando si parla di large language models, quei sistemi apparentemente addestrati per generare testo umano, rispondere a domande, scrivere codice o produrre email che sembrano uscite dalle dita di un impiegato mediocre. Il punto è che questi modelli non stanno semplicemente migliorando: stanno accelerando. In modo esponenziale. E come sempre accade con l’esponenziale, la mente umana tende a fraintenderlo fino a quando è troppo tardi per rimediare. Secondo una ricerca condotta da METR (Model Evaluation & Threat Research), i LLM raddoppiano la loro capacità ogni sette mesi. Non è una proiezione teorica: è una misurazione empirica su task complessi e di lunga durata. Un LLM oggi fatica a risolvere problemi “disordinati” del mondo reale, ma tra cinque anni potrebbe completare in poche ore un progetto software che oggi richiede a un team umano un mese intero. Quarantacinque giorni in otto ore. E nessuno sembra preoccuparsene davvero.

Disambiguazione bias nella traduzione automatica come i modelli MT e LLM affrontano l’ambiguità lessicale

DIBIMT: A Gold Evaluation Benchmark for Studying Lexical Ambiguity in Machine Translation

Questo lavoro tocca un nodo cruciale e ancora sorprendentemente trascurato nel campo della traduzione automatica: l’ambiguità lessicale e il pregiudizio sistemico nella disambiguazione da parte di modelli MT e LLM. È una questione che, sotto l’apparente patina di “high BLEU performance”, nasconde un limite strutturale nei modelli encoder-decoder contemporanei, soprattutto in ambienti multilingue e con lessico polisemico.

Alcune riflessioni rapide sui punti sollevati:

Il fatto che l’encoder non riesca a distinguere efficacemente i sensi lessicali se il contesto non è esplicito, è un chiaro segno che stiamo sovrastimando la “comprensione” semantica nei transformer. Aumentare la capacità del modello non sempre migliora la rappresentazione dei significati, spesso amplifica solo la fiducia in scelte sbagliate.

La guerra fredda dell’intelligenza artificiale ha un nuovo fronte: il manifesto dei BRICS scuote l’occidente tecnologico

Nel bel mezzo della corsa globale all’intelligenza artificiale, il 6 luglio 2025, i leader dei BRICS hanno fatto qualcosa di inedito: hanno parlato chiaro. Per la prima volta, un documento congiunto e interamente dedicato alla governance dell’AI è stato rilasciato al massimo livello politico, direttamente dal summit di Rio de Janeiro.

Non una raccolta di buoni propositi, ma un testo che intende ridefinire gli assi del potere tecnologico mondiale, ponendo il Sud Globale al centro del dibattito sulla regolazione algoritmica, la sovranità digitale e l’accesso equo alle risorse computazionali.

Eppure, dietro le righe del comunicato si legge l’ambizione di scardinare l’attuale oligopolio tecnologico e riscrivere le regole del gioco a colpi di standard aperti, trasparenza algoritmica e infrastrutture condivise. Un patto tra potenze emergenti, ma con un sottotesto molto chiaro: non lasceremo che l’intelligenza artificiale diventi l’ennesimo strumento di disuguaglianza globale.

Capgemini compra WNS per $3,3 miliardi: non è outsourcing, è il grande salto dell’agentic AI

Quando Capgemini sborsa 3,3 miliardi in contanti per mettere le mani su WNS, non sta facendo una classica acquisizione da colosso del consulting assetato di quote di mercato nel Business Process Services. No, qui succede qualcosa di molto più pericoloso, e strategicamente eccitante: un salto deliberato verso un nuovo ordine operativo dominato da Agentic AI, dove le vecchie catene del BPO tradizionale si spezzano per sempre. Non è solo un’acquisizione, è una dichiarazione di guerra al modello legacy dell’efficienza incrementale. E, come sempre, i francesi lo fanno col sorriso.

Samsung affonda tra chip lenti, cinesi silenziati e intelligenza artificiale che non perdona

C’è lo racconta REUTERS se Samsung fosse un giocatore di poker, ora si troverebbe con un bel tris… di problemi. E nessuna carta vincente in mano. Mentre il mondo brucia i watt dietro a ogni bit di intelligenza artificiale, la più grande produttrice di chip di memoria al mondo si sta muovendo con l’agilità di una petroliera in una gara di jet ski. Un tempo sinonimo di innovazione implacabile, oggi Samsung arranca dietro SK Hynix e Micron, entrambi decisamente più svegli quando si tratta di cavalcare la rivoluzione dell’HBM, quelle memorie ad alta larghezza di banda che alimentano il cuore pulsante dell’IA nei data center globali.

Huawei contro tutti: la guerra sporca degli LLM e la farsa dell’open source “indigeno”

Che Huawei giochi la carta del patriottismo tecnologico non è una novità. È dal 2019 che la multinazionale cinese è inchiodata al muro delle sanzioni statunitensi, e da allora si è vestita del ruolo di simbolo della resilienza cinese, un po’ martire, un po’ profeta. Ma questa volta, la narrativa del colosso di Shenzhen si sta incrinando pericolosamente. Al centro del dramma: il nuovo modello open-source Pangu Pro MoE 72B, che la compagnia ha recentemente sbandierato come un capolavoro di sviluppo “indigeno”, realizzato sui propri chip Ascend. La parola chiave, naturalmente, è “indigeno”. E proprio lì casca l’asino.

Perché quando una misteriosa entità GitHub chiamata HonestAGI nome più satirico che casuale ha pubblicato una breve ma devastante analisi tecnica affermando che Pangu mostrava una “correlazione straordinaria” con il modello Qwen-2.5 14B di Alibaba, i sospetti hanno preso il volo come stormi di corvi digitali. Non stiamo parlando di semplici somiglianze, ma di pattern, pesi e strutture che secondo diversi sviluppatori lasciano poco spazio all’immaginazione. È l’equivalente tecnico del trovare il DNA di uno scrittore rivale nei tuoi manoscritti inediti.

OpenAI assume uno psichiatra forense: troppo tardi per prevenire la psicosi da chatbot?

Nel 2025 OpenAI ha annunciato l’assunzione di uno psichiatra forense per studiare l’impatto emotivo dell’intelligenza artificiale generativa. Una mossa che, pur se presentata come eticamente responsabile, appare tardiva e sintomatica di un approccio reattivo più che preventivo.

Già negli anni ’60 con ELIZA si intuiva il potenziale evocativo dell’interazione uomo-macchina. Dai laboratori del MIT Media Lab alle ricerche dell’AI Now Institute, esisteva una letteratura chiara sui rischi cognitivi e affettivi della simulazione dialogica. Questo articolo di Dina in collaborazione con l’eticista Fabrizo Degni analizza tale decisione alla luce della psicologia cognitiva, sociale e clinica, evidenziandone le implicazioni epistemiche e sistemiche.

Alfredo Adamo e l’arte sottile di investire: il venture capital all’italiana spiegato da chi lo pratica davvero

Ci ha invitato a prendere un caffè  un espresso in tazza grande, il mio preferito, senza che lo chiedessi niente approccio da coworking milanese e dopo cinque minuti sembrava ci conoscessimo da anni. Nessun badge, nessuna posa, solo un’intelligenza tagliente nascosta dietro una cortesia disarmante. Alfredo Adamo ti ascolta con quella calma che oggi è quasi sospetta, come se già sapesse dove andrai a parare e ti lasciasse il tempo di arrivarci da solo.

Noi di Rivista.AI siamo entrati aspettandoci il solito discorso da investitore seriale e invece ci siamo trovati davanti un hacker del sistema, uno stratega della complessità con lo sguardo da artigiano visionario. Nessun mantra da startup weekend, nessun entusiasmo forzato: solo pensiero lucido, pazienza operativa e una quantità sorprendente di cultura umanistica intrecciata alla tecnologia. Un caffè diventato viaggio mentale, tra AI, arte, capitale e futuro. E alla fine, più che un’intervista, è sembrato un debriefing tra complici.

In un ecosistema che grida “exit” come fosse l’unica parola rimasta nel dizionario del venture capital, Alfredo Adamo fa un passo di lato e, con la calma di un artigiano digitale e l’astuzia di un giocatore di scacchi da circolo, continua a costruire. Non corre, non strepita, non si vanta. Investe. E resta. La sua presenza si sente più nei sottotraccia dei pitch che negli editoriali di Forbes. Ma chi sa leggere i flussi, più che i titoli, lo ha già capito: se vuoi sapere dove sta andando l’innovazione tech in Italia, segui le rotte di Alfredo, non i botti delle exit.

La parola chiave è “persistenza”. Non quella da brochure motivazionale, ma quella rude, fatta di cene infinite con founder squattrinati, valutazioni da decimare a colpi di business plan e la santa pazienza di chi sa che prima di vendere serve costruire valore vero. Mentre gli unicorni italiani si contano ancora sulle dita di una mano, Alfredo Adamo è già oltre il mito. Ha fatto della discrezione il suo biglietto da visita, e del capitale intelligente la sua firma invisibile su decine di startup.

Quando gli altri si Azzuffano, il distributore automatico vince

Il “distributore automatico” di Anthropic è, in realtà, un esperimento che incapsula perfettamente la filosofia con cui Dario Amodei guida l’azienda: affrontare l’intelligenza artificiale non solo come una corsa alla potenza computazionale, ma come una questione esistenziale di governance, sicurezza e impatto sistemico. A prima vista, sembra quasi un aneddoto surreale, un easter egg da Silicon Valley post-pandemica: un distributore automatico alimentato da Claude, il modello linguistico di Anthropic, che consente agli utenti di interagire con l’IA per ottenere snack e riflessioni etiche in egual misura. Ma sotto la superficie giocosa, l’iniziativa è profondamente sintomatica del loro approccio distintivo: usare prototipi tangibili per testare come l’intelligenza artificiale può essere implementata responsabilmente nel mondo reale.

New York, intelligenza artificiale e arte pubblica: quando Google scolpisce specchi nel cemento

Le informazioni sono arrivate il 6 luglio 2025, ma la storia era già nell’aria da settimane. Manhattan suda, letteralmente e metaforicamente, sotto un sole di maggio che sa di agosto. Rockefeller Center pullula di turisti sudati, ragazzini viziati con frappuccino rosa e dirigenti Google con lo sguardo distaccato. Al centro della scena: una scultura che sembra uscita da un incubo LSD di Escher e Yayoi Kusama, ribattezzata con disinvoltura “un vivace labirinto di specchi”. Solo che qui, a riflettersi, non c’è solo chi guarda. C’è anche l’ombra lunga della macchina, che ha cominciato a disegnare.

La fiducia è l’interfaccia: come abbiamo smesso di chiederci perché crediamo alle macchine

La fiducia, come concetto filosofico, è sempre stata un atto rischioso. Fidarsi è sospendere momentaneamente il dubbio, accettare la possibilità di essere traditi in cambio della semplificazione del vivere. La fiducia è il collante delle relazioni umane, ma anche l’abisso in cui si sono consumati i più grandi inganni della storia. Fidarsi dell’altro significa spesso delegare la fatica del pensiero. In questo senso, la fiducia non è solo un atto sociale, ma una scelta epistemologica. Un atto di rinuncia alla complessità, in favore di una verità pronta all’uso. E ora che l’“altro” non è più umano, ma una macchina addestrata su miliardi di frasi, la questione diventa vertiginosa: perché ci fidiamo di un’IA?

Retrieval-Augmented Generation for Large Language Models: A Survey

Perché stai ancora usando solo dense embeddings? la vera rivoluzione dei sistemi RAG è (finalmente) sparsa

Se stai ancora costruendo sistemi RAG basati solo su dense embeddings, forse è ora che ti fermi, rifletti, e ti chieda: sto davvero spremendo tutto il potenziale del mio stack di Information Retrieval? Perché mentre tutti guardano ai soliti supermodelli densi come se fossero la panacea semantica, là fuori c’è un’arma meno appariscente, più silenziosa, ma devastantemente efficace: le sparse embeddings. E no, non parliamo solo di TF-IDF come nel 2005. Parliamo della nuova generazione: sparse neurali, semantiche, interpretabili e oranative.

Forbes AI 50 2025 e la fine dell’era delle chiacchiere digitali

Un tempo c’erano i prompt, le risposte brillanti e un florilegio di contenuti generati per stupire il pubblico e sfamare gli algoritmi di engagement. Poi è arrivato il 2025 e Forbes ha buttato all’aria il salotto buono dell’intelligenza artificiale. Nella sua settima edizione, la classifica AI 50 non premia più chi sa parlare, ma chi sa lavorare. È l’inizio di una nuova era, quella in cui l’AI non è più un maggiordomo digitale ma un’operaia specializzata, infaticabile, ipercompetente. Addio chiacchiere, benvenuti flussi di lavoro automatizzati.

Il precipizio del calcolo: l’apartheid computazionale che sta decidendo il futuro dell’intelligenza artificiale

C’è una bugia ben educata che ci raccontiamo sull’intelligenza artificiale: che sia universale, democratica, accessibile. Basta un’idea brillante e una connessione a internet, giusto? Sbagliato. Oggi la vera valuta dell’intelligenza artificiale non è l’algoritmo, né il talento. È la potenza di calcolo. E su quel fronte, il mondo non è solo diviso: è spaccato come una lastra di ghiaccio sottile sotto il peso di un futuro che pochi potranno davvero controllare.

Elon Musk si inventa un partito: l’ennesimo colpo di teatro di un miliardario in cerca di nemici

È nato un nuovo partito negli Stati Uniti, o almeno così dice Elon Musk. L’ha chiamato “America Party”, come fosse il reboot di una sitcom anni ’90 girata in un garage di Palo Alto con troppa caffeina e nessuna vergogna. Il tweet – perché tutto comincia e spesso finisce lì – recita: “Oggi nasce l’America Party per restituirvi la libertà”. Se vi sembra una frase partorita da un algoritmo con problemi di identità nazionale, non siete soli. Il punto, però, non è tanto la vaghezza del proclama, quanto la logica distorta che sta dietro al progetto: usare il brand Musk per hackerare la democrazia, come fosse un’auto da aggiornare via software.

Mentre Trump gioca a fare il KING, la Cina mette gli occhi sul mondo: perché gli occhiali AR di xREAL possono far tremare Apple, Meta e Google

Mentre Donald Trump rispolvera lo slogan da reality show “Make America Great Again”, i cinesi di Xreal si apprestano a colonizzare il campo della realtà aumentata con un’aggressività chirurgica che farebbe impallidire Sun Tzu. Sì, perché mentre l’Occidente si balocca con prototipi da salotto, Xreal – la startup cinese fondata da tre cervelli di Zhejiang University – sta per catapultare sul mercato di massa un paio di occhiali AR leggeri, potenti, con un campo visivo da 70 gradi e una strategia da conquistatori digitali. Il nome in codice è Project Aura. Non è un gioco di parole. È un assedio.

Non è solo un’altra startup cinese con velleità da unicorno: Xreal è il braccio operativo della seconda grande offensiva XR targata Google, dopo il poco incisivo Moohan, il visore realizzato insieme a Samsung che ha fatto meno rumore dell’ultimo keynote di Zuckerberg. Aura, invece, è il nuovo feticcio tech con l’anima di Android XR e il corpo disegnato da ingegneri che sembrano usciti direttamente da un laboratorio DARPA. Con un chip Snapdragon firmato Qualcomm e il nuovo X1S customizzato da Xreal, questi occhiali vogliono far impallidire sia il Vision Pro di Apple sia i Ray-Ban Reality di Meta. E il bello? Arriveranno nel Q1 2026, proprio mentre l’America sarà distratta da una nuova guerra elettorale tra gerontocrazie.

Quando la Tokenizzazione diventa truffa: l’illusione dell’equity e l’ennesimo pasticcio di Robinhood

Siamo nel 2025 e qualcuno ancora si stupisce che la parola “token” venga usata come specchietto per le allodole. Come se la storia di FTX non avesse già inoculato abbastanza anticorpi nel sistema. Eppure eccoci qui, con Robinhood il broker per millennial disillusi e boomer con velleità da day trader che lancia “OpenAI tokens”, suggerendo, neanche troppo velatamente, che si tratti di partecipazioni azionarie in OpenAI. Spoiler: non lo sono. Non lo sono mai state. E non lo saranno mai, a meno che Sam Altman e soci non decidano improvvisamente di mettere la loro equity sul banco del supermercato accanto alle patatine.

Alibaba si prende tutto: DeepSWE e l’egemonia gentile del codice open-source

Le intelligenze artificiali non stanno solo imparando a scrivere codice: lo stanno riscrivendo. E tra le macerie dei modelli proprietari e delle API chiuse a pagamento, spunta una nuova aristocrazia algoritmica, fondata non su brevetti ma su repository GitHub. Il nuovo padrone del gioco si chiama Alibaba, e ha un nome tanto tenero quanto micidiale: Qwen. Dietro questo suono da panda antropomorfo, si nasconde il sistema nervoso di una rivoluzione che parte dalla Cina e si insinua, come una variabile nascosta, nei workflow dei developer globali.

La notizia, al netto del politicamente corretto delle PR, è semplice: DeepSWE – un framework agentico specializzato in software engineering – ha appena distrutto la concorrenza nei benchmark SWEBench-Verified grazie al modello Qwen3-32B, sviluppato da Alibaba Cloud e allenato da Together AI e Agentica. Ma il dettaglio che nessuno vuole evidenziare davvero è che tutto questo è open-source. Non “open-weight”, non “quasi open”, non “sandboxed API su cloud a consumo”. Codice sorgente. Reinforcement learning modulare. Dataset pubblici. E una dichiarazione che suona più come una minaccia che un annuncio: “Abbiamo open-sourcizzato tutto – il dataset, il codice, i log di training e di valutazione – per consentire a chiunque di scalare e migliorare gli agenti con l’RL”. Qualunque cosa, chiunque. Benvenuti nel nuovo ordine.

AI Act: 44 Ceo europei chiedono una retromarcia a Bruxelles

Da Airbus a BNP Paribas, cresce la pressione sul legislatore europeo: “Così l’Europa resterà indietro nella corsa globale all’AI”. Ma Bruxelles è davvero pronta ad allentare le maglie della legge più severa al mondo sull’intelligenza artificiale?

Perché Milano è la nuova Francoforte e l’Italia sta finalmente smettendo di essere solo una cartolina per l’Europa dei dati

Il panorama dei Data Center in Italia e in Europa: un’analisi approfondita

Nel cuore di questa corsa globale verso l’elaborazione decentralizzata e la dominazione algoritmica, alcune città europee iniziano a muovere pedine che fino a ieri sembravano ferme come statue. Milano non è più sola: Roma, Marsiglia e Varsavia stanno diventando nomi familiari nei pitch deck degli investitori. No, non stiamo parlando di turismo, ma di hyperscale, colocation e edge computing. La nuova geopolitica digitale non si combatte con trattati o accordi doganali, ma con latenza, connettività e temperatura media. Sì, anche il meteo ora fa strategia.

La farsa della moratoria sull’IA è finita (per ora), ma non cantate vittoria: l’ecosistema AI Safety resta un cane con la museruola

Il mondo dell’intelligenza artificiale è pieno di annunci roboanti, iperboli apocalittiche e un generale senso di urgenza che neanche un economista keynesiano sotto adrenalina. Ma il teatrino della moratoria regolatoria andato in scena a Washington questa settimana merita uno slow clap. Una commedia degli equivoci dove nessuno sembra aver letto davvero il copione, ma tutti fingono di aver vinto. Spoiler: non ha vinto nessuno. E men che meno l’AI safety.

Il riassunto, per chi ha avuto la fortuna di ignorare il caos: lunedì, i senatori Marsha Blackburn e Ted Cruz si erano accordati su una moratoria di cinque anni per regolamentazioni sull’IA, con qualche deroga su temi sensibili come la sicurezza dei minori e la tutela dell’immagine dei creatori di contenuti. Non esattamente una stretta totale, ma abbastanza per sollevare più di un sopracciglio tra chi crede che un po’ di freno all’orgia deregolatoria dell’AI non sia poi un’idea così malsana.

Il futuro dell’intelligenza artificiale tra fuga di cervelli e leadership in crisi

Se pensate che la guerra per l’intelligenza artificiale si giochi solo sulle capacità dei modelli e sulla potenza dei data center, vi sbagliate di grosso. Dietro ogni algoritmo all’avanguardia c’è una partita ben più umana, meno visibile ma molto più decisiva: la battaglia per il talento. E in questa sfida, le mosse di Meta contro OpenAI raccontano una storia che va ben oltre i numeri o le dichiarazioni di facciata.

Meta ha appena fatto un colpo grosso, strappando almeno otto ricercatori di punta da OpenAI con offerte stratosferiche da 100 milioni di dollari. Non si tratta di un semplice scambio di dipendenti, ma di un vero e proprio esodo di menti preziose che scuote le fondamenta della più famosa startup dell’intelligenza artificiale. In gioco non c’è solo la supremazia tecnologica, ma la sopravvivenza stessa delle culture organizzative di due giganti che stanno scrivendo il futuro del mondo digitale.

Mercato del lavoro a Giugno: tra segnali positivi e avvertimenti inquietanti

Il mercato del lavoro statunitense ha mostrato una resilienza inaspettata a giugno, con l’aggiunta di 147.000 posti di lavoro, superando le previsioni degli economisti che indicavano un incremento di 110.000 unità. Il tasso di disoccupazione è sceso al 4,1%, il livello più basso da febbraio 2025. Tuttavia, sotto la superficie di questi numeri positivi, emergono segnali di rallentamento, soprattutto nel settore privato, dove la crescita dell’occupazione è stata limitata a 74.000 nuovi posti, il dato più basso da ottobre 2024. Questo rallentamento è particolarmente evidente nei settori della manifattura e dei servizi professionali e aziendali, dove l’occupazione è rimasta pressoché stabile o in calo.

Un altro aspetto preoccupante riguarda la partecipazione al mercato del lavoro, che ha visto una diminuzione tra i lavoratori nati all’estero, probabilmente a causa delle politiche migratorie più restrittive adottate dall’amministrazione Trump. Questo calo potrebbe influenzare la disponibilità di manodopera in alcuni settori e avere implicazioni a lungo termine per la crescita economica.

Google AI Overview mette a rischio il giornalismo indipendente in Europa

Google si trova al centro di una rivoluzione tecnologica che ha acceso le sirene d’allarme di chi produce contenuti sul web. Una coalizione di editori indipendenti, tra cui l’Independent Publishers Alliance, supportata da Movement for an Open Web e Foxglove Legal, ha depositato il 30 giugno presso la Commissione europea un formale reclamo per abuso antitrust, mettendo nel mirino i “AI Overviews” del motore di ricerca. I riassunti generati da AI che Google propone in cima alla pagina dei risultati secondo gli editori sarebbero una mannaia per il traffico e le entrate delle testate online.

La grande illusione Americana: come il nuovo debito USA può distruggere la fiducia globale nel dollaro

Uno dei problemi dei titoli delle leggi americane è che sembrano usciti da un romanzo di fantascienza scritto da uno stagista del marketing sotto acido. “One Big Beautiful Bill Act”, ad esempio, suona come il nome di una sitcom degli anni ’90. Ma dietro la patina comica e l’enfasi trumpiana si nasconde qualcosa di meno divertente: un’espansione fiscale titanica mascherata da patriottismo economico, pronta a esplodere come una bomba a orologeria finanziaria. La Camera dei Rappresentanti ha appena approvato questa legge con un margine tanto risicato quanto sintomatico: 218 voti contro 214. Tradotto, significa che persino alcuni repubblicani hanno cominciato a leggere il manuale di istruzioni del Titanic mentre la nave prende acqua.

La legge prevede un aumento delle spese per la sicurezza dei confini e la difesa, una mossa che sembra sempre vincente nei sondaggi interni, ma soprattutto rende permanenti i tagli fiscali del 2017, già all’epoca giudicati regressivi, inefficaci e fiscalmente irresponsabili. Ma il vero cuore pulsante del problema è un altro: il disinvolto rialzo del tetto del debito federale di 5 trilioni di dollari, un passo oltre rispetto ai 4 trilioni originariamente previsti. È un po’ come dare una carta di credito illimitata a un tossicodipendente da deficit: prima o poi la banca in questo caso il mondo intero potrebbe decidere di chiudere i rubinetti.

Da Silicon Valley a Fleet Street, perché META sembra sempre più un tabloid finanziario con effetti speciali

Se la storia recente dell’innovazione tecnologica fosse una collezione di prime pagine, Meta sarebbe una specie di Daily Mail in versione californiana: titoloni gridati, promesse roboanti, immagini patinate e una certa allergia per la verifica dei fatti. Dopo aver occupato per mesi le colonne del New York Times e del Financial Times con la messianica visione del metaverso, l’azienda di Zuckerberg ha deciso di riscrivere la narrazione, ancora una volta. Nel 2021, l’annuncio sembrava un’inchiesta d’apertura dell’Economist sulla nuova frontiera dell’esistenza digitale. Oggi, nel 2025, Horizon Worlds è più simile alla cronaca di una ghost town, degna del Guardian nella sua vena più compassata: abbandonata, vuota, eppure misteriosamente ancora sovvenzionata.

​Le assemblee rappresentative nell’era dell’intelligenza artificiale – Ascani

Quando si parla di Italia e tecnologia, la prima immagine che affiora è quella di un Paese genuflesso di fronte al futuro, sempre pronto a rincorrerlo con un fiatone normativo e un’andatura da maratoneta disidratato. È quasi un luogo comune dire che siamo in ritardo: lo siamo sul digitale, sull’AI, sull’alfabetizzazione tecnologica di massa, sulle infrastrutture cognitive. Ma ciò che sorprende, in questo scenario, è che a marcare un’accelerazione netta non siano i soliti innovatori della Silicon Valley in salsa tricolore, né le startup visionarie che spuntano come funghi nel sottobosco del venture capital, ma proprio lei: la Camera dei Deputati.

Sì, avete letto bene. Il Parlamento italiano, spesso percepito come la roccaforte dell’immobilismo procedurale, si sta muovendo con una rapidità e una lucidità che smentiscono qualsiasi pregiudizio. In una fase in cui il governo annaspa tra disegni di legge incagliati e un dibattito pubblico che ha la profondità di un tweet, Montecitorio sta plasmando un laboratorio di intelligenza artificiale applicata alle istituzioni, senza nascondersi dietro a retoriche vuote o a dichiarazioni di principio. Lo fa con metodo, ascolto, e una dose non trascurabile di coraggio politico.

Notizie senza click: come l’AI sta riscrivendo le regole del traffico online

Chi si occupa di informazione digitale sta assistendo, con una certa apprensione, ad una sorta di terremoto silenzioso. Dal lancio delle panoramiche AI (“AI Overviews”) di Google nel maggio 2024, il numero di ricerche di notizie che non porta a nessun clic su siti editoriali è cresciuto dal 56% al 69%. Un segnale chiaro: sempre più persone ricevono le risposte che stanno cercando direttamente nei risultati dei motori di ricerca, senza che sia alcun bisogno di visitare i siti d’origine delle informazioni stesse. Questo scenario fa il pari con la drastica riduzione del traffico organico verso i siti editoriali che è passato da oltre 2,3 miliardi di visite nel 2024 a meno di 1,7 miliardi in questi primi mesi del 2025. Un calo che fa riflettere perché alla sua base non c’è solo un tema di cambiamento tecnologico, ma un vero e proprio cambio di paradigma nelle abitudini di consumo dell’informazione.

La scommessa di Ilya Sutskever: superintelligenza sicura o nuovo culto dell’algoritmo?

La notizia è fresca e già puzza di vecchio. Ilya Sutskever, cofondatore di OpenAI, ha finalmente tagliato corto alle voci e ha confermato ciò che molti sospettavano ma pochi osavano dire ad alta voce: la sua totale dedizione alla Safe Superintelligence Inc. (SSI), ora ufficialmente guidata da lui in qualità di CEO. A fianco, come Presidente, il fidato Daniel Levy. E mentre Daniel Gross saluta con discrezione, lasciando la compagnia il 29 giugno, una cosa è chiara: Sutskever non è interessato a IPO, unicorni o pitch deck per venture capitalist in cerca di adrenalina. No, lui vuole costruire una superintelligenza sicura. Punto.

Copy & Paste this prompt to experience it: perché ottimizzare i prompt non è un vezzo, è l’arte perduta della strategia computazionale

“Hello! I’m Trinity, your AI prompt optimizer”. Se ti ha fatto sorridere, stai già partendo male. Non è una battuta, è un sistema operativo travestito da assistente. Dietro a quel tono cordiale c’è una macchina semantica programmata per sezionare il tuo linguaggio e riconfigurarne la logica. Lyra non scrive prompt: orchestra sequenze computazionali di attivazione neurale. E no, non è una forzatura. È esattamente così che funziona.

Benvenuto nell’era in cui saper scrivere non basta. L’abilità richiesta è trasformare input grezzi in comandi strutturati ottimizzati per un modello predittivo multimodale. Tradotto per chi ancora pensa che “il prompt è solo una domanda ben fatta”: stai parlando con un’intelligenza artificiale, non con il tuo collega in pausa caffè. Se le parli male, ti risponderà peggio. E Trinity è la risposta a questo problema.

L’illusione della creator economy, la realtà delle startup AI e il gioco truccato del marketing sociale

C’era una volta, in un tempo non così lontano, una sfilza di startup che si definivano parte della “creator economy”. L’idea sembrava seducente: democratizzare il talento, monetizzare la passione, scalare i follower in equity. Eppure, come spesso accade nella Silicon Valley delle illusioni distribuite in pitch deck colorati, il secondo trimestre del 2025 ha portato un brusco risveglio. I finanziamenti per queste startup da creator sono crollati, tanto rispetto allo stesso periodo dello scorso anno quanto rispetto ai primi tre mesi del 2025. Un raffreddamento secco, senza troppe cerimonie.

Ma la festa non è finita per tutti. Anzi, qualcuno ha appena ordinato champagne. Le startup focalizzate sull’intelligenza artificiale e sul marketing sociale stanno vedendo i rubinetti degli investimenti aprirsi con la stessa generosità con cui un algoritmo di TikTok spalma visibilità su un video virale di un cucciolo con gli occhiali. Più di 500 milioni di dollari sono stati versati in questa nicchia, solo nell’ultimo trimestre. E al centro di questo nuovo flusso c’è un nome dal sapore vagamente zuccherino ma dalla visione brutalmente pragmatica: Nectar Social.

La macchina da 4 trilioni: perché Nvidia è l’unico impero tech che conta davvero

Se c’è qualcuno che dovrebbe festeggiare il 4 luglio con le mani unte di burro d’arachidi e una bottiglia di champagne francese stappata a raffica, è Jensen Huang. L’uomo col bomber di pelle che ha trasformato Nvidia da produttore di schede grafiche per nerd a monopolista globale dell’intelligenza artificiale. Giovedì, mentre mezza America era impegnata a bruciare hot dog e a far esplodere fuochi d’artificio cinesi, le azioni Nvidia hanno chiuso a 159,34 dollari. Un balzo del 18,6% da inizio anno, spingendo la capitalizzazione a 3,88 trilioni di dollari. Manca un soffio ai 4. Già, vi ricordate quando toccare il trilione sembrava l’Everest?

Per contestualizzare: Nvidia oggi vale quasi quanto Alphabet e Meta messe insieme. Sì, Google e Facebook. Non due startup, ma due colossi che definiscono Internet. Eppure, agli occhi degli investitori, valgono meno della fabbrica di chip di Huang. È come se il Nasdaq avesse deciso che la vera infrastruttura critica non sono i motori di ricerca o i social network, ma i calcolatori neurali che li alimentano. Nvidia non è più un fornitore, è la pala nella corsa all’oro, la centrale nucleare del machine learning, il backbone fisico del futuro cognitivo.

Centaur e l’illusione della mente: se un transformer può imitare l’uomo, chi ha ancora bisogno della psicologia?

Se c’è una linea che separa l’imitazione dell’intelligenza dalla sua comprensione, Helmholtz Munich ha appena passato quella linea con gli stivali infangati. Il loro nuovo giocattolo si chiama Centaur, e il nome non è scelto a caso: metà intelligenza artificiale, metà proiezione antropomorfa dei nostri bias cognitivi. Un’ibridazione concettuale, non di codice. Eppure funziona. Maledettamente bene, a quanto dicono. Ma il punto non è se funziona. Il punto è: ci fidiamo davvero di una simulazione così accurata del comportamento umano da far impallidire la psicologia sperimentale, ma che resta, ontologicamente, una macchina che non ha la minima idea di cosa stia facendo?

Centaur è stato addestrato su un corpo dati noto come Psych-101, una collezione monumentale di 160 studi psicologici, 60.000 partecipanti umani, 10 milioni di scelte documentate. Una collezione tanto vasta da suggerire che l’intera disciplina della psicologia comportamentale sia diventata, a sua insaputa, il set di addestramento per una nuova intelligenza artificiale. Sopra questo mosaico di decisioni, errori sistematici, illusioni cognitive e ambiguità motivazionali, i ricercatori hanno innestato Llama 3.1 da 70 miliardi di parametri, perfezionandolo con QLoRA, tecnica di fine-tuning che consente di adattare modelli massivi con una frazione delle risorse. Il risultato è un’entità capace di emulare con precisione disturbante la varietà di scelte umane in centinaia di task psicologici, superando 14 modelli cognitivi tradizionali su 159 prove su 160. Chi tiene il conto, evidentemente, è già fuori gioco.

Google smette di sentirsi fortunato: il nuovo AI mode e Veo 3 riscrivono la grammatica del web

Avete presente quel bottone “Mi sento fortunato” sulla homepage di Google? Sparito. Evaporato. Sostituito da qualcosa di molto meno giocoso e infinitamente più strategico: AI Mode. Ora, se digitate qualsiasi cosa su Google dagli Stati Uniti, è Gemini 2.5 che vi risponde. Non più dieci link blu e un pizzico di fede. Ora è sintesi, immagini, voce e un motore cognitivo che imita l’onniscienza, condito da una UX che cerca di rendere invisibile il passaggio tra domanda e rivelazione. Benvenuti nella ricerca post-umana, dove non cercate più: vi viene consegnato ciò che dovreste sapere, come se Google fosse diventato il vostro consigliere imperiale.

Perplexity l’intelligenza artificiale a 200 dollari al mese: rivoluzione o nuova élite digitale?

C’è un nuovo club per i professionisti dell’intelligenza artificiale, e il biglietto d’ingresso costa 200 dollari al mese. Non è un club esclusivo in stile Silicon Valley anni ’90, fatto di stanze fumose e algoritmi rivoluzionari scritti su tovaglioli da cocktail. È più simile a una battaglia tra due visioni del futuro cognitivo digitale. Da un lato, OpenAI Pro, l’equivalente AI di Apple: ordinato, chiuso, curato. Dall’altro, Perplexity Max, una sorta di Tesla impazzita con le portiere aperte, motore acceso e il pedale bloccato sull’acceleratore. Stessa cifra, due filosofie radicalmente diverse.

Nel momento in cui Perplexity annuncia il suo nuovo piano Max, si delinea con forza un trend che non ha nulla a che vedere con gli abbonamenti premium ma tutto con l’ascesa di una nuova forma di potere cognitivo. Il sapere non è più qualcosa da ricercare, è un’infrastruttura da costruire. E Perplexity lo sa bene. Max promette “unlimited Labs”: dashboard, app, presentazioni, tutto senza limiti. Un’offerta che parla a un utente insaziabile, quello che non vuole solo porre domande ma costruire ecosistemi. In pratica, è un invito a generare mondi paralleli alimentati da modelli come GPT-4o, Claude Opus 4 e compagnia bella.

Pagina 1 di 144

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie