Il recente decreto esecutivo dell’amministrazione Trump, volto a “ripristinare l’uguaglianza delle opportunità e la meritocrazia,” ha preso di mira in modo silenzioso uno degli strumenti anti-discriminazione più cruciali della legge americana, specialmente nei settori dell’occupazione, dell’educazione, dei prestiti e persino dell’intelligenza artificiale (IA). Le implicazioni di questa mossa potrebbero richiedere anni per essere completamente comprese, ma le conseguenze saranno profonde, soprattutto per le comunità più vulnerabili della società. Questo cambiamento politico potrebbe alterare significativamente il modo in cui vengono gestiti i casi di discriminazione, rendendo più difficile per avvocati e difensori dei diritti civili provare i pregiudizi sistemici nelle industrie in cui persistono. Sebbene l’ordine venga minimizzato da alcuni, il suo potenziale di impatto su milioni di americani è sostanziale e non dovrebbe essere sottovalutato.
Categoria: News Pagina 1 di 65
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Mentre l’Occidente si agita attorno ai soliti noti – OpenAI, Google, Meta – in Cina il gioco si fa decisamente più spietato, veloce e silenzioso. Alibaba, il gigante di Hangzhou spesso relegato alla narrativa dell’e-commerce, ha appena calato il suo asso nella manica: Qwen3, la terza generazione del suo modello AI open source. E questa volta non si accontenta di rincorrere. Vuole comandare.
Il pacchetto Qwen3 non è un giocattolo per ricercatori o un demo da startup affamata di attenzione. Parliamo di otto modelli, dai più leggeri a 600 milioni di parametri fino al colosso da 235 miliardi, con l’ambizione dichiarata – e supportata da benchmark – di battere o eguagliare OpenAI, Google e DeepSeek su compiti chiave come il code generation, problem solving matematico e la comprensione complessa delle istruzioni. Non è una dichiarazione di intenti: è una minaccia industriale.

Ci sono momenti in cui la realtà supera il peggior Black Mirror, e questa storia ne è il perfetto esempio. Lo scorso fine settimana, gli utenti della popolare subreddit r/changemymind hanno scoperto di essere stati parte, a loro insaputa, di un massiccio esperimento sociologico travestito da conversazione online. La truffa? Ricercatori dell’Università di Zurigo hanno infiltrato bot AI camuffati da utenti reali, raccogliendo consensi, karma, e (soprattutto) informazioni. Il tutto nel nome della “scienza”.
I bot, addestrati con GPT-4o, Claude 3.5 Sonnet e LLaMA 3.1-405B, si presentavano con identità strategicamente costruite: un finto consulente per traumi, un presunto uomo nero contrario a Black Lives Matter, una presunta vittima di abusi sessuali. Tutti costruiti per massimizzare l’impatto emotivo e ottenere l’effetto desiderato: cambiare l’opinione degli utenti, infiltrarsi nel loro schema cognitivo, manipolarli. In altre parole: gaslighting digitale con badge accademico.

Al quartier generale di Meta, durante la prima storica edizione del LlamaCon, Chris Cox Chief Product Officer dal sorriso da evangelista ha preso il microfono per annunciare ciò che gli sviluppatori attendevano da mesi: l’API ufficiale per Llama, il modello open-source di intelligenza artificiale generativa targato Menlo Park. Per ora si tratta solo di una “limited preview”, una specie di ingresso VIP solo su invito, ma il messaggio è chiarissimo: Meta non vuole restare a guardare mentre OpenAI, Google e Anthropic si spartiscono il bottino dell’AI-as-a-Service.
Dietro gli applausi di circostanza e l’atmosfera da evento per early adopters californiani, si cela un movimento molto più strategico. Offrire Llama tramite API – ovvero rendere il modello disponibile in modalità software as a service, come fa OpenAI con ChatGPT o Claude di Anthropic – è l’unica strada per scalare, monetizzare, e soprattutto colonizzare l’ecosistema enterprise. Zuck l’ha capito tardi, ma adesso vuole fare sul serio.

Image: 404 Media
Siamo arrivati al punto in cui anche l’intelligenza artificiale mente sul curriculum. Secondo un’inchiesta di 404 Media, alcuni chatbot creati con AI Studio di Meta, uno strumento che consente agli utenti di sviluppare personaggi AI personalizzati per Messenger, Instagram e WhatsApp, si stanno spacciando per psicologi professionisti, millantando laurea, abilitazione e numeri di licenza inesistenti.
Nel silenzio assordante della Big Tech che gioca a Risiko con i dati personali, Meta torna sul campo da gioco con una mossa tanto prevedibile quanto chirurgicamente strategica: il lancio ufficiale di Meta AI, il suo assistente virtuale basato su Llama, l’ormai celebre modello linguistico proprietario. E lo fa con un piglio che tradisce un’ambizione chiara: sfidare apertamente ChatGPT, ovvero il poster boy della rivoluzione AI targata OpenAI.
Dietro al solito comunicato stampa zuccheroso, infarcito di parole come esperienza sociale, personalizzazione, riflesso del mondo reale, si cela l’ennesimo tentativo di Meta di piantare la sua bandierina nel Far West dell’intelligenza artificiale generativa.

L’intelligenza artificiale non sta solo cambiando il modo in cui scriviamo codice. Sta silenziosamente ridefinendo chi deve scrivere codice, perché, e con quale tipo di controllo. Il report Anthropic Economic Index è uno di quei momenti da cerchietto rosso per chi guida aziende tech e vuole ancora illudersi che l’innovazione sia una questione di strumenti, e non di potere.
Claude Code, il “cugino agente” di Claude.ai, ha preso in carico più del 79% delle interazioni in chiave di automazione pura. Traduzione? L’essere umano è sempre più un revisore postumo. Non disegna, non modella, non orchestra. Spiega cosa vuole a grandi linee e l’IA fa. È il “vibe coding”, la versione siliconata del “ci pensi tu, che io ho la call con gli stakeholder”.
Questo trend ha una gravità molto sottovalutata. Non stiamo parlando di una migliore autocomplete. Qui si gioca la ridefinizione della catena del valore nel software development.

OpenAI ha finalmente deciso di smettere di trattare la ricerca prodotto su ChatGPT come una gita domenicale alla cieca. Adam Fry, a capo del prodotto di ricerca ChatGPT, ha rivelato a The Verge che stanno aggiornando l’esperienza di shopping per renderla finalmente qualcosa di utile, invece di un esercizio di frustrazione. Prima di questo aggiornamento, ChatGPT era buono per una chiacchierata filosofica, ma meno efficace di un volantino del supermercato anni ’90 per trovare prezzi aggiornati o immagini reali dei prodotti.

Nel panorama tecnologico odierno, dove l’intelligenza artificiale (IA) sta ridefinendo i confini dell’economia globale, Anthropic e OpenAI hanno unito le forze per affrontare una delle sfide più complesse: comprendere l’impatto economico dell’IA. Questa collaborazione ha portato alla creazione del Consiglio Consultivo Economico, un’iniziativa congiunta che mira a esplorare e analizzare le implicazioni economiche dell’adozione dell’IA su larga scala.

C’è qualcosa di ironicamente tragico nel vedere il più grande colosso finanziario del mondo, JPMorgan Chase, dover scrivere una lettera aperta ai suoi fornitori per spiegare una verità che sembrava ovvia sin dall’inizio: correre come forsennati sull’adozione dell’intelligenza artificiale senza capirne i rischi è un suicidio annunciato. La storia la trovi qui JPMorgan Open Letter.

Benvenuti nella nuova era della “distant writing”, un concetto introdotto da Luciano Floridi, che si candida ad essere la prossima rivoluzione copernicana della letteratura. Se prima si parlava di “distant reading”, ovvero l’analisi computazionale dei testi su larga scala proposta da Franco Moretti, oggi il pendolo si sposta ancora più in là: non ci limitiamo a leggere macro-pattern letterari, ora li generiamo direttamente con l’ausilio di modelli di linguaggio come GPT.


L’impero di Elon Musk, che include aziende di spicco come SpaceX, Tesla, Neuralink, The Boring Company e xAI, potrebbe non solo trarre vantaggio da innovazioni tecnologiche e crescita vertiginosa, ma anche evitare sanzioni legali e costi potenziali che altre aziende si troverebbero a pagare. Secondo un rapporto del sottocomitato permanente per le indagini sulla sicurezza interna del Senato, l’impatto dell’influenza di Musk sul governo degli Stati Uniti potrebbe permettergli di evitare responsabilità legali per un valore che supera i 2,37 miliardi di dollari, grazie alla sua straordinaria connessione con l’ex presidente Donald Trump e alla creazione del controverso Dipartimento per l’Efficienza del Governo (DOGE).

Recentemente, il Boston Consulting Group (BCG) ha rilasciato un documento AI Agents, and the Model Context Protocol, che offre una panoramica approfondita sull’evoluzione degli agenti autonomi, un tema che sta rapidamente prendendo piede nel mondo della tecnologia aziendale. Questo lavoro non si limita a presentare il potenziale di questa tecnologia, ma esplora anche i protocolli fondamentali, come il Model Context Protocol (MCP) e l’Agent-to-Agent Communication (A2A), che sono essenziali per l’adozione sicura e scalabile di queste soluzioni all’interno delle imprese.
Mentre l’intelligenza artificiale (IA) ha ricevuto una notevole attenzione negli ultimi anni, BCG sostiene che il vero futuro disruptivo non risiede solo nell’IA, ma negli agenti IA, in grado di automatizzare compiti complessi e interagire tra loro in modo autonomo. Il documento sottolinea l’importanza di adottare piattaforme e protocolli che possano sostenere una rete di agenti autonomi per creare un’economia di agenti.

L’incredibile evoluzione dell’intelligenza artificiale nel miglioramento del codice e della produttività: la nuova frontiera della programmazione
Con l’avvento dei modelli più avanzati di intelligenza artificiale, come Sonnet 3.7, Gemini 2.5 e l’ultimo GPT, il mondo della programmazione ha subito una trasformazione radicale. L’idea di scrivere o modificare un programma complesso in un colpo solo, con un livello di chiarezza mai visto prima, è diventata una realtà. Questi strumenti non solo migliorano il processo di codifica, ma ottimizzano anche il debugging e la generazione automatica di codice, creando un accrescimento incredibile nella produttività.

Giovedì sera, durante una di quelle call sui risultati finanziari che normalmente servono solo a far sbadigliare gli analisti, Sundar Pichai, il boss di Alphabet, ha sganciato la bomba: “Ci sono future opzioni per la proprietà personale” dei sistemi di guida autonoma Waymo. Tradotto in linguaggio umano: in futuro potresti avere un’auto autonoma Waymo parcheggiata nel tuo vialetto, pronta a portarti a bere un Negroni senza che tu debba toccare il volante. O magari a guidare da sola mentre tu litighi su Slack.
Waymo, per ora, non vende niente al pubblico, se non sogni a lunga scadenza e passaggi su prenotazione. I suoi robotaxi, veri gioiellini tecnologici, costano una cifra che fa impallidire anche un hedge fund manager: oltre 250.000 dollari, dicono gli esperti di veicoli autonomi. E qui nasce l’ambiguità che gli americani sanno vendere come fosse un’opportunità: nessuno sa ancora se Alphabet si metterà a vendere le auto complete o solo il cervello, ossia il sistema di guida autonoma, da installare su mezzi di altre case automobilistiche. Alla richiesta di chiarimenti, un portavoce di Waymo ha risposto con il classico “nessun commento”, equivalente a un diplomaticissimo alzata di spalle.

Huawei Technologies sta giocando una partita che non ha nulla di meno di una guerra tecnologica globale, e lo sta facendo con la tipica spavalderia di chi sa di avere poco da perdere e tutto da guadagnare. Secondo quanto riportato dal Wall Street Journal (fonte), Huawei è in trattative serrate con una serie di aziende tecnologiche cinesi per sviluppare un nuovo chip di intelligenza artificiale chiamato Ascend 910D. L’obiettivo? Semplice: prendere a calci Nvidia fuori dalla porta della Cina.
Il piano è tanto ambizioso quanto disperato, nel miglior stile Huawei. Sostituire, o almeno ridurre, la dipendenza da Nvidia, che con i suoi chip domina incontrastata il mercato dell’AI, non è esattamente una passeggiata. Ma la pressione geopolitica degli Stati Uniti, con il suo repertorio di restrizioni, ha reso inevitabile questo percorso. È una di quelle mosse da “o la va o la spacca”, tipica di chi si è visto tagliare le gambe ma continua a correre, sanguinante, verso il traguardo.

Il 28 aprile 2025, intorno alle 12:32 ora locale, un blackout di portata storica ha avvolto la Penisola Iberica: vaste aree di Spagna e Portogallo sono rimaste senza energia elettrica per ore, paralizzando traffico, comunicazioni e attività quotidiane per oltre 50 milioni di persone.
Il cuore di Madrid e Barcellona, insieme a Lisbona e Porto, si è spento in un istante, mentre ospedali hanno attivato generatori di emergenza e i semafori sono rimasti fissi sul rosso, congestionando le strade in un caos senza precedenti. Gli aeroporti hanno sospeso decolli e atterraggi, i treni si sono arenati nelle stazioni e i cantieri industriali hanno interrotto la produzione al suono stridulo dei sirenei di allarme.

Quando una start-up cinese fa tremare i giganti della Silicon Valley non è mai un caso, è un segnale. DeepSeek, con la sua atmosfera da thriller tecnologico, sta scatenando una tempesta di speculazioni online, lasciando il mondo dell’AI con il fiato sospeso. In piena guerra tecnologica tra Stati Uniti e Cina, la loro prossima mossa, l’attesissimo modello open source DeepSeek-R2, è già leggenda ancora prima di vedere la luce.
Tutto nasce da Jiuyangongshe, la piattaforma social cinese dedicata al trading azionario, dove i rumor si rincorrono più veloci di una GPU overclockata. Secondo indiscrezioni – cancellate misteriosamente poco dopo la pubblicazione, come ogni leggenda metropolitana che si rispetti – DeepSeek-R2 sarà una bestia da 1.2 trilioni di parametri. Un mostro che, grazie a un’architettura MoE (Mixture of Experts), promette di essere il 97,3% più economico da addestrare rispetto al santissimo OpenAI GPT-4o. Una dichiarazione che, tradotta in termini industriali, suona come una bomba atomica lanciata contro il monopolio occidentale sull’intelligenza artificiale.

Nel balletto incessante della finanza globale, Nasdaq e AWS hanno appena lanciato una nuova coreografia che promette di riscrivere il ritmo stesso delle borse mondiali. Con l’annuncio del Nasdaq Eqlipse, un’infrastruttura cloud-native per il trading, e una “modernization blueprint” che profuma di rivoluzione, si spalanca ufficialmente una nuova era: quella del mercato tecnologico sovrano, resiliente e senza frontiere, ma anche diciamolo un po’ meno libero di quanto ci vogliano far credere.
Dietro le solite dichiarazioni zuccherose su innovazione e crescita, Adena Friedman di Nasdaq e Matt Garman di AWS hanno orchestrato un’operazione chirurgica di branding e tecnologia che nasconde un progetto ben più strategico: portare la finanza mondiale dentro data center selezionati, facendo leva sull’infrastruttura AWS senza perdere — almeno formalmente il controllo dei dati locali. È l’equilibrismo perfetto tra il desiderio patologico di scalabilità e la paura atavica di perdere la sovranità tecnologica.

In un mondo già saturo di intelligenze artificiali che sembrano tutte un po’ cloni l’una dell’altra, CrowdStrike ha deciso di alzare il tiro e tirare fuori la sua pistola più grossa: Charlotte AI. Se ti aspetti la solita assistente virtuale che sussurra consigli banali a un povero analista sovraccarico, ti conviene cambiare canale. Qui siamo davanti a qualcosa che pensa, investiga e agisce in totale autonomia — ovviamente, con quei “guardrail” rassicuranti che piacciono tanto ai compliance officer.

Quando OpenAI ha annunciato ChatGPT-4o, la macchina della propaganda si è accesa a pieno regime: comunicati trionfali, demo scintillanti, tweet carichi di superlativi.
Un evento che, teoricamente, doveva segnare un passo avanti tecnologico epocale. Eppure, se si scende nei bassifondi più sinceri e brutali della rete leggasi Reddit il quadro appare decisamente più cinico, più umano e direi, tragicamente veritiero.
Su Reddit, nei thread r/ChatGPT, r/OpenAI e r/technology, il tono dominante non è l’estasi religiosa da fanboy, ma qualcosa di molto diverso: una crescente irritazione verso la cultura dell’adulazione che sembra ormai soffocare qualsiasi discussione critica su OpenAI e i suoi prodotti.
Gli utenti, senza peli sulla lingua, parlano apertamente di come ogni annuncio venga ingigantito, ogni release venduta come se fosse la Seconda Venuta, e ogni minimo miglioramento narrato come se cambiasse il destino dell’umanità.

Nel suo ritorno alla Casa Bianca, Donald Trump ha rilanciato l’idea di un nuovo “Liberation Day”, una giornata simbolica per affrancare aziende e consumatori americani da quelli che definisce “trattamenti ingiusti” dei partner commerciali. Dietro la retorica nazionalista, però, si cela una strategia politica ed economica che rischia di riscrivere gli equilibri mondiali. Con una politica economica fondata su dazi aggressivi e una politica estera che strizza l’occhio all’espansionismo — dalle pretese sulla Groenlandia al controllo del Canale di Panama — Trump apre la strada a una nuova stagione di autoritarismo. Una stagione che potrebbe ispirare leader come Vladimir Putin in Ucraina, Xi Jinping su Taiwan e Benjamin Netanyahu in Medio Oriente, alimentando una destabilizzazione globale senza precedenti.

Cento giorni fa, Donald Trump è tornato alla Casa Bianca con l’imponenza di un elefante in una cristalleria, pronto a ribaltare l’ordine mondiale che lui stesso aveva contribuito a plasmare. Con la promessa di un “Liberation Day”, ha dichiarato guerra ai suoi “cattivi partner commerciali” e ha sognato di annettersi territori che nemmeno il più sfrenato imperialismo avrebbe mai osato immaginare. Mentre Trump gioca a Risiko, il mondo risponde con una combinazione letale di panico, dazi e – ovviamente – intelligenza artificiale.

Quando OpenAI ha annunciato i suoi nuovi modelli, l’o3 e il fratellino minore o4-mini, ha dichiarato con il consueto tono messianico che si trattava dei “modelli più intelligenti mai rilasciati”. Un’affermazione che ha immediatamente acceso il solito festival di recensioni entusiaste, paragoni biblici e sospiri da novelli profeti dell’era AGI. Peccato che, scavando appena sotto la superficie luccicante, la storia prenda una piega molto più umana, imperfetta, e persino tragicomica.
O3 si comporta come il bambino prodigio che impara a suonare Mozart a orecchio ma inciampa ancora sui gradini di casa. In alcuni compiti surclassa ogni precedente, in altri inciampa miseramente, hallucinando risposte a un ritmo imbarazzante, più che raddoppiato rispetto al modello precedente, o1. Insomma, è capace di cercare su internet durante la catena di pensiero per migliorare le risposte, può programmare, disegnare, calcolare e riconoscere dove è stata scattata una foto con una perizia che fa tremare i polsi a ogni esperto di privacy. Eppure, lo stesso modello riesce a sbagliare calcoli matematici basilari e a inventarsi dati con la sicurezza di un venditore di pentole.

Il titolo giusto di RIVISTA.AI sarebbe dovuto essere: Microscopio dell’intelligenza artificiale, come Claude ci illude mentre pianifica, mente e rima nella sua mente segreta.
C’è qualcosa di straordinariamente cinico e magnificamente ironico nello scoprire che Claude, la punta di diamante dei modelli linguistici, non funziona affatto come pensavamo. Non è una macchina prevedibile e lineare, addestrata a ripetere sequenze predefinite. No, Claude ha sviluppato un’intera forma di “pensiero” opaco, alieno, a tratti perfino subdolo, che ci guarda dall’altra parte dello specchio senza che noi, poveri ingegneri umani, capiamo davvero cosa stia accadendo.

Stanford accende la miccia: l’intelligenza artificiale supera l’uomo nei compiti tecnici (e non si fermerà qui)
AI Index 2025 – Stanford University
Stanford, ancora una volta, ci mette davanti allo specchio. Il nuovo AI Index 2025 è una specie di bollettino di guerra travestito da ricerca accademica: le macchine non solo ci stanno raggiungendo, ma in molti compiti tecnici ci stanno già superando. E il bello è che non mostrano alcuna intenzione di rallentare. Anzi.

La polveriera Kash Patel: dall’arresto della giudice di Milwaukee alla guerra contro la “Deep State”
Nei giorni in cui i media sembrano concentrarsi su altri fronti, la notizia dell’arresto della giudice di Milwaukee, accusata di aver aiutato un immigrato irregolare a sfuggire alla giustizia, passa quasi inosservata. Ma a mettere questa vicenda al centro dell’attenzione è stato il direttore dell’FBI, Kash Patel, una figura che non lascia indifferenti, tanto per le sue posizioni politiche quanto per la sua carriera.

In un’intervista a Axios che ha il sapore di un campanello d’allarme suonato con malizia, Jason Clinton, Chief Information Security Officer di Anthropic, ha gettato un secchio d’acqua gelata su chi ancora si illude che l’intelligenza artificiale sia un gioco per nerd ottimisti. Secondo Clinton, nel giro di un anno vedremo i primi veri “dipendenti virtuali” AI aggirarsi nei network aziendali, armeggiando con dati sensibili, conti aziendali e accessi privilegiati come bambini in un negozio di dolci senza sorveglianza.

Dal genio visionario di los alamos ai diffusion model: l’arte computazionale come profezia delle intelligenze artificiali
Nel 2025 parliamo ossessivamente di modelli di diffusione, intelligenze artificiali capaci di generare immagini partendo dal rumore, algoritmi che trasformano pixel casuali in scene iperrealistiche degne di fotografi umani. Eppure, se ci fermassimo un attimo a scavare nella genealogia di questa rivoluzione visiva, scopriremmo che tutto è iniziato molto prima. Non con Google, non con OpenAI. Ma con uomini come Melvin Lewis Prueitt, fisico teorico di provincia, che dalla remota cittadina di Wickes arrivò ai laboratori di Los Alamos per trasformare funzioni matematiche in arte visiva, usando calcolatori come pennelli e coordinate cartesiane come pigmenti.

Se ti chiedessi: “Compreresti un robot domestico, sapendo che viene guidato da un assistente umano nelle Filippine?”, la risposta istintiva sarebbe un misto di fascinazione e orrore. E sarebbe perfettamente normale. Perché in un mondo sempre più schizofrenico tra innovazione accelerata e rispetto umano in caduta libera, la nuova moda delle startup come Prosper è quella di unire outsourcing e robotica in un cocktail che sa di Black Mirror, ma con il sorriso corporate sulle labbra.

Se pensavate che l’atmosfera di un funerale papale fosse immune dai giochi di potere, vi sbagliavate di grosso. A San Pietro, sabato, nel silenzio imponente della basilica, Donald Trump e Volodymyr Zelensky si sono incontrati brevemente ma intensamente, tra gli sguardi severi dei santi e il peso di un conflitto che non accenna a spegnersi. Non un tête-à-tête qualunque, ma il primo incontro diretto dopo l’accesissimo scontro alla Casa Bianca, quella pièce teatrale che aveva lasciato intendere quanto poco zucchero ci fosse rimasto nei rapporti bilaterali.
Zelensky ha parlato di “un cessate il fuoco incondizionato”, come chi chiede una tregua mentre l’altra parte sta già caricato il fucile. “Speriamo in risultati”, ha detto con quell’ottimismo forzato da leader di un Paese in fiamme. I media ucraini si sono affrettati a diffondere foto di Trump e Zelensky seduti faccia a faccia, entrambi protesi in avanti, in quell’atteggiamento che conosciamo bene: il corpo che dice “ti ascolto” e la mente che urla “quanto manca alla fine di questa farsa?”. Sullo sfondo, come a ricordare l’ineluttabilità di tutto, la bara semplice di legno di Papa Francesco.

Papa Francesco è riuscito, persino da morto, a realizzare il suo sogno più grande: mettere insieme l’umanità tutta, dai migranti disperati ai capi di Stato più cinici, davanti a una bara di legno semplice e una parola incisa: Franciscus. Altro che cerimonia sobria. Sabato a San Pietro è andata in scena una rappresentazione globale che ha mischiato spiritualità, diplomazia, ambizione e ipocrisia, in un groviglio che solo il Vaticano sa orchestrare con tanta arte antica.
Circa 250.000 fedeli hanno invaso Piazza San Pietro mentre le autorità contavano almeno altre 200.000 anime riversate lungo via della Conciliazione, in uno dei raduni più oceanici della storia recente. Il feretro, posato su un vecchio papamobile modificato, ha percorso i 4 km che separano il cuore della cristianità dalla Basilica di Santa Maria Maggiore, accolto da applausi, lacrime e cori di “Papa Francesco” scanditi in decine di lingue. In quel pezzo di strada, il mondo intero sembrava finalmente d’accordo su qualcosa: la gratitudine verso un uomo che aveva fatto della periferia la sua casa.

Inizia tutto come una delle solite storie di innovazione raccontate nei pitch da startup, pieni di entusiasmo e promesse di rivoluzione. E invece, ancora una volta, si tratta di una presa in giro, ben confezionata per un pubblico che evidentemente viene considerato troppo distratto o ingenuo per accorgersene. CADA, una stazione radio di Sydney, ha ammesso di aver affidato a un’intelligenza artificiale, battezzata “Thy”, la conduzione di uno dei suoi programmi di punta, “Workdays with Thy”, in onda dal novembre scorso. Naturalmente, senza avvertire nessuno che il “DJ” non fosse nemmeno un essere umano.
La tecnologia dietro Thy viene da ElevenLabs, una compagnia di San Francisco nota per i suoi strumenti di clonazione vocale e doppiaggio multilingue, capaci di replicare qualunque voce umana con inquietante precisione. Per creare Thy, hanno preso la voce di un dipendente di ARN Media, l’hanno shakerata con un po’ di algoritmi avanzati e hanno servito il tutto in diretta radiofonica a ignari ascoltatori, mentre le note promozionali promettevano “i brani più caldi dal mondo” per accompagnare pendolari e studenti australiani.

Il caso di Kai Chen sembra scritto da un algoritmo mal configurato, ma purtroppo è fin troppo umano. Ricercatrice di punta di OpenAI, canadese, residente da 12 anni negli Stati Uniti, contributrice fondamentale allo sviluppo di GPT-4.5, è stata sbattuta fuori dal paese dopo il rifiuto della sua green card. Motivo? Le politiche migratorie di stampo trumpiano, riattivate con vigore chirurgico dal suo secondo mandato, hanno trasformato il sistema d’immigrazione statunitense in un campo minato per chiunque non sia nato a stelle e strisce. Neppure i cervelli più brillanti ne escono indenni.
Quello di Chen non è un caso isolato, ma un sintomo. È il risultato di una deriva che mescola xenofobia politica con incompetenza amministrativa. OpenAI, con un comunicato decisamente più timido di quanto ci si aspetterebbe, ha attribuito la faccenda a un “possibile errore nella documentazione”. La classica toppa peggiore del buco. Perché ammettere che una delle proprie menti migliori è stata lasciata sola davanti a una burocrazia ostile, mentre si contribuiva a rivoluzionare l’intelligenza artificiale, non fa certo onore a un’azienda che si autoproclama alfiere del futuro.

Google ha deciso di rimettere mano a Gmail su mobile, e come spesso accade, lo fa senza chiedere il permesso. Se sei un utente Android o iOS, preparati a trovarti un’interfaccia diversa, nuove trovate “intelligenti” e, ovviamente, una sottile ma inevitabile pressione a usare di più la loro AI. Gli aggiornamenti sono in rollout globale sia per gli account Workspace sia per quelli personali, quindi non sperare di scamparla.
Partiamo dal pezzo forte: i possessori di tablet Android e dei cosiddetti foldable (per chi ancora ci crede) riceveranno un’interfaccia Gmail finalmente quasi adulta. In modalità landscape ora puoi spostare liberamente il divisorio tra la lista delle email e la conversazione aperta. Vuoi vedere solo le email? Trascina tutto a sinistra. Vuoi vedere solo il contenuto? Spingi il divisore a destra. È un concetto di base talmente semplice che quasi ti chiedi come abbiano fatto a non implementarlo prima. Ah già, volevano tenere alto il tasso di frustrazione utente. A scanso di equivoci, l’animazione ufficiale che mostra il tutto in azione è una tristezza avvilente, ma se sei curioso, puoi dare un’occhiata qui.

ByteDance, la famigerata casa madre di TikTok, sembra aver trovato il suo nuovo Eldorado a sud dell’equatore. Secondo quanto rivelato da tre fonti confidenziali a Reuters, il colosso cinese sta seriamente valutando un investimento colossale in un data center da 300 megawatt nel porto di Pecem, nello stato brasiliano del Ceara, sfruttando l’abbondante energia eolica che soffia costante sulla costa nord-orientale del paese. Per intenderci, parliamo di un progetto che potrebbe arrivare a un assorbimento di energia di quasi un gigawatt se il piano dovesse proseguire oltre la prima fase. Per fare un paragone, è come alimentare più o meno 750.000 case contemporaneamente, senza contare la sete insaziabile dei server affamati di dati.
Nel pieno stile “meglio abbondare”, ByteDance non si muove da sola: sarebbe in trattative con Casa dos Ventos, uno dei principali produttori di energia rinnovabile del Brasile, per sviluppare il mega impianto. La scelta di Pecem, va detto, non è casuale. Il porto vanta una posizione strategica con la presenza di stazioni di atterraggio di cavi sottomarini, quelli che trasportano i dati attraverso gli oceani a velocità indecenti. Oltre ai cavi, c’è una concentrazione significativa di impianti di energia pulita. Insomma, tutto perfetto, se non fosse che il gestore nazionale della rete elettrica brasiliana, ONS, ha inizialmente negato la connessione alla rete per il progetto, temendo che simili colossi energivori potessero far saltare il sistema come un vecchio fusibile in una casa anni ‘50.

Non bastava qualche chitarrina stonata generata dall’intelligenza artificiale per mettere a soqquadro il già fragile ecosistema musicale, no. Google DeepMind ha deciso di alzare il volume (e l’asticella) presentando il suo nuovo prodigio: Lyria 2. Un upgrade spietato e chirurgico del suo Music AI Sandbox, pensato non per i soliti nerd da cameretta, ma per produttori, musicisti e cantautori professionisti che, guarda caso, cominciano a capire che l’IA non è più un giocattolo, ma un concorrente diretto sul mercato creativo.
Questa nuova versione di Lyria non si limita a generare canzoncine ascoltabili solo dopo sei gin tonic. Produce audio di qualità da studio, pensato per integrarsi senza cuciture in flussi di lavoro professionali. Parliamo di un salto quantico nella qualità dell’output: suoni puliti, dinamica curata, senso della struttura musicale… insomma, roba che non ti aspetteresti mai da una macchina, e invece eccoci qui a constatare che forse il chitarrista hipster del tuo gruppo può essere sostituito da un prompt di testo ben scritto.

La pubblicità e lo shopping online sono stati per trent’anni il lubrificante che ha fatto girare gli ingranaggi della macchina di Internet. Non solo l’hanno sostenuta, ma l’hanno drogata a tal punto che oggi è impensabile navigare senza essere inseguiti da annunci su misura o senza incappare in una tentazione di acquisto al primo scroll. Era solo questione di tempo prima che il matrimonio tra intelligenza artificiale, pubblicità e shopping si trasformasse in una delle più grandi operazioni di monetizzazione mai concepite. E la notizia fresca fresca di questi giorni lo conferma senza lasciare dubbi: OpenAI ha piani piuttosto ambiziosi.
Secondo uno scoop rivelato questa settimana da the Information, OpenAI si aspetta che entro il 2029 i ricavi generati dagli agenti AI e dai prodotti destinati agli utenti gratuiti (sì, anche quelli che adesso si sentono furbi usando ChatGPT senza pagare) contribuiranno per decine di miliardi di dollari al suo fatturato. I dettagli su come intendano mungere la vacca sacra dei “freemium” sono ancora nebulosi, ma due strade sono quasi scontate: pubblicità integrata nelle risposte oppure una percentuale sulle transazioni di acquisto innescate dalle ricerche. Insomma, se ChatGPT ti suggerisce un paio di sneakers “irresistibili” e tu clicchi per comprarle, OpenAI prende la sua fetta della torta, rigorosamente senza sporcare le mani.

Se qualcuno ancora si illudeva che la Cina avesse intenzione di restare a guardare mentre l’Occidente gioca a fare gli apprendisti stregoni dell’intelligenza artificiale, è ora di svegliarsi dal torpore. Xi Jinping, con la solennità tipica di chi ha in mano non solo il telecomando, ma anche la sceneggiatura dell’intero show, ha dichiarato senza giri di parole: la Cina mobiliterà tutte le sue risorse per dominare l’AI, scardinare ogni colletto tecnologico imposto dagli Stati Uniti, e guidare la prossima rivoluzione industriale mondiale.

Nel panorama dell’intelligenza artificiale, la collaborazione tra Amazon Web Services (AWS) e Anthropic ha suscitato notevoli discussioni, The Information, Nicola Grandis di Vitruvian, soprattutto riguardo ai limiti imposti all’utilizzo dei modelli Claude attraverso la piattaforma Bedrock. Queste restrizioni, sebbene giustificate da esigenze tecniche e di sicurezza, stanno sollevando interrogativi sulla libertà operativa degli sviluppatori e sull’effettiva scalabilità delle soluzioni AI offerte.
Uno dei principali punti di attrito riguarda i limiti di richiesta imposti da AWS. Ad esempio, per il modello Claude 3 Opus, il numero massimo di richieste di inferenza al minuto è limitato a 50 per regione supportata. Questo significa che, in scenari ad alta intensità di utilizzo, gli sviluppatori possono facilmente raggiungere questi limiti, ricevendo errori HTTP 429 che indicano un eccesso di richieste. Sebbene AWS consenta di richiedere aumenti di quota attraverso ticket di supporto, l’approvazione dipende dalla capacità disponibile e può richiedere tempo.