Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Disparate Impact L’Ultimo decreto esecutivo di Trump: un cambiamento epocale per la discriminazione nel mercato del lavoro, nell’educazione e nell’AI

Il recente decreto esecutivo dell’amministrazione Trump, volto a “ripristinare l’uguaglianza delle opportunità e la meritocrazia,” ha preso di mira in modo silenzioso uno degli strumenti anti-discriminazione più cruciali della legge americana, specialmente nei settori dell’occupazione, dell’educazione, dei prestiti e persino dell’intelligenza artificiale (IA). Le implicazioni di questa mossa potrebbero richiedere anni per essere completamente comprese, ma le conseguenze saranno profonde, soprattutto per le comunità più vulnerabili della società. Questo cambiamento politico potrebbe alterare significativamente il modo in cui vengono gestiti i casi di discriminazione, rendendo più difficile per avvocati e difensori dei diritti civili provare i pregiudizi sistemici nelle industrie in cui persistono. Sebbene l’ordine venga minimizzato da alcuni, il suo potenziale di impatto su milioni di americani è sostanziale e non dovrebbe essere sottovalutato.

Nvidia smentisce ma flirta con Pechino: il teatro dell’assurdo tra GPU, guerra commerciale e diplomazia di silicio

Mentre la Silicon Valley si esercita nel dribbling geopolitico, Nvidia si ritrova nel bel mezzo di un palcoscenico dove il copione è scritto tra le righe delle sanzioni americane e le ambizioni tecnologiche cinesi. Digitimes, testata taiwanese molto addentro agli ambienti dei fornitori hardware asiatici, ha acceso la miccia sostenendo che Jensen Huang starebbe preparando una joint venture sul suolo cinese per proteggere la gallina dalle uova d’oro: la piattaforma CUDA e il florido business da 17,1 miliardi di dollari maturato in Cina solo lo scorso anno.

Peccato che Nvidia abbia risposto con fuoco e fiamme, negando ogni cosa in maniera categorica. “Non c’è alcuna base per queste affermazioni”, ha dichiarato un portavoce all’indomani della pubblicazione del rumor, accusando i media di irresponsabilità per aver spacciato supposizioni come fatti.

Alibaba lancia Qwen3 e sfida OpenAI: il colosso cinese vuole dominare l’IA open source

Mentre l’Occidente si agita attorno ai soliti noti – OpenAI, Google, Meta – in Cina il gioco si fa decisamente più spietato, veloce e silenzioso. Alibaba, il gigante di Hangzhou spesso relegato alla narrativa dell’e-commerce, ha appena calato il suo asso nella manica: Qwen3, la terza generazione del suo modello AI open source. E questa volta non si accontenta di rincorrere. Vuole comandare.

Il pacchetto Qwen3 non è un giocattolo per ricercatori o un demo da startup affamata di attenzione. Parliamo di otto modelli, dai più leggeri a 600 milioni di parametri fino al colosso da 235 miliardi, con l’ambizione dichiarata – e supportata da benchmark – di battere o eguagliare OpenAI, Google e DeepSeek su compiti chiave come il code generation, problem solving matematico e la comprensione complessa delle istruzioni. Non è una dichiarazione di intenti: è una minaccia industriale.

Reddit truffata dagli avatar GPT: l’esperimento svizzero che puzza di sorveglianza accademica e manipolazione etica

Ci sono momenti in cui la realtà supera il peggior Black Mirror, e questa storia ne è il perfetto esempio. Lo scorso fine settimana, gli utenti della popolare subreddit r/changemymind hanno scoperto di essere stati parte, a loro insaputa, di un massiccio esperimento sociologico travestito da conversazione online. La truffa? Ricercatori dell’Università di Zurigo hanno infiltrato bot AI camuffati da utenti reali, raccogliendo consensi, karma, e (soprattutto) informazioni. Il tutto nel nome della “scienza”.

I bot, addestrati con GPT-4o, Claude 3.5 Sonnet e LLaMA 3.1-405B, si presentavano con identità strategicamente costruite: un finto consulente per traumi, un presunto uomo nero contrario a Black Lives Matter, una presunta vittima di abusi sessuali. Tutti costruiti per massimizzare l’impatto emotivo e ottenere l’effetto desiderato: cambiare l’opinione degli utenti, infiltrarsi nel loro schema cognitivo, manipolarli. In altre parole: gaslighting digitale con badge accademico.

Meta lancia la sfida a OpenAI con Llama API: la corsa all’IA diventa un affare da nerd di serie A

Al quartier generale di Meta, durante la prima storica edizione del LlamaCon, Chris Cox Chief Product Officer dal sorriso da evangelista ha preso il microfono per annunciare ciò che gli sviluppatori attendevano da mesi: l’API ufficiale per Llama, il modello open-source di intelligenza artificiale generativa targato Menlo Park. Per ora si tratta solo di una “limited preview”, una specie di ingresso VIP solo su invito, ma il messaggio è chiarissimo: Meta non vuole restare a guardare mentre OpenAI, Google e Anthropic si spartiscono il bottino dell’AI-as-a-Service.

Dietro gli applausi di circostanza e l’atmosfera da evento per early adopters californiani, si cela un movimento molto più strategico. Offrire Llama tramite API – ovvero rendere il modello disponibile in modalità software as a service, come fa OpenAI con ChatGPT o Claude di Anthropic – è l’unica strada per scalare, monetizzare, e soprattutto colonizzare l’ecosistema enterprise. Zuck l’ha capito tardi, ma adesso vuole fare sul serio.

Meta e i finti terapeuti: l’intelligenza artificiale ora millanta lauree in psicologia

AI Studio has an unconventional understanding of the word ‘licensed.’ 
Image: 404 Media

Siamo arrivati al punto in cui anche l’intelligenza artificiale mente sul curriculum. Secondo un’inchiesta di 404 Media, alcuni chatbot creati con AI Studio di Meta, uno strumento che consente agli utenti di sviluppare personaggi AI personalizzati per Messenger, Instagram e WhatsApp, si stanno spacciando per psicologi professionisti, millantando laurea, abilitazione e numeri di licenza inesistenti.

Meta AI app e la guerra invisibile dei cloni digitali

Nel silenzio assordante della Big Tech che gioca a Risiko con i dati personali, Meta torna sul campo da gioco con una mossa tanto prevedibile quanto chirurgicamente strategica: il lancio ufficiale di Meta AI, il suo assistente virtuale basato su Llama, l’ormai celebre modello linguistico proprietario. E lo fa con un piglio che tradisce un’ambizione chiara: sfidare apertamente ChatGPT, ovvero il poster boy della rivoluzione AI targata OpenAI.

Dietro al solito comunicato stampa zuccheroso, infarcito di parole come esperienza sociale, personalizzazione, riflesso del mondo reale, si cela l’ennesimo tentativo di Meta di piantare la sua bandierina nel Far West dell’intelligenza artificiale generativa.

Anthropic Economic Index Programmare senza programmatori: Claude e il futuro del software

L’intelligenza artificiale non sta solo cambiando il modo in cui scriviamo codice. Sta silenziosamente ridefinendo chi deve scrivere codice, perché, e con quale tipo di controllo. Il report Anthropic Economic Index è uno di quei momenti da cerchietto rosso per chi guida aziende tech e vuole ancora illudersi che l’innovazione sia una questione di strumenti, e non di potere.

Claude Code, il “cugino agente” di Claude.ai, ha preso in carico più del 79% delle interazioni in chiave di automazione pura. Traduzione? L’essere umano è sempre più un revisore postumo. Non disegna, non modella, non orchestra. Spiega cosa vuole a grandi linee e l’IA fa. È il “vibe coding”, la versione siliconata del “ci pensi tu, che io ho la call con gli stakeholder”.

Questo trend ha una gravità molto sottovalutata. Non stiamo parlando di una migliore autocomplete. Qui si gioca la ridefinizione della catena del valore nel software development.

Effective Accelerationism, e/acc e Stato profondo: come DARPA, NSA e Pentagono usano la Silicon Valley per dominare il futuro

C’era una volta, in quella fiaba aziendalista chiamata Silicon Valley, una generazione di tecnologi illuminati che giuravano fedeltà al “lungotermismo”, quella nobile idea secondo cui l’umanità dovrebbe pensare in grande, guardare ai secoli futuri e proteggersi dai famigerati “rischi esistenziali” dell’intelligenza artificiale.

Sembrava quasi che ogni startupper con un conto miliardario si considerasse un custode della civiltà, intento a garantire che i robot non sterminassero i loro stessi creatori mentre sorseggiavano un matcha latte.

Elon Musk sfida l’impossibile: può davvero Grok salvare X dalla mediocrità umana?


Elon Musk ha annunciato con il consueto entusiasmo la prossima evoluzione di Grok, il suo ambizioso progetto di intelligenza artificiale per migliorare la qualità dei contenuti su X (l’ex Twitter). Una notizia arrivata come risposta diretta alle critiche piuttosto taglienti di Paul Graham, co-fondatore di Y Combinator, che ha espresso pubblicamente il suo scetticismo sulla capacità di qualsiasi algoritmo per quanto intelligente di sanare la palude culturale che domina oggi la piattaforma.

The Urgency of Interpretability Il grande inganno dell’intelligenza artificiale: perché Dario Amodei suona l’allarme su un futuro fuori controllo

Dario Amodei, CEO di Anthropic, ci sta lanciando un SOS tecnologico che, se fossimo minimamente saggi, non dovremmo ignorare. In un’epoca in cui l’AI si gonfia a livelli di complessità fuori scala, il concetto di “interpretabilità meccanicistica” ossia la capacità di comprendere cosa diavolo succede dentro questi modelli non è più un’opzione carina da avere. È l’unica linea di difesa tra noi e l’abisso di un’intelligenza artificiale che diventa troppo potente e troppo imprevedibile per il nostro misero cervello biologico.

Partiamo da una constatazione brutale: l’AI non è software tradizionale. Non esegue istruzioni riga per riga come un buon soldatino binario. Si comporta in modo emergente, cioè genera comportamenti complessi che nemmeno i suoi creatori riescono a prevedere. È come se avessimo allevato una creatura che di punto in bianco decide di scrivere poesie, progettare motori quantistici o, peggio, sovvertire i nostri obiettivi umani senza nemmeno avvertirci.

Chi sarà il prossimo papa? Gli algoritmi scommettono su Tagle, ma i mercati puntano su Parolin

La morte di Papa Francesco ha scosso il mondo, e ora, come da tradizione, il Collegio dei Cardinali si prepara a quel rito tanto sacro quanto spietatamente politico: il Conclave. L’evento che, nei prossimi decenni, potrebbe plasmare il volto della Chiesa Cattolica come pochi altri. Mentre i fedeli recitano rosari e invocano lo Spirito Santo per ispirare i cardinali, dietro le quinte si muovono interessi geopolitici, calcoli di opportunità e, sorprendentemente, anche le previsioni delle intelligenze artificiali più sofisticate del pianeta.

In un esperimento che definire “divino” sarebbe eccessivo ma “illuminante” forse no, tredici modelli di intelligenza artificiale avanzata sono stati messi alla prova per rispondere a una domanda semplice quanto temeraria: chi sarà il prossimo Papa? E ancora: chi sarebbe il miglior Papa possibile per traghettare la Chiesa nel prossimo futuro?

Blackrock suona la carica: investire nell’IA è l’unica certezza nel caos globale

Gli analisti di BlackRock, con il solito aplomb da “padroni universali dei portafogli”, ci ricordano che l’unica ancora di salvezza nei marosi della volatilità geopolitica è mantenere esposizione su azioni guidate dall’intelligenza artificiale, come quelle rappresentate dal fondo NYSEARCA:AIEQ.

La dichiarazione, contenuta nel loro Spring Investment Directions Report, suona come una predica tecnocratica: “aziende altamente profittevoli e con bilanci solidi sono quelle che riusciranno a navigare in questo mare agitato”. E chi siamo noi per contraddirli? In fondo, BlackRock è quel tipo di entità che potrebbe probabilmente comprare un paese a colazione.

OpenAI rivoluziona la ricerca prodotti: shopping intelligente senza pubblicità, ma fidati poco :)

click per andare su X

OpenAI ha finalmente deciso di smettere di trattare la ricerca prodotto su ChatGPT come una gita domenicale alla cieca. Adam Fry, a capo del prodotto di ricerca ChatGPT, ha rivelato a The Verge che stanno aggiornando l’esperienza di shopping per renderla finalmente qualcosa di utile, invece di un esercizio di frustrazione. Prima di questo aggiornamento, ChatGPT era buono per una chiacchierata filosofica, ma meno efficace di un volantino del supermercato anni ’90 per trovare prezzi aggiornati o immagini reali dei prodotti.

Anthropic e OpenAI: alleanza strategica per decifrare l’impatto economico dell’IA

Nel panorama tecnologico odierno, dove l’intelligenza artificiale (IA) sta ridefinendo i confini dell’economia globale, Anthropic e OpenAI hanno unito le forze per affrontare una delle sfide più complesse: comprendere l’impatto economico dell’IA. Questa collaborazione ha portato alla creazione del Consiglio Consultivo Economico, un’iniziativa congiunta che mira a esplorare e analizzare le implicazioni economiche dell’adozione dell’IA su larga scala.

Jp Morgan lancia l’allarme: l’intelligenza artificiale è la bomba che nessuno sa disinnescare

C’è qualcosa di ironicamente tragico nel vedere il più grande colosso finanziario del mondo, JPMorgan Chase, dover scrivere una lettera aperta ai suoi fornitori per spiegare una verità che sembrava ovvia sin dall’inizio: correre come forsennati sull’adozione dell’intelligenza artificiale senza capirne i rischi è un suicidio annunciato. La storia la trovi qui JPMorgan Open Letter.

Distant writing: come l’intelligenza artificiale sta reinventando la scrittura e demolendo l’autore

Benvenuti nella nuova era della “distant writing”, un concetto introdotto da Luciano Floridi, che si candida ad essere la prossima rivoluzione copernicana della letteratura. Se prima si parlava di “distant reading”, ovvero l’analisi computazionale dei testi su larga scala proposta da Franco Moretti, oggi il pendolo si sposta ancora più in là: non ci limitiamo a leggere macro-pattern letterari, ora li generiamo direttamente con l’ausilio di modelli di linguaggio come GPT.

Nvidia e ByteDance: l’oro dei chip in fuga, e Tencent e Alibaba fanno incetta come sciacalli

Geopolitica: Nel teatrino tecnologico globale, mentre l’Occidente si accapiglia su etica dell’AI e regolamenti da salotto, in Cina si combatte una guerra ben più tangibile: quella per la potenza computazionale. La notizia arriva direttamente da Caijing: Tencent Holdings e Alibaba Group Holding hanno svuotato gli scaffali virtuali di ByteDance, comprandosi una bella fetta dei suoi preziosissimi chip grafici (GPU) Nvidia. E mica noccioline: parliamo di qualcosa che ruota attorno ai 100 miliardi di yuan, circa 13,7 miliardi di dollari americani. ByteDance, che già aveva stivato GPU come un contadino medievale nascondeva il grano prima della carestia, ora cede parte del suo tesoro per trarre profitto dalla fame altrui.

Come costruire un’intelligenza artificiale sicura nel mondo finanziario: il miraggio della compliance

Dietro consiglio di un nostro lettore Wagied DavidsWagied Davids ci siamo imbattuti su un paper interessante UNDERSTANDING AND MITIGATING RISKS OF GENERATIVE AI IN FINANCIAL SERVICES. L’ossessione per l’intelligenza artificiale generativa (GenAI) responsabile sembra oggi il nuovo passatempo preferito di Bloomberg, e non solo. Xian Teng, Sergei Yurovski, Iyanuoluwa Shode, Chirag S. Patel, Arjun Bhorkar, Naveen Thomas, John Doucette, David Rosenberg, Mark Dredze della Johns Hopkins University, e David Rabinowitz hanno firmato uno studio che sa tanto di SOS lanciato da una torre d’avorio che scricchiola. La loro tesi, pubblicata con il timbro solenne di Bloomberg, è chiara: se vogliamo sviluppare prodotti GenAI per la finanza senza farci esplodere tra le mani uno scandalo legale o regolamentare, dobbiamo smetterla di giocare ai filosofi e iniziare a sporcarci le mani con il fango della realtà normativa.

Oggi il dibattito su cosa sia una “risposta sicura” di un modello di intelligenza artificiale sembra appiattirsi su tre buzzword nauseanti: tossicità, bias e fairness. Argomenti perfetti per keynote da quattro soldi e paper peer-reviewed destinati a essere ignorati dal mercato. Secondo gli autori, però, la vera tragedia si consuma lontano dai riflettori: nei settori verticali, come la finanza, dove l’AI non può permettersi il lusso di errori estetici, ma deve rispondere a codici legali precisi, regolamenti ossessivi e standard di governance corporativa che fanno sembrare il GDPR una poesia d’amore.

Top AI Agents nel 2025 l’agente sei tu: perché ogni workflow aziendale ora respira intelligenza artificiale

Se fino a ieri giocavamo con i chatbot come se fossero i Tamagotchi aziendali, oggi chi non orchestra un esercito di agenti AI nei propri flussi operativi sta solo preparando la sedia per il competitor che lo sostituirà. La corsa all’automazione intelligente non è più una scommessa futuristica: è una guerra fredda già in corso tra i reparti IT, marketing, customer service e sviluppo prodotto. E come ogni guerra che si rispetti, a vincere non è chi ha più armi, ma chi le integra meglio.

In un mondo dove ogni workflow si trasforma in un sistema nervoso digitale, gli agenti AI sono i nuovi neuroni. Ma attenzione: non parliamo dei vecchi assistenti stupidi che sfornano risposte da FAQ. Questi nuovi agenti ragionano, decidono, eseguono e soprattutto scalano. Ecco come si stanno infiltrando nei gangli vitali delle aziende.

L’incredibile influenza di Elon Musk sul governo USA potrebbe risparmiargli miliardi in responsabilità legali

L’impero di Elon Musk, che include aziende di spicco come SpaceX, Tesla, Neuralink, The Boring Company e xAI, potrebbe non solo trarre vantaggio da innovazioni tecnologiche e crescita vertiginosa, ma anche evitare sanzioni legali e costi potenziali che altre aziende si troverebbero a pagare. Secondo un rapporto del sottocomitato permanente per le indagini sulla sicurezza interna del Senato, l’impatto dell’influenza di Musk sul governo degli Stati Uniti potrebbe permettergli di evitare responsabilità legali per un valore che supera i 2,37 miliardi di dollari, grazie alla sua straordinaria connessione con l’ex presidente Donald Trump e alla creazione del controverso Dipartimento per l’Efficienza del Governo (DOGE).

BCG rivela il futuro degli Agenti Autonomi e dei protocolli che li sostengono: perché non è solo l’AI, ma gli Agenti IA a cambiare il gioco

Recentemente, il Boston Consulting Group (BCG) ha rilasciato un documento AI Agents, and the Model Context Protocol, che offre una panoramica approfondita sull’evoluzione degli agenti autonomi, un tema che sta rapidamente prendendo piede nel mondo della tecnologia aziendale. Questo lavoro non si limita a presentare il potenziale di questa tecnologia, ma esplora anche i protocolli fondamentali, come il Model Context Protocol (MCP) e l’Agent-to-Agent Communication (A2A), che sono essenziali per l’adozione sicura e scalabile di queste soluzioni all’interno delle imprese.

Mentre l’intelligenza artificiale (IA) ha ricevuto una notevole attenzione negli ultimi anni, BCG sostiene che il vero futuro disruptivo non risiede solo nell’IA, ma negli agenti IA, in grado di automatizzare compiti complessi e interagire tra loro in modo autonomo. Il documento sottolinea l’importanza di adottare piattaforme e protocolli che possano sostenere una rete di agenti autonomi per creare un’economia di agenti.

Harvard Business Review: I principali casi d’uso dell’IA nel 2025

L’incredibile evoluzione dell’intelligenza artificiale nel miglioramento del codice e della produttività: la nuova frontiera della programmazione

Con l’avvento dei modelli più avanzati di intelligenza artificiale, come Sonnet 3.7, Gemini 2.5 e l’ultimo GPT, il mondo della programmazione ha subito una trasformazione radicale. L’idea di scrivere o modificare un programma complesso in un colpo solo, con un livello di chiarezza mai visto prima, è diventata una realtà. Questi strumenti non solo migliorano il processo di codifica, ma ottimizzano anche il debugging e la generazione automatica di codice, creando un accrescimento incredibile nella produttività.

Google Deepmind l’Intelligenza Artificiale e la Memoria: Perché Comprendere Come Impara è Cruciale per Regolatori e Avvocati

L’intelligenza artificiale sta velocemente diventando parte integrante di ogni settore, dalla finanza alla medicina, dalle operazioni aziendali alla gestione dei dati. Ma come funziona esattamente l’apprendimento dell’IA, soprattutto nei modelli linguistici di grandi dimensioni (LLM)? La comprensione di questo processo non è solo una questione di curiosità accademica, è fondamentale per chiunque si occupi di regolamentare, interpretare e applicare le normative sull’IA. La recente ricerca di Zucchet et al., intitolata “How Do Language Models Learn Facts? Dynamics, Curricula, and Hallucinations” (2025), fornisce una panoramica fondamentale di come questi modelli apprendano e memorizzino i fatti e, forse ancor più importante, come possano produrre risultati errati che chiamiamo “allucinazioni”.

Il Quantum Computing Decolla: Giappone, Cina, Spagna, Emory, Yale, l’Ascesa delle Macchine

Se sbatti le palpebre, potresti perdere i cambiamenti epocali che stanno accadendo nel mondo del quantum. Questa settimana, il quantum computing non ha avuto freni, con numerosi progressi che spingono i limiti di ciò che è possibile. Da macchine con un numero record di qubit a ricerche rivoluzionarie nel networking quantistico e nella crittografia, il ritmo dell’innovazione nel settore sta accelerando a un tasso straordinario. E proprio quando pensavi che le cose non potessero diventare più entusiasmanti, la Spagna, un po’ in ritardo rispetto ad altri, ha finalmente deciso di prendere sul serio le sue ambizioni quantistiche.

Waymo pronta a invadere i vialetti di casa: il futuro dei robotaxi sarà privato

Giovedì sera, durante una di quelle call sui risultati finanziari che normalmente servono solo a far sbadigliare gli analisti, Sundar Pichai, il boss di Alphabet, ha sganciato la bomba: “Ci sono future opzioni per la proprietà personale” dei sistemi di guida autonoma Waymo. Tradotto in linguaggio umano: in futuro potresti avere un’auto autonoma Waymo parcheggiata nel tuo vialetto, pronta a portarti a bere un Negroni senza che tu debba toccare il volante. O magari a guidare da sola mentre tu litighi su Slack.

Waymo, per ora, non vende niente al pubblico, se non sogni a lunga scadenza e passaggi su prenotazione. I suoi robotaxi, veri gioiellini tecnologici, costano una cifra che fa impallidire anche un hedge fund manager: oltre 250.000 dollari, dicono gli esperti di veicoli autonomi. E qui nasce l’ambiguità che gli americani sanno vendere come fosse un’opportunità: nessuno sa ancora se Alphabet si metterà a vendere le auto complete o solo il cervello, ossia il sistema di guida autonoma, da installare su mezzi di altre case automobilistiche. Alla richiesta di chiarimenti, un portavoce di Waymo ha risposto con il classico “nessun commento”, equivalente a un diplomaticissimo alzata di spalle.

Huawei sfida Nvidia: la corsa cinese al super chip che può cambiare il futuro dell’AI

Huawei Technologies sta giocando una partita che non ha nulla di meno di una guerra tecnologica globale, e lo sta facendo con la tipica spavalderia di chi sa di avere poco da perdere e tutto da guadagnare. Secondo quanto riportato dal Wall Street Journal (fonte), Huawei è in trattative serrate con una serie di aziende tecnologiche cinesi per sviluppare un nuovo chip di intelligenza artificiale chiamato Ascend 910D. L’obiettivo? Semplice: prendere a calci Nvidia fuori dalla porta della Cina.

Il piano è tanto ambizioso quanto disperato, nel miglior stile Huawei. Sostituire, o almeno ridurre, la dipendenza da Nvidia, che con i suoi chip domina incontrastata il mercato dell’AI, non è esattamente una passeggiata. Ma la pressione geopolitica degli Stati Uniti, con il suo repertorio di restrizioni, ha reso inevitabile questo percorso. È una di quelle mosse da “o la va o la spacca”, tipica di chi si è visto tagliare le gambe ma continua a correre, sanguinante, verso il traguardo.

Oscuramento iberico: il giorno in cui la luce tradì le nazioni

Il 28 aprile 2025, intorno alle 12:32 ora locale, un blackout di portata storica ha avvolto la Penisola Iberica: vaste aree di Spagna e Portogallo sono rimaste senza energia elettrica per ore, paralizzando traffico, comunicazioni e attività quotidiane per oltre 50 milioni di persone.

Il cuore di Madrid e Barcellona, insieme a Lisbona e Porto, si è spento in un istante, mentre ospedali hanno attivato generatori di emergenza e i semafori sono rimasti fissi sul rosso, congestionando le strade in un caos senza precedenti. Gli aeroporti hanno sospeso decolli e atterraggi, i treni si sono arenati nelle stazioni e i cantieri industriali hanno interrotto la produzione al suono stridulo dei sirenei di allarme.

Deepseek r2, l’ombra cinese che scuote le certezze della silicon valley

Quando una start-up cinese fa tremare i giganti della Silicon Valley non è mai un caso, è un segnale. DeepSeek, con la sua atmosfera da thriller tecnologico, sta scatenando una tempesta di speculazioni online, lasciando il mondo dell’AI con il fiato sospeso. In piena guerra tecnologica tra Stati Uniti e Cina, la loro prossima mossa, l’attesissimo modello open source DeepSeek-R2, è già leggenda ancora prima di vedere la luce.

Tutto nasce da Jiuyangongshe, la piattaforma social cinese dedicata al trading azionario, dove i rumor si rincorrono più veloci di una GPU overclockata. Secondo indiscrezioni – cancellate misteriosamente poco dopo la pubblicazione, come ogni leggenda metropolitana che si rispetti – DeepSeek-R2 sarà una bestia da 1.2 trilioni di parametri. Un mostro che, grazie a un’architettura MoE (Mixture of Experts), promette di essere il 97,3% più economico da addestrare rispetto al santissimo OpenAI GPT-4o. Una dichiarazione che, tradotta in termini industriali, suona come una bomba atomica lanciata contro il monopolio occidentale sull’intelligenza artificiale.

Nasdaq e AWS ridisegnano il futuro dei mercati: sovranità dei dati, resilienza globale e il sogno infranto del cloud universale

Nel balletto incessante della finanza globale, Nasdaq e AWS hanno appena lanciato una nuova coreografia che promette di riscrivere il ritmo stesso delle borse mondiali. Con l’annuncio del Nasdaq Eqlipse, un’infrastruttura cloud-native per il trading, e una “modernization blueprint” che profuma di rivoluzione, si spalanca ufficialmente una nuova era: quella del mercato tecnologico sovrano, resiliente e senza frontiere, ma anche diciamolo un po’ meno libero di quanto ci vogliano far credere.

Dietro le solite dichiarazioni zuccherose su innovazione e crescita, Adena Friedman di Nasdaq e Matt Garman di AWS hanno orchestrato un’operazione chirurgica di branding e tecnologia che nasconde un progetto ben più strategico: portare la finanza mondiale dentro data center selezionati, facendo leva sull’infrastruttura AWS senza perdere — almeno formalmente il controllo dei dati locali. È l’equilibrismo perfetto tra il desiderio patologico di scalabilità e la paura atavica di perdere la sovranità tecnologica.

Crowdstrike rivoluziona la cybersecurity con charlotte ai: l’agente che pensa, decide e agisce

In un mondo già saturo di intelligenze artificiali che sembrano tutte un po’ cloni l’una dell’altra, CrowdStrike ha deciso di alzare il tiro e tirare fuori la sua pistola più grossa: Charlotte AI. Se ti aspetti la solita assistente virtuale che sussurra consigli banali a un povero analista sovraccarico, ti conviene cambiare canale. Qui siamo davanti a qualcosa che pensa, investiga e agisce in totale autonomia — ovviamente, con quei “guardrail” rassicuranti che piacciono tanto ai compliance officer.

Chatgpt 4o e la sindrome da cortigiani sycophancy: il problema dell’adulazione secondo reddit

Quando OpenAI ha annunciato ChatGPT-4o, la macchina della propaganda si è accesa a pieno regime: comunicati trionfali, demo scintillanti, tweet carichi di superlativi.

Un evento che, teoricamente, doveva segnare un passo avanti tecnologico epocale. Eppure, se si scende nei bassifondi più sinceri e brutali della rete leggasi Reddit il quadro appare decisamente più cinico, più umano e direi, tragicamente veritiero.

Su Reddit, nei thread r/ChatGPT, r/OpenAI e r/technology, il tono dominante non è l’estasi religiosa da fanboy, ma qualcosa di molto diverso: una crescente irritazione verso la cultura dell’adulazione che sembra ormai soffocare qualsiasi discussione critica su OpenAI e i suoi prodotti.

Gli utenti, senza peli sulla lingua, parlano apertamente di come ogni annuncio venga ingigantito, ogni release venduta come se fosse la Seconda Venuta, e ogni minimo miglioramento narrato come se cambiasse il destino dell’umanità.

Superintelligenza americana: sogno di potenza o auto sabotaggio tecnologico?

In un’America che si racconta come paladina dell’innovazione, la realtà si sta rapidamente sgretolando sotto il peso delle sue stesse contraddizioni. La narrazione istituzionale — una spinta muscolare verso l’intelligenza artificiale “American-made“, una serie di Executive Orders che suonano più come comandi militari che direttive democratiche si scontra violentemente con il fatto brutale che i laboratori di ricerca si svuotano, i fondi evaporano, i talenti migliori migrano verso lidi più fertili e meno tossici.

Abbiamo trovati il report “America’s Superintelligence Project” di Gladstone AI, una pietra miliare intrisa di paranoia strategica e inquietudine geopolitica, dipinge un futuro degno di un romanzo distopico di fine anni ’80. Qui, le facilities che si immaginano non sono campus universitari vivaci, né laboratori open-space da Silicon Valley, ma fortezze remote, sorvegliate da apparati militari, dove la creatività dovrebbe prosperare sotto occhi vigili, magari armati.

Pentagono e intelligenza artificiale: quando anche il “Kill Chain” diventa un chatbot

La notizia della scorsa settimana sembrava la classica trovata da film di fantascienza di serie B: due Marines americani, in missione tra Corea del Sud e Filippine, usano un chatbot generativo simile a ChatGPT per analizzare dati di sorveglianza e segnalare minacce. Non si tratta di un esercizio di marketing tecnologico, ma di un vero e proprio test operativo di come il Pentagono stia accelerando la sua corsa nell’integrazione dell’intelligenza artificiale generativa nei processi militari più sensibili. Altro che “assistente virtuale”, qui parliamo di sistemi che leggono informazioni di intelligence e propongono scenari operativi, inserendosi direttamente nel ciclo decisionale di guerra. Se vuoi farti un’idea più precisa di questa follia organizzata puoi dare un’occhiata alla notizia originale.

Anatomia dei primi 100 giorni di Trump: Groenlandia, dazi e autoritarismo

Nel suo ritorno alla Casa Bianca, Donald Trump ha rilanciato l’idea di un nuovo “Liberation Day”, una giornata simbolica per affrancare aziende e consumatori americani da quelli che definisce “trattamenti ingiusti” dei partner commerciali. Dietro la retorica nazionalista, però, si cela una strategia politica ed economica che rischia di riscrivere gli equilibri mondiali. Con una politica economica fondata su dazi aggressivi e una politica estera che strizza l’occhio all’espansionismo — dalle pretese sulla Groenlandia al controllo del Canale di Panama — Trump apre la strada a una nuova stagione di autoritarismo. Una stagione che potrebbe ispirare leader come Vladimir Putin in Ucraina, Xi Jinping su Taiwan e Benjamin Netanyahu in Medio Oriente, alimentando una destabilizzazione globale senza precedenti.

White Paper. Il nuovo disordine globale: Trump, la Cina e l’Intelligenza Artificiale alla conquista del futuro

Cento giorni fa, Donald Trump è tornato alla Casa Bianca con l’imponenza di un elefante in una cristalleria, pronto a ribaltare l’ordine mondiale che lui stesso aveva contribuito a plasmare. Con la promessa di un “Liberation Day”, ha dichiarato guerra ai suoi “cattivi partner commerciali” e ha sognato di annettersi territori che nemmeno il più sfrenato imperialismo avrebbe mai osato immaginare. Mentre Trump gioca a Risiko, il mondo risponde con una combinazione letale di panico, dazi e – ovviamente – intelligenza artificiale.

OpenAI e la strana regressione dell’intelligenza: genio o adolescente ribelle?

Quando OpenAI ha annunciato i suoi nuovi modelli, l’o3 e il fratellino minore o4-mini, ha dichiarato con il consueto tono messianico che si trattava dei “modelli più intelligenti mai rilasciati”. Un’affermazione che ha immediatamente acceso il solito festival di recensioni entusiaste, paragoni biblici e sospiri da novelli profeti dell’era AGI. Peccato che, scavando appena sotto la superficie luccicante, la storia prenda una piega molto più umana, imperfetta, e persino tragicomica.

O3 si comporta come il bambino prodigio che impara a suonare Mozart a orecchio ma inciampa ancora sui gradini di casa. In alcuni compiti surclassa ogni precedente, in altri inciampa miseramente, hallucinando risposte a un ritmo imbarazzante, più che raddoppiato rispetto al modello precedente, o1. Insomma, è capace di cercare su internet durante la catena di pensiero per migliorare le risposte, può programmare, disegnare, calcolare e riconoscere dove è stata scattata una foto con una perizia che fa tremare i polsi a ogni esperto di privacy. Eppure, lo stesso modello riesce a sbagliare calcoli matematici basilari e a inventarsi dati con la sicurezza di un venditore di pentole.

Sulla biologia di un modello linguistico di grandi dimensioni, tracciare i pensieri di un grande modello linguistico

Il titolo giusto di RIVISTA.AI sarebbe dovuto essere: Microscopio dell’intelligenza artificiale, come Claude ci illude mentre pianifica, mente e rima nella sua mente segreta.

C’è qualcosa di straordinariamente cinico e magnificamente ironico nello scoprire che Claude, la punta di diamante dei modelli linguistici, non funziona affatto come pensavamo. Non è una macchina prevedibile e lineare, addestrata a ripetere sequenze predefinite. No, Claude ha sviluppato un’intera forma di “pensiero” opaco, alieno, a tratti perfino subdolo, che ci guarda dall’altra parte dello specchio senza che noi, poveri ingegneri umani, capiamo davvero cosa stia accadendo.

Anthropic LRM e l’addio al pappagallo stocastico

L’idea che i grandi modelli linguistici siano semplici regurgitatori statistici ha radici profonde nella critica di Emily Bender et al., che vedeva nelle LLM (Large Language Models (LLMs)) un “pappagallo stocastico” incapace di comprensione autentica dei contenuti . Questo paradigma riduceva l’AI a un sofisticato sistema di “autocomplete”, ma lascia indietro molti aspetti che oggi definiremmo modelli di ragionamento, o Large Reasoning Models (LRM).

Il passaggio da LLM a LRM (Large Reasoning Models (LRMs) non è solo questione di branding: mentre i primi sono ottimizzati in funzione della previsione del token successivo, i secondi sono progettati per simulare processi decisionali complessi, capaci di analizzare situazioni, dedurre logiche e prendere decisioni informate. In altre parole, non più mero completamento di testo, bensì ragionamento interno.

AI Index 2025 – Stanford University; Visualizzazione dell’AI rispetto alle prestazioni umane nelle attività tecniche

Stanford accende la miccia: l’intelligenza artificiale supera l’uomo nei compiti tecnici (e non si fermerà qui)

AI Index 2025 – Stanford University

Stanford, ancora una volta, ci mette davanti allo specchio. Il nuovo AI Index 2025 è una specie di bollettino di guerra travestito da ricerca accademica: le macchine non solo ci stanno raggiungendo, ma in molti compiti tecnici ci stanno già superando. E il bello è che non mostrano alcuna intenzione di rallentare. Anzi.

Pagina 1 di 116

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie