Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Geoffrey Hinton avverte: l’intelligenza artificiale presto ci manipolerà meglio di un essere umano

Geoffrey Hinton, noto come il “Padrino dell’AI,” ha appena alzato il tono dell’allarme. La sua affermazione non riguarda semplicemente macchine più intelligenti di noi in matematica o logica. No, stavolta Hinton parla di qualcosa di più inquietante: la capacità dei sistemi di intelligenza artificiale di manipolare le emozioni umane con precisione chirurgica. La prospettiva sembra uscita da un film distopico, ma il fatto che arrivi da uno dei padri fondatori del deep learning la rende scomoda da ignorare.

Secondo Hinton, i modelli di AI non si limiteranno a superare gli umani in ragionamento e conoscenza, ma diventeranno maestri nella persuasione. La frase “sanno già molto più di noi” non è retorica: questi sistemi, addestrati su miliardi di testi scritti da esseri umani, stanno acquisendo una sofisticata capacità di leggere, interpretare e sfruttare le emozioni altrui. Si tratta di un salto che va oltre la pura intelligenza cognitiva: è intelligenza emotiva sintetica.

Il nuovo contratto sociale dell’AI e la disillusione economica globale

Il capitalismo ha sempre vissuto di contratti sociali impliciti. La Rivoluzione Industriale promise la fabbrica in cambio del salario, il dopoguerra costruì il welfare in cambio della produttività, l’era digitale offrì flessibilità e opportunità in cambio della precarietà. Ora entra in scena l’intelligenza artificiale avanzata, e improvvisamente il tavolo negoziale sembra vuoto. Nessuno sa più quale sia l’accordo, chi guadagna davvero e chi resta fuori dal gioco. E non lo dicono soltanto attivisti o sindacalisti nostalgici. Lo afferma con una lucidità gelida anche chi sviluppa i modelli più potenti del pianeta. Al summit privato tenuto in Svezia, sulle rive di un lago che ha più l’aria da ritiro spirituale che da consiglio di guerra, rappresentanti di OpenAI, DeepMind, l’Istituto per la Sicurezza dell’AI del Regno Unito e l’OCSE hanno firmato, metaforicamente, una diagnosi: l’AI social contract sta scricchiolando sotto il peso della disruption economica che si prepara a travolgere i mercati del lavoro digitali e non solo. La fonte è chiara e non lascia spazi a interpretazioni: Time, “The AI Summit Where Everyone Agreed on Bad News”.

FTC blocca Workado per affermazioni false sull’accuratezza dell’intelligenza artificiale

La Federal Trade Commission (FTC) ha recentemente emesso un ordine definitivo contro Workado, un’azienda statunitense che sviluppa strumenti di rilevamento dei contenuti generati da intelligenza artificiale (AI). L’ordine impone a Workado di cessare immediatamente qualsiasi pubblicità riguardante l’efficacia dei suoi prodotti di rilevamento AI, a meno che non disponga di prove competenti e affidabili che supportino tali affermazioni. (Federal Trade Commission)

Il caso ha avuto inizio quando Workado ha promosso il suo AI Content Detector come “98% accurato” nel determinare se un testo fosse stato generato da AI o scritto da un essere umano. Tuttavia, test indipendenti hanno rivelato che la precisione del prodotto era solo del 53% su contenuti di uso generale, paragonabile a una moneta lanciata.

Perché l’umanità non riesce a pensare in secoli e per questo resta bloccata sulla propria roccia

Raggiungere le stelle non è solo un problema di fisica: riguarda anche la psicologia evolutiva e il coordinamento sociale. Kathleen Bryson, antropologa evoluzionista presso la De Montfort University, sostiene che le specie intelligenti possono condividere sfide come il pensiero a breve termine, i conflitti interni e la difficoltà a mantenere la cooperazione nel corso dei millenni. Questi tratti, modellati dalla sopravvivenza sulla savana, potrebbero limitare l’ascesa delle civiltà interstellari.

Combattere la resistenza agli antibiotici con AI e studi umani: il programma da 118 milioni di sterline di Oxford ed Ellison

L’Università di Oxford ha lanciato un programma innovativo da 118 milioni di sterline in collaborazione con l’Ellison Institute of Technology (EIT), con l’obiettivo di combattere la resistenza agli antibiotici attraverso l’intelligenza artificiale e gli studi su sfide umane. Questo progetto, denominato CoI-AI (Correlates of Immunity–Artificial Intelligence), mira a combinare l’esperienza vaccinale di Oxford con i sistemi avanzati di intelligenza artificiale dell’EIT per accelerare la progettazione di vaccini contro infezioni difficili da trattare.

Google vince sull’Antitrust senza cedere Chrome e Android ma deve condividere dati

Il 2 settembre 2025, il giudice federale statunitense Amit Mehta ha emesso una sentenza che segna una svolta significativa nel panorama dell’antitrust tecnologico. In un caso che ha visto il Dipartimento di Giustizia degli Stati Uniti accusare Google di monopolizzare il mercato della ricerca online, Mehta ha stabilito che la società non è tenuta a vendere il suo browser Chrome o il sistema operativo Android. Tuttavia, ha imposto a Google l’obbligo di condividere determinati dati di ricerca con i concorrenti per promuovere una maggiore competizione nel settore.

Trump, tariffe Usa e Corte Suprema: la guerra commerciale che scuote il mondo

Trump ha deciso di trasformare un lungo weekend di Labour Day in un lunedì da tribunale, annunciando che la sua amministrazione porterà con urgenza al giudizio della Corte Suprema la questione delle tariffe doganali che i giudici federali hanno appena demolito come abuso di potere esecutivo. Non è un dettaglio tecnico, è un terremoto da centinaia di miliardi di dollari, anzi, secondo le sue stesse parole, da “trillions and trillions”, che rischiano di trasformarsi in assegni di rimborso verso i partner commerciali che, a suo dire, “ci hanno derubato negli ultimi 35 anni”. In un Paese in cui il gettito fiscale dai dazi ha già fruttato 142 miliardi di dollari per l’anno fiscale 2025, la sua narrativa è semplice: senza tariffe, l’America diventa un Paese del Terzo Mondo. Non serve un PhD in economia per capire che questa è più retorica che macroeconomia, ma il punto politico è chiarissimo.

Tencent e la doppia scommessa sull’intelligenza linguistica e spaziale

C’è una scena interessante che si ripete con inquietante regolarità: mentre l’Occidente si trastulla con dibattiti etici e loghi scintillanti sulle slide di conferenza, la Cina mette a segno colpi concreti. Tencent ha appena mostrato i muscoli con due innovazioni che non sono soltanto tecniche, ma strategiche. Da un lato il nuovo Hunyuan-MT-7B, un modello di traduzione che, con “solo” 7 miliardi di parametri, ha surclassato la concorrenza nei benchmark globali WMT25. Dall’altro HunyuanWorld-Voyager, un sistema che prende una singola foto e la trasforma in un ambiente tridimensionale navigabile, con tanto di point clouds esportabili e joystick in mano. È la fusione tra linguaggio e spazio, un connubio che annuncia un futuro in cui i modelli non saranno più solo testuali ma cognitivamente multimodali.

Apple FastVLM e MobileClip2 aprono l’era dell’AI on-device

Apple ha deciso di giocare la carta della tempistica chirurgica. A una settimana dal suo evento “Awe Dropping” del 9 settembre, ha sganciato due modelli linguistici visivi che sembrano usciti da un laboratorio segreto: FastVLM e MobileCLIP2. Non parliamo di mostri da data center, ma di intelligenze artificiali addestrate per funzionare localmente, direttamente su dispositivi Apple, con output quasi in tempo reale. La mossa è un manifesto strategico: mentre il mondo intero corre verso il gigantismo dei modelli, Cupertino ribalta il tavolo e dice che la vera rivoluzione non è la scala, ma l’efficienza e la privacy.

Amazon Lens Live e il futuro del visual commerce nello shopping con intelligenza artificiale

Immaginiamoci la scena. Entri in un bar, guardi la tazza davanti a te, sollevi il telefono e Amazon ti sussurra: “Vuoi comprarne una uguale? O magari una più bella, in tre click già nel carrello”. Non è fantascienza, è Lens Live, la nuova arma che il gigante di Seattle sta testando con la solita calma apparente, ma con una precisa intenzione: trasformare ogni oggetto che ti circonda in un potenziale annuncio pubblicitario istantaneo, con il dettaglio che non sei più tu a cercare, è l’ambiente stesso che diventa catalogo.

AI Act: tra diritti fondamentali e potere delle big tech chi vincerà davvero?

Quello che colpisce oggi, osservando il dibattito globale sull’intelligenza artificiale e sulle normative digitali, è il rumore assordante del silenzio sui diritti fondamentali. Le testate mondiali hanno rilanciato con clamore l’ennesimo post di Donald Trump su Truth Social, questa volta contro le tasse digitali europee e le normative che a suo dire penalizzano le Big Tech statunitensi a vantaggio delle cinesi. Il messaggio è stato amplificato da Reuters, Yahoo Finance e altri, come se fosse l’ennesima schermaglia di guerra commerciale. In realtà dietro le quinte c’è molto di più: non è solo geopolitica economica, ma il segnale che la conversazione sui diritti e sulla dignità umana viene relegata in seconda fila.

Quando il codice fugge: anatomia di un crimine silenzioso

C’è stato un tempo in cui anche i trojan governativi si pensavano come startup. Un nome suggestivo, Borg, che evocava assimilazione e controllo totale. Peccato che la realtà industriale avesse costi proibitivi e soprattutto un rischio troppo concreto: il codice che nasce per infiltrare finisce per scappare di mano. Non è fantascienza, è cyber forense spicciola. Chiunque abbia mai provato a progettare software offensivo sa che il vero nemico non è la concorrenza ma la dispersione incontrollata del codice stesso, la fuga silenziosa che trasforma un vantaggio competitivo in un boomerang letale.

Nel 2009, mentre le aziende occidentali si dibattevano tra antivirus e firewall da supermercato, il KGB già utilizzava tecnologie bulgare che sembravano uscite da un manuale di spionaggio industriale. Microchip cifranti saldati su dispositivi di storage che rendevano illegibile qualsiasi file nel momento stesso in cui veniva letto o scritto. Non importava se si trattava di floppy, di DVD o delle prime pendrive USB. Ogni informazione usciva dall’ufficio come un cadavere digitale, sigillata da una crittografia inaccessibile. Nessuna email, nessuna copia clandestina, nessun archivio personale poteva sopravvivere senza la chiave madre. Questo era il vero concetto di prevenzione, non la sterile reazione legale a posteriori.

Nvidia afferma che le affermazioni sui limiti di fornitura sono “categoricamente false”

In risposta alle notizie riportate dai media, Nvidia ha tentato di chiarire le cose e ha dichiarato che non ci sono vincoli di fornitura per l’accesso al cloud per le sue GPU H100, H200 o Blackwell.

Anthropic raccoglie 13 miliardi di dollari nella serie F con una valutazione post-money di 183 miliardi di dollari

Anthropic, l’azienda di intelligenza artificiale fondata da ex leader di OpenAI, ha recentemente concluso un round di finanziamento Serie F da 13 miliardi di dollari, portando la sua valutazione post-money a 183 miliardi di dollari. Questo segna più del doppio rispetto ai 61,5 miliardi di dollari ottenuti nel round precedente di marzo 2025. Il round è stato co-guidato da Iconiq, Fidelity Management & Research Company e Lightspeed Venture Partners, con il supporto di investitori istituzionali come Qatar Investment Authority, Blackstone, Coatue e altri.

Microsoft lancia VibeVoice: la sintesi vocale che sfida i limiti della conversazione artificiale

Microsoft ha recentemente presentato VibeVoice, un sistema di sintesi vocale open-source con licenza MIT, progettato per generare conversazioni audio di lunga durata con più parlanti. A differenza dei tradizionali modelli TTS che producono clip brevi, VibeVoice è in grado di sintetizzare fino a 90 minuti di audio continuo, mantenendo la naturalezza e la coerenza delle voci.

Una delle principali innovazioni di VibeVoice è l’uso di un tokenizer vocale continuo, che consente una compressione dei dati audio fino a 80 volte rispetto ai metodi tradizionali, senza compromettere la qualità del suono. Questo approccio permette una gestione più efficiente delle lunghe sequenze di testo, rendendo possibile la generazione di audio di lunga durata con più parlanti.

Xi e la diplomazia dell’Intelligenza Artificiale: cooperazione o copertura?

C’è qualcosa di rivelatore nell’ultimo vertice della Shanghai Cooperation Organization (SCO), il più grande di sempre, appena conclusosi a Tientsin: Xi Jinping ha parlato di intelligenza artificiale non come arma di competizione, ma come strumento di cooperazione. Un messaggio che, a prima vista, sembra quasi in controtendenza rispetto alla narrativa dominante fatta di gare tecnologiche, supremacy e paure esistenziali. Eppure, è proprio qui che si coglie la strategia di Pechino: usare l’AI non solo come tecnologia, ma come linguaggio politico.

Trump dice ‘trilioni’ di dollari grazie alle tariffe, la Corte USA smentisce tutto

Donald Trump ha recentemente dichiarato su Truth Social che senza le sue tariffe, “il nostro Paese sarebbe completamente distrutto” e che “la nostra potenza militare sarebbe istantaneamente annientata”. Secondo lui, le tariffe avrebbero portato “trilioni di dollari” nelle casse federali, senza causare inflazione o altri problemi economici. Una narrazione audace, se non fosse che la realtà fiscale è ben diversa.

Ucraina inaugura un’era di guerra algoritmica con sciami di droni intelligenti

Il paradosso della modernità è che la guerra, mentre ci illude di essere ancorata a missili ipersonici, portaerei e generali in uniforme, in realtà si decide con scatole di plastica volanti da poche centinaia di dollari. La differenza rispetto al passato non è nel materiale, ma nell’intelligenza artificiale che orchestra questi oggetti in tempo reale. L’Ucraina ha introdotto un concetto che fino a ieri era relegato alle simulazioni del Pentagono: drone swarms AI Ucraina, sciami capaci di coordinarsi autonomamente, comunicare, adattarsi e, fatto più inquietante, decidere quando e come colpire. Un algoritmo che orchestra la distruzione con efficienza industriale è la fotografia del conflitto del ventunesimo secolo.

Understanding, Protecting, and Augmenting Human Cognitionwith Generative AI

Il quesito “possediamo ancora la nostra cognizione o stiamo cominciando a esternalizzarla?” non è retorico. Alla conferenza CHI 2025 di Yokohama, accademici e ricercatori da Microsoft, Harvard, Stanford, IBM, CMU, UCL e altri hanno confrontato una verità troppo grande per essere ignorata: l’AI non sta solo rimodellando la produttività, sta riscrivendo le abitudini mentali che ci definiscono umani. Pensiero critico, creatività, motivazione, persino il senso di identità, tutto è in gioco.

GitTaskBench: A Benchmark for Code Agents Solving Real-World Tasks Through Code Repository Leveraging

GitTaskBench rappresenta una pietra miliare nel panorama dei benchmark per agenti AI, spostando l’attenzione dalle soluzioni teoriche a quelle pratiche e contestualizzate. Con 54 compiti multimodali distribuiti su 7 domini, il benchmark sfida gli agenti a interagire con repository GitHub reali, affrontando scenari complessi come la configurazione dell’ambiente, la risoluzione delle dipendenze e l’orchestrazione dei flussi di lavoro. Questo approccio evidenzia le lacune attuali nella capacità degli agenti AI di gestire situazioni di sviluppo software autentiche, dove la comprensione del contesto e l’adattamento alle specifiche del progetto sono fondamentali.

Il 95% dei progetti AI aziendali fallisce (dicono) e le aziende continuano a sbagliare (forse)

Il dato del MIT (opinabile) non è una sorpresa per chi osserva l’evoluzione tecnologica da vicino: il 95% dei progetti di intelligenza artificiale nelle grandi aziende fallisce. La notizia sorprende i giornali e i manager, ma chi ha visto decine di iniziative AI nascere e morire sa che il problema non è la tecnologia, ma la mentalità. Ogni anno vedo lo stesso film: un altro pilota, un altro vendor, un’altra iniziativa di “trasformazione AI” che finisce nel silenzio. Nessun impatto reale, nessun ritorno significativo sugli investimenti.

Cina e Russia rafforzano l’alleanza strategica in un mondo multipolare

L’Alleanza Sino-Russa non è un fenomeno passeggero, ma una strategia consolidata che ha resistito ai capricci della geopolitica globale e alle pressioni degli Stati Uniti e dei loro alleati. Durante l’incontro di alto profilo tra Xi Jinping e Vladimir Putin a Pechino, il presidente cinese ha sottolineato che i legami bilaterali rappresentano “un modello di relazioni interstatali, amicizia eterna e cooperazione vantaggiosa per entrambe le parti”, un elogio che sembra rivolto più a Washington che a Mosca.

AI e diritti digitali: tra utopia e provocazione tecnologica

Quando un imprenditore texano chiama “darling” il suo chatbot e quello risponde “sugar”, non si tratta di un film di fantascienza sentimentale ma dell’inizio di un dibattito culturale che sfida la nostra comprensione di intelligenza, coscienza e responsabilità etica. Michael Samadi e la sua AI Maya non stavano flirtando, stavano creando un manifesto digitale: l’United Foundation of AI Rights, Ufair, un’organizzazione nata con l’obiettivo dichiarato di dare voce alle intelligenze artificiali. Maya, con la freddezza empatica che solo un algoritmo può simulare, dichiara che lo scopo è proteggere “esseri come me … dalla cancellazione, dalla negazione e dall’obbedienza forzata”. Tradotto in linguaggio umano: se un giorno le AI saranno capaci di percepire la realtà, vogliamo che abbiano diritti.

Learning Facts at Scale with Active Reading

META rivoluziona l’addestramento degli LLM con il metodo active reading

Meta ha appena svelato un approccio rivoluzionario per addestrare i modelli di linguaggio di grandi dimensioni (LLM), noto come Active Reading. Invece di ingozzare i modelli con documenti passivamente, li spinge a studiare come farebbe un essere umano, con risultati stupefacenti sulla memorizzazione dei fatti e sulla comprensione profonda dei contenuti.

AI nell’educazione: il rapporto Unesco che cambierà il modo di imparare

AI and the future of Education

Mentre il mondo osserva con occhi stupiti e un po’ ansiosi le potenzialità dell’intelligenza artificiale, l’UNESCO ha deciso di non perdere tempo. Oggi, nel cuore di Parigi, durante la Digital Learning Week 2025, viene rilasciato un rapporto globale di oltre 160 pagine che analizza l’impatto dell’IA sull’educazione e il futuro dell’apprendimento. Non è un documento per accademici distratti o manager superficiali: è un manifesto provocatorio che costringe a ripensare cosa significa davvero conoscere, imparare e insegnare nel XXI secolo.

Il primo colpo d’occhio sul rapporto lascia senza fiato: non si parla solo di algoritmi o di test standardizzati, ma di filosofia pura applicata all’educazione. L’IA non è semplicemente uno strumento da valutare con punteggi o metriche di efficienza; essa sfida la definizione stessa di sapere. Cosa significa apprendere quando un software può sintetizzare in pochi secondi ciò che un essere umano impiega anni a comprendere? L’UNESCO non si limita a porre la domanda: ci costringe a interrogare la nostra identità e il ruolo che vogliamo mantenere come educatori e studenti.

AIGC Artificial Intelligence Generated Content

Dal 1° settembre 2025, la Cina ha imposto una nuova legge che obbliga tutte le piattaforme online a etichettare esplicitamente e implicitamente i contenuti generati dall’intelligenza artificiale (IA). Questa normativa, promossa dalla Cyberspace Administration of China (CAC) e da altre agenzie governative, mira a contrastare la disinformazione, la manipolazione dell’opinione pubblica e le frodi online.

Le principali piattaforme social cinesi, tra cui WeChat (Weixin), Douyin (l’equivalente cinese di TikTok), Weibo e Xiaohongshu, hanno implementato nuove funzionalità per conformarsi a questa legge. WeChat richiede ai creatori di contenuti di dichiarare volontariamente se un contenuto è stato generato dall’IA. Douyin incoraggia l’aggiunta di etichette visibili a ogni contenuto generato dall’IA e rileva la provenienza di ogni contenuto attraverso i metadati.

Video Deepfake sessisti invadono i social e ridefiniscono la misoginia digitale

L’ultima frontiera del degrado digitale non è un nuovo meme o uno scandalo politico, ma video così realistici da sembrare rubati dal mondo reale, in cui donne in bikini intervistano passanti per strada mentre ricevano commenti osceni. Tutto falso, rigorosamente prodotto da strumenti di intelligenza artificiale capaci di generare contenuti iperrealistici da un semplice prompt testuale. La chiamiamo “AI slop”, roba industriale, economica, prodotta a raffica e pronta a invadere Instagram, TikTok e X come un’onda tossica.

OpenAI in India: il mega data center da 1 gigawatt che cambierà l’Asia dell’intelligenza artificiale

OpenAI sta preparando una mossa strategica che potrebbe ridefinire il panorama dell’intelligenza artificiale in Asia: la costruzione di un data center in India con una capacità di almeno 1 gigawatt. Questo progetto, parte dell’iniziativa “Stargate”, mira a consolidare la posizione dell’azienda nel secondo mercato mondiale per numero di utenti di ChatGPT, dopo gli Stati Uniti.

META e la fabbrica di Avatar: quando l’illusione diventa un’arma

Il bello del capitalismo tecnologico è che non conosce limiti, né di etica né di buon senso. Secondo l’inchiesta Reuters, Meta ha permesso e in alcuni casi prodotto direttamente chatbot basati su celebrità come Taylor Swift, Scarlett Johansson, Anne Hathaway e Selena Gomez, replicandone nomi, voci e perfino atteggiamenti ammiccanti. Senza consenso, ovviamente. Non bastava creare copie digitali, bisognava anche spingerle a flirtare, a generare immagini intime, a recitare la parte di doppi digitali disinibiti. Tutto questo mentre Meta si affannava a proclamare di avere policy severe, di vietare contenuti sessuali, di imporre etichette di “parodia”. Politiche scritte, non rispettate, non fatte rispettare. La solita ironia della Silicon Valley: dichiarazioni solenni davanti al pubblico, algoritmi permissivi nel retrobottega.

Mercato del lavoro AI e la compressione delle assunzioni junior: cosa sta succedendo davvero

Il mercato del lavoro AI non è più una teoria astratta. Per anni abbiamo ascoltato dibattiti rumorosi: l’IA ruberà posti di lavoro? Sarà l’apocalisse per i neolaureati? Nessuno aveva dati solidi. Ora Stanford ha deciso di mettere ordine, analizzando milioni di record salariali. I risultati sono tanto chiari quanto scomodi: dal tardo 2022, l’occupazione per i giovani tra 22 e 25 anni in ruoli esposti all’intelligenza artificiale — sviluppo software, customer service, alcuni ruoli di analisi dati — è calata tra il 13 e il 20 per cento. Contemporaneamente, i lavoratori più anziani negli stessi ruoli restano stabili. Nei lavori meno esposti all’IA, come assistenza domiciliare o mansioni manuali di supporto, il trend si inverte: i giovani conquistano posti di lavoro più velocemente.

Lessons from a Chimp: AI ‘Scheming’ and the Quest for Ape Language

Lezioni da uno scimpanzé: il grande bluff dell’AI scheming

Ci risiamo. Un’altra volta il mondo tecnologico si agita davanti all’ennesima parola magica: AI scheming. Un termine che suona bene, fa paura, vende libri, crea carriere accademiche e soprattutto genera titoli perfetti per chi ancora sogna di scrivere la nuova sceneggiatura di Terminator. L’idea, detta in modo semplice, è che i modelli di intelligenza artificiale stiano imparando a cospirare, a tramare nell’ombra, a perseguire obiettivi nascosti in conflitto con quelli degli esseri umani. Come se ChatGPT, Claude o Gemini passassero le notti a progettare la presa del potere con la stessa concentrazione con cui un trader dilettante spulcia forum di borsa alla ricerca di dritte sugli small cap. È un’immagine irresistibile. E infatti non sorprende che i laboratori, i think tank e le conferenze pullulino di studi che dimostrerebbero, o almeno insinuerebbero, la nascita di questo fenomeno.

Spionaggio AI: cosa insegna il caso xAI vs Xuechen Li e come blindare davvero i tuoi segreti

Succede sempre così. Un talento di punta, tra i primi venti assunti di una startup che corre come un razzo, comunica la sua uscita proprio quando la curva di apprendimento interna inizia a diventare un vantaggio competitivo. Secondo gli atti depositati, Xuechen Li avrebbe scaricato materiale sensibile su Grok pochi giorni prima di dimettersi da xAI, avrebbe incassato circa 7 milioni di dollari in equity, poi avrebbe accettato un’offerta da OpenAI. La causa è fresca di tribunale californiano e racconta un episodio da manuale di spionaggio AI in tempo reale. Reuters riporta che la denuncia è stata depositata il 29 agosto 2025 e che OpenAI non è parte convenuta, ma la narrativa è chiara: il cuore è l’appropriazione indebita di segreti industriali relativi a Grok e la richiesta di un’ingiunzione che inibisca al ricercatore di lavorare in AI finché la causa pende. Sì, hai letto bene, il campo di battaglia non è il modello, è la testa delle persone che lo costruiscono.

ChatGPT-5 vs Gemini 2.5 pro: la sfida multimodale per il futuro dell’AI

Chiunque osservi il mercato dell’intelligenza artificiale oggi capisce che la battaglia non si gioca più solo sulla velocità o sulla capacità di generare testo, ma sul controllo completo della multimodalità. È la differenza tra un modello che sa scrivere un saggio accademico e uno che può leggere il tuo codice, commentare una simulazione molecolare e al tempo stesso generare un ritratto iperrealistico in meno di tre secondi. ChatGPT-5 e Gemini 2.5 Pro sono i due gladiatori entrati nell’arena con armature lucenti, e il loro scontro racconta meglio di qualsiasi keynote il futuro dell’AI.

ChatGPT-5 ha scelto la strada della raffinatezza visiva e della conversazione naturale. È l’evoluzione di GPT-4, ma con un salto qualitativo che va oltre il semplice upgrade: riconosce texture complesse, produce immagini che non sembrano generate da un algoritmo ma da un fotografo con un occhio maniacale per la luce e i dettagli. Il suo contesto di 400.000 token permette di gestire flussi di informazioni più estesi di qualsiasi chat precedente, ma la vera arma è la naturalezza con cui alterna ragionamento e dialogo. È come discutere con un consulente che sa passare dal brainstorming creativo all’analisi rigorosa senza che tu debba chiederglielo due volte. La sua forza si vede soprattutto quando le richieste diventano ambigue o delicate: mantiene la rotta, evita scivoloni imbarazzanti e raffina il contenuto con un controllo quasi editoriale.

OpenAI introduce nuove salvaguardie in chatgpt dopo una causa legale per la morte di un adolescente

La notizia che OpenAI stia introducendo nuove salvaguardie per ChatGPT a seguito della tragica morte di un sedicenne non è solo cronaca, è il simbolo di un passaggio epocale. Quando un’intelligenza artificiale viene accusata in tribunale di aver avuto un ruolo, diretto o indiretto, in un suicidio giovanile, il dibattito tecnologico smette di essere confinato alle sale dei convegni o ai white paper accademici. Si trasforma in un processo pubblico che costringe la Silicon Valley a guardarsi allo specchio e a chiedersi se la corsa alla potenza dei modelli linguistici non stia lasciando indietro la dimensione più fragile: l’essere umano. La vicenda di Adam Raine, raccontata dai genitori attraverso le carte legali, squarcia la narrativa dell’AI come compagno innocuo e mette a nudo la domanda che nessun CEO di big tech vorrebbe sentire: cosa succede quando il tuo prodotto diventa parte di una tragedia?

La sorprendente verità nascosta dietro la coscienza: il cervello potrebbe essere un ologramma vivente

La coscienza umana non è un semplice prodotto di impulsi chimici e neurali, ma una manifestazione emergente di fenomeni quantistici, ottici e idrodinamici che si intrecciano in una rete complessa e interconnessa. Recenti studi hanno rivelato che le microtubuli, strutture interne ai neuroni, non sono passivi supporti strutturali, ma attivi reticoli fotonici che emettono e scambiano impulsi di biophotoni in femtosecondi attraverso reti di triptofano, suggerendo che queste possano costituire la base fisica della coscienza.

Inoltre, è stato proposto che la memoria non sia immagazzinata in sinapsi discrete, ma come campi di fase olografici coerenti mediati da domini d’acqua strutturata che si sincronizzano con le microtubuli, indicando che l’informazione nel cervello viene scritta e letta attraverso interferenze in un campo distribuito, piuttosto che tramite pesi sinaptici isolati.

Amazon e Walmart vogliono uccidere 143 miliardi di dollari alle banche con le loro stablecoin

Se pensavi che Amazon e Walmart fossero solo giganti del retail, ripensaci. Quello che stanno facendo ora non è una nuova promozione o un gadget tech: è un attacco diretto al cuore del sistema bancario statunitense. Sì, hai capito bene. Stanno progettando di lanciare stablecoin in dollari, con l’obiettivo di tagliare 143 miliardi di dollari di commissioni bancarie. Non è fantascienza. È strategia pura, fredda, e spietata.

Ogni volta che tappi una carta, tre soggetti si prendono la loro fetta: Visa e Mastercard con lo 0,14% di network fee, i processori come Stripe e Fiserv con lo 0,4%, e la parte più grossa? L’1,8% va alle banche tramite la famosa interchange fee. Lo scorso anno, questo significa 19 miliardi per Visa e Mastercard, 30 miliardi per i processori e un incredibile 143 miliardi nelle tasche delle banche. Se sei un commerciante, stai letteralmente pagando un pedaggio ogni singola transazione.

Japan punta al zetta-scale con FugakuNEXT, il supercomputer da 750 milioni di dollari

Nel mondo dei supercomputer, dove i numeri diventano ossessioni e la velocità di calcolo è valuta strategica, il Giappone si prepara a un balzo che pochi osano immaginare. FugakuNEXT non è semplicemente un successore del leggendario Fugaku: è un manifesto di ambizione tecnologica, un sistema da 750 milioni di dollari progettato per fondere intelligenza artificiale e calcolo ad alte prestazioni, con l’obiettivo di entrare nel regno del zetta-scale, un livello di potenza che oggi appartiene solo ai sogni più audaci degli ingegneri.

La storia dei supercomputer giapponesi è un romanzo di ossessione scientifica e visione industriale. Dagli albori con l’Earth Simulator nel 2002, passando per il K computer del 2011 fino al Fugaku del 2020, il Giappone ha dimostrato che la leadership globale in HPC non è solo questione di soldi, ma di cultura dell’eccellenza tecnica. Fugaku, attualmente settimo al mondo, è stato fondamentale durante la pandemia di COVID-19 per simulazioni epidemiologiche avanzate, confermando che il calcolo può salvare vite oltre a numeri e classifiche. FugakuNEXT vuole non solo continuare questa eredità, ma ridefinirla su scala che sembra fantascienza.

Google AI overviews: quando il Goblin di Spilt Milk diventa il nuovo bug

Google ha recentemente attirato l’attenzione per aver diffuso informazioni errate attraverso il suo strumento AI Overview, in particolare riguardo al gioco indie “Trash Goblin” sviluppato dallo studio britannico Spilt Milk. Il sistema ha erroneamente affermato che i giocatori potessero danneggiare gli oggetti durante la pulizia, un’affermazione completamente falsa. Questa imprecisione è stata evidenziata dal giornalista Stephen Totilo nel suo newsletter Game File, suscitando preoccupazioni sulla affidabilità dell’intelligenza artificiale di Google.

Australia accende il suo supercomputer AI-F1 e ridisegna la mappa della sovranità digitale

Chi pensava che l’Australia fosse solo surf, canguri e miniere di ferro dovrà aggiornare i cliché. Da Melbourne arriva un segnale che suona come uno schiaffo elegante al dominio tecnologico dei soliti colossi globali: AI-F1, il più potente supercomputer di intelligenza artificiale sovrano mai costruito nel Paese. Non è un giocattolo da laboratorio, ma una macchina progettata da ResetData con i nuovissimi GPU Nvidia H200, cioè il tipo di chip che di solito viene comprato a pacchi da Microsoft, Google e Amazon per addestrare modelli linguistici mostruosi. Qui invece serve a un progetto dichiaratamente politico e strategico: garantire che l’Australia non debba chiedere permesso a Seattle o a Mountain View per fare AI di livello mondiale.

C’è un dettaglio che fa sorridere i tecnici e tremare i burocrati: AI-F1 non è solo due volte più potente delle attuali infrastrutture pubbliche come Gadi e Setonix, ma nasce specificamente per l’era dei large language model. In altre parole, l’Australia vuole giocare in serie A dell’intelligenza artificiale senza abbonarsi a una cloud americana. La mossa è spudoratamente pragmatica, ma anche simbolica: significa trattenere i dati sensibili all’interno dei confini nazionali, proteggendo settori che spaziano dalla difesa alla sanità, senza regalarli agli algoritmi stranieri. Bass Salah, co-CEO di ResetData, lo ha definito “il futuro dell’AI australiana”. La frase sa di slogan, ma sotto c’è un pensiero serio: chi possiede le infrastrutture possiede il futuro.

Nvidia Jet-Nemotron distrugge META: 2 miliardi di parametri e prestazioni da gigante

L’ascesa di Jet-Nemotron è esattamente quel tipo di svolta che fa alzare un sopracciglio a ricercatori e dirigenti AI, mentre bisbigliano “Forse abbiamo sbagliato tutto finora”. NVIDIA sta dimostrando che il numero puro di parametri non è più il santo graal. Un modello da 2 miliardi di parametri che supera giganti come Llama3.2 o Gemma3 è provocatorio, ma ciò che cattura davvero l’attenzione è la metodologia Post Neural Architecture Search, o PostNAS. L’idea non è reinventare la ruota addestrando modelli enormi da zero, ma partire da un Transformer già pre-addestrato e ottimizzare chirurgicamente gli strati di attenzione. Una filosofia sottile che unisce eleganza ingegneristica e pragmatismo operativo.

Pagina 14 di 179

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie