Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

De Kai: Raising AI

L’AI non ha bisogno di genitori, ma di filosofi: perché l’etica digitale è troppo seria per lasciarla ai tecnologi

Se ogni generazione ha i suoi mostri, la nostra li programma. Ma invece di affrontare la questione con il rigore che richiederebbe l’ascesa di un’intelligenza artificiale generalizzata, sembriamo preferire metafore da manuale di psicologia infantile. Ecco quindi che De Kai, decano gentile del machine learning, ci propone il suo Raising AI come una guida alla genitorialità dell’algoritmo, una Bibbia digitale che ci invita a trattare ChatGPT e compagnia come bambini da educare. La tesi? L’AI va cresciuta con amore, empatia e valori universali. Peccato che i bambini veri non abbiano una GPU con 70 miliardi di parametri e non siano addestrati leggendo interi archivi di Reddit.

Parlare di AI come se fosse un neonato non è solo fuorviante, è pericolosamente consolatorio. Il paragone piace perché rassicura: se l’AI è un bambino, allora possiamo guidarla, plasmarla, correggerla. Ma la realtà è che l’AI non ha infanzia, non ha pubertà, non ha crisi adolescenziali. L’AI non cresce: esplode. E il salto tra GPT-3.5 e GPT-4.5 ce lo ricorda con brutalità industriale.

Quando il buio diventa superpotere: la cecità curata con un minerale raro il tellurio che vede anche l’invisibile

Diciamocelo subito: non è un’altra favoletta di biohacker o un press release farcito di “futuro” e promesse in perenne fase clinica. Questa volta, i cinesi non si sono limitati a restaurare la vista nei topi ciechi. L’hanno potenziata. E lo hanno fatto usando un minerale così raro e strategico che Wall Street non ha ancora deciso se farsene spaventare o investirci a occhi chiusi. Letteralmente.

Il protagonista? Il tellurio. Una parola che suona come un personaggio minore di un fumetto Marvel, e che invece è un metallo grigio-argenteo più raro del platino, un sottoprodotto della raffinazione del rame, e a quanto pare il materiale perfetto per costruire retine artificiali bioniche che vedono ciò che l’occhio umano non ha mai potuto. L’infrarosso. Il mondo degli invisibili.

Apple: La grande illusione del pensiero artificiale

C’era una volta l’illusione che bastasse aumentare i parametri di un modello per avvicinarlo al ragionamento umano. Poi arrivarono gli LRM, Large Reasoning Models, con il loro teatrino di “thinking traces” che mimano una mente riflessiva, argomentativa, quasi socratica. Ma dietro al sipario, il palcoscenico resta vuoto. Lo studio The Illusion of Thinking firmato da Shojaee, Mirzadeh e altri nomi illustri (tra cui l’onnipresente Samy Bengio) è una doccia fredda per chi sperava che la nuova generazione di AI potesse davvero pensare. Spoiler: no, non ci siamo ancora. Anzi, forse ci stiamo illudendo peggio di prima.

Moratoria AI: il senato USA blocca le leggi locali e spalanca le porte a big tech

Una moratoria decennale sulle leggi statali in materia di intelligenza artificiale non è semplicemente una misura di buon senso burocratico. È, in realtà, una clava politica che rischia di tagliare fuori ogni tentativo locale di regolamentare un settore ormai centrale nella nostra vita quotidiana. I senatori repubblicani del Comitato Commercio, nella loro ultima versione del mega pacchetto di bilancio del presidente Donald Trump, hanno inserito proprio questo: un blocco alle normative statali sull’AI. Un regalo dorato a Big Tech, mascherato da protezione della crescita economica e competitività americana. E mentre chi lo difende parla di “semplificazione normativa”, un numero crescente di legislatori e associazioni civiche grida al disastro, vedendo all’orizzonte l’azzeramento delle tutele per consumatori, lavoratori e persino bambini.

I modelli linguistici ora generano idee scientifiche migliori dei dottorandi medi

Se un tempo erano assistenti passivi per la scrittura, oggi i modelli linguistici di larga scala giocano un ruolo inquietantemente attivo: propongono ipotesi di ricerca, delineano esperimenti, prevedono impatti, e lo fanno con una precisione che comincia a mettere in discussione l’egemonia creativa dell’intelligenza umana.

Benvenuti nell’era dell’AI Idea Bench 2025, dove gli idea generator vengono testati come startup tech: non basta essere brillanti, serve colpire il problema giusto, offrire qualcosa di fresco, e sembrare almeno costruibili con le tecnologie esistenti.

Quanto può dimenticare un modello linguistico? Il lato oscuro della “memoria” delle AI

Cosa sa davvero un modello linguistico? E soprattutto: quanto dimentica — e quanto non dovrebbe ricordare? L’articolo “How Much Do Language Models Memorize?” di Morris et al. (2025), da poco pubblicato da un consorzio tra Meta FAIR, Google DeepMind e Cornell, si muove su un crinale inquietante tra informazione, privacy e un’ossessione tecnocratica per la misura della memoria algoritmica. Spoiler: non si tratta solo di quanti gigabyte processa GPT-4, ma di quanti bit conserva, silenziosamente, su ogni dato visto.

In un mondo in cui i modelli linguistici vengono addestrati su trilioni di token — testi che contengono sia la Divina Commedia che i post del tuo dentista — ci si chiede: se il modello genera esattamente la battuta che ho scritto in una chat privata cinque anni fa, è perché ha imparato a generalizzare… o l’ha memorizzata?

Intelligenza Artificiale a Dublino: tra sprechi digitali, orgoglio Irlandese e Metahumani troppo gentili

Se non l’avessero chiamato “Dublin Tech Summit”, l’avrebbero potuto chiamare senza remore “Dublin AI Summit”. Il motivo? L’intelligenza artificiale non era solo il tema principale: era l’atmosfera stessa dell’evento, la corrente elettrica nei corridoi, il rumore bianco nei panel. Non era più una tecnologia tra le altre, ma la tecnologia. Il punto fermo e il punto interrogativo allo stesso tempo.

Il summit, che avrebbe dovuto spaziare nel vasto firmamento della tecnologia, ha finito per ruotare come una stella binaria attorno a due soli: intelligenza artificiale generativa e sostenibilità energetica. Strano, a pensarci: l’IA è software, evanescente, un’entità digitale. Eppure, divora elettricità come un condizionatore impazzito in pieno agosto. Lo sappiamo bene adesso: 12 richieste a un sistema di GenAI equivalgono a 120 ricerche su Google. Un iPhone pienamente carico. E no, non è una metafora: è proprio il consumo energetico.

Un caffè al Bar dei Daini mentre l’intelligenza artificiale si fa il lifting e Jannik Sinner inizia l’era post-umani

Roland Garros 2025. Cielo plumbeo sopra Parigi, come sempre quando la Storia si prepara ad aprire il sipario. Sotto l’arco ottocentesco del Philippe Chatrier, Jannik Sinner e Carlos Alcaraz si affrontano in una finale Slam che profuma di anni ’20, ma non quelli delle Charleston: questi sono anni algoritmici, in cui anche il tennis sta mutando codice genetico. E mentre noi ci sediamo al “bar dei daini” – caffè tiepido, croissant bruciato – le placide cronache sportive si fondono con un mondo in fiamme: tra liti pubbliche tra Musk e Trump, superbebé da 5.999 dollari e robot con più tatto dei corrieri Amazon.

Ci vuole un certo addestramento cognitivo per reggere la timeline attuale.

La finale tra Sinner e Alcaraz è l’antitesi della post-verità digitale. Due corpi reali, due nervi tesi, due cervelli biologici che giocano su terra rossa e non tra server farm e prompt ingegnerizzati. Il loro scontro è primitivo e avanguardistico, una lotta darwiniana tra due generazioni cresciute a pane e analytics. Un po’ come se Kasparov sfidasse AlphaZero, ma con la compostezza di un’epoca in cui i campioni avevano il volto sudato, non un avatar.

Un algoritmo chiamato America: l’idiozia bipartisan di sospendere la regolazione dell’AI per dieci anni

Nel grande circo americano dove i partiti si azzuffano per ogni singola virgola, c’è qualcosa che li unisce: l’incapacità di capire davvero cosa sia l’intelligenza artificiale. L’ultima trovata arriva da un’area particolarmente creativa del Partito Repubblicano, dove un emendamento inserito con chirurgica insensatezza nella proposta di riduzione fiscale sponsorizzata da Donald Trump vorrebbe impedire agli stati americani di regolamentare l’AI per i prossimi dieci anni. Dieci. Un’eternità, se parliamo di modelli che evolvono ogni tre mesi.

La NATO prova a contare i fantasmi: guerra di parole, guerra d’ombre

C’è una guerra che non si combatte coi droni, né con carri Leopard: si combatte con gli engagement. E la Nato, o meglio il suo Strategic Communications Centre of Excellence (un nome che sembra uscito da un seminario aziendale del 2012), ha appena pubblicato il Virtual Manipulation Brief 2025, un’analisi che assomiglia più a una radiografia dell’invisibile che a un rapporto di intelligence classico. Qui non si cercano carri armati, si cercano pattern. Coordinamenti sospetti. Narrativi convergenti. Troll vestiti da patrioti.

E i numeri fanno male. Il 7,9% delle interazioni analizzate mostrano chiari segnali di coordinamento ostile. Non stiamo parlando di un paio di bot russi nostalgici di Stalin che si retwittano a vicenda, ma di una sinfonia digitale ben orchestrata, che attraversa dieci piattaforme diverse – non solo X (che ormai è diventato l’equivalente social di una vecchia radio a onde corte), ma anche YouTube, Telegram, Facebook, Instagram e altre tane più oscure dove l’informazione diventa disinformazione e viceversa.

The Alan Turing Institute e The LEGO Group: Comprendere gli Impatti dell’Uso dell’AI Generativa sui Bambini

Understanding the Impacts of Generative AI Use on Children

C’erano una volta i mattoncini colorati. Poi vennero i prompt.

Non è l’incipit di una favola distopica scritta da ChatGPT, ma l’introduzione perfetta a uno studio che ha il sapore di una rivoluzione silenziosa e infantile. Il fatto che a firmarlo siano due nomi apparentemente incompatibili come The Alan Turing Institute e The LEGO Group è già di per sé un indizio potente: qualcosa si è rotto. O forse si è montato storto, come quando un bambino prova a forzare due pezzi incompatibili.

Questa indagine, che si è presa il lusso di interpellare oltre 1.700 bambini, genitori e insegnanti nel Regno Unito, è un sismografo etico e culturale. Ma a differenza dei classici report su chip, modelli LLM o disoccupazione da automazione, questo guarda direttamente negli occhi il nostro futuro: i bambini. E pone la domanda che tutti stanno evitando perché fa più paura di un algoritmo che scrive poesie: che razza di esseri umani cresceranno in un mondo dove l’intelligenza artificiale non è più un’eccezione, ma una compagna di giochi quotidiana?

La tecnologia ci renderà più umani? Una provocazione firmata Ray Kurzweil

“Ciò che ci rende umani è la nostra capacità di trascenderci.” Lo dice Ray Kurzweil, e non è un filosofo new age o un poeta esistenzialista, ma un ingegnere, inventore, multimilionario e profeta della Singolarità. La stessa Singolarità che, secondo lui, arriverà verso il 2045, con l’eleganza chirurgica di un algoritmo che impara a riscrivere il proprio codice. Un futuro che profuma di silicone e immortalità.

Report Stati evolutivi AI: linguaggio, forma, percezione con AI fisica

L’analisi e la visione del futuro e della ricerca insieme al Prof. Roberto Navigli professore presso il Dipartimento di Ingegneria Informatica, Automatica e Gestionale (Università La Sapienza Roma Babelscape) e la Prof.ssa Barbara Caputo Professoressa Ordinaria Dipartimento di Automatica e Informatica (Polito) EVENTI Milano Finanza

Intelligenza artificiale generativa, non è una moda ma un’egemonia algoritmica

Dall’intervento della Prof.ssa Barbara Caputo si evince che se c’è un errore semantico che continuiamo a reiterare, con la pigrizia di chi crede di parlare di futuro usando parole del passato, è chiamare “moda” quella che è, senza ambiguità, la più profonda rivoluzione computazionale dagli anni ’40 a oggi. L’intelligenza artificiale generativa non è un gadget filosofico per TED Talk, né un effetto speciale da tech-conference, ma una svolta epistemologica nella modellizzazione del reale. Non è un’opzione. È la condizione.

Windsurf: quando gli dei dell’intelligenza artificiale giocano a risiko con le startup

Windsurf Statement on Anthropic Model Availability

È stato l’equivalente digitale di un’esecuzione in pieno giorno. Nessuna lettera di sfratto, nessuna trattativa da corridoio. Solo un’interruzione secca, chirurgica, quasi burocratica. Windsurf, la celebre app per “vibe coding”, si è ritrovata fuori dalla porta del tempio di Claude. Anthropic, il laboratorio fondato dai fuoriusciti di OpenAI, ha deciso di tagliare la capacità concessa ai modelli Claude 3.x. Non per ragioni tecniche. Non per mancanza di fondi. Ma per geopolitica dell’AI.

Varun Mohan, CEO di Windsurf, l’ha scritto su X con la disperazione elegante di chi sa di essere pedina in un gioco molto più grande: “Volevamo pagare per tutta la capacità. Ce l’hanno tolta lo stesso.” Dietro questa frase anodina, si cela l’odore stantio di una guerra fredda tra laboratori che – da fornitori di infrastrutture – stanno sempre più diventando cannibali delle app che un tempo nutrivano.

Beijing Academy of Artificial Intelligence (BAAI): RoboBrain 2.0 promette la spatial intelligence

La cina vuole dare un cervello ai robot, ma la vera guerra è tra intelligenze

Nel cuore sempre più caldo della guerra fredda tecnologica, Pechino ha svelato il suo nuovo gioiello: RoboBrain 2.0, il “cervello” open-source pensato per colonizzare le menti—pardon, i circuiti—dei robot cinesi. Una mossa che, se letta con lenti geopolitiche e una certa vena di cinismo ingegneristico, sa meno di innovazione e più di controffensiva. Sotto la patina dell’entusiasmo scientifico e delle promesse di collaborazione industriale, si cela l’inizio di un nuovo capitolo nell’eterna partita tra intelligenza naturale, artificiale e, soprattutto, geopolitica.

Il Beijing Academy of Artificial Intelligence (BAAI) gioca d’anticipo. Con un lessico che sa di startup ma una postura da think tank governativo, ha lanciato un pacchetto di modelli AI pensati non solo per far muovere meglio i robot, ma per farli “pensare” come i loro progettisti desiderano. RoboBrain 2.0 promette una spatial intelligence più raffinata (vedi alla voce “non sbattere contro i muri”) e una capacità di pianificazione che permette alle macchine di scomporre attività complesse in sequenze logiche, autonome, ottimizzate.

Rokid AR Spatial

Occhiali spaziali e prezzi scontati, la cina invade la realtà aumentata senza chiedere permesso

A prima vista sembrano solo un altro paio di occhiali tech. Ma dentro i Rokid AR Spatial c’è la Cina che, con una lente ben levigata e una mano sul chip di Qualcomm, vuole ribaltare le regole del gioco globale della realtà aumentata. E lo fa a colpi di sconto, e-commerce e strategia militare mascherata da shopping compulsivo. AliExpress come cavallo di Troia, il “BigSave” come esca dorata: benvenuti nel nuovo fronte digitale della geopolitica commerciale.

Rokid, startup di Hangzhou specializzata in eyewear aumentato, ha deciso di lanciarsi nel mercato globale con la grazia di un bulldozer in vetrina. Dal 16 giugno, proprio in mezzo alla bolgia dell’“AliExpress 618 Summer Sale”, i suoi occhiali AR Spatial saranno disponibili in offerta mondiale a 568 dollari, quasi 100 in meno rispetto al prezzo originale. Un posizionamento aggressivo che profuma di operazione d’assalto. La tecnologia? Spinta da un hub portatile che alimenta la visione computazionale spaziale con un chip Qualcomm integrato. Il visore pesa solo 75 grammi ma porta sulle spalle un carico strategico molto più pesante.

Google arma Gemini di orologio e volontà: scheduled actions ecco perché l’AI non dimentica più nulla

Nel gioco a scacchi tra Google e OpenAI, la prossima mossa si gioca sul tempo. Non nel senso generico della velocità, dove ormai tutto si misura in nanosecondi computazionali, ma nel senso umano del calendario, della pianificazione, delle piccole promesse che dimentichiamo e delle abitudini che ci raccontano chi siamo. E Google, con la sua Gemini, ha deciso di diventare un assistente con memoria e agenda. Altro che segretaria virtuale: adesso sa anche quando ricordartelo.

La funzione si chiama “scheduled actions” e sembra innocua, quasi banale. Ma chi conosce la guerra delle AI sa che sotto ogni rollout in punta di codice si nasconde una visione strategica. Tradotto: l’utente potrà dire a Gemini “ricordamelo domani alle 18” o “ogni lunedì mandami idee per il blog” e l’AI lo farà. Semplice? Solo in apparenza. Perché dietro quel “lo farà” c’è il passo definitivo verso un’AI che non reagisce più, ma agisce. È questo il punto. Non è un chatbot che risponde. È un agente che prende iniziative — su tua delega, ovvio, ma comunque in autonomia operativa.

Microsoft conquista il trono dell’intelligenza artificiale mentre Nvidia guarda dal retrovisore

Certe guerre si combattono con le armi, altre con i transistor. E poi c’è quella silenziosa, ma esplosiva, tra Microsoft e Nvidia: una battaglia che si gioca a colpi di capitalizzazione di mercato, visioni strategiche e alleanze con le AI più fameliche del pianeta. E oggi, il colosso di Redmond piazza la sua bandiera sul picco dei 3.500 miliardi di dollari, strappando per un soffio lo scettro di azienda più preziosa del mondo alla rivale siliconica di Santa Clara.

META, il fabbro dimenticato dell’intelligenza artificiale moderna

E’ sabato e mi voglio concedere un pò di esegetica, c’è un paradosso elegante quasi beffardo nel vedere Yann LeCun, Chief AI Scientist di Meta, scagliare la sua verità come un martello di Thor nel silenzio autoreferenziale della Silicon Valley: “Senza Meta, molta dell’AI moderna non esisterebbe.” E mentre il pubblico digita “OpenAI” nella barra di ricerca con la stessa naturalezza con cui un tempo si scriveva “Google”, c’è chi nell’ombra ha martellato il ferro dell’open source per anni, senza ottenere mai il credito da copertina.

La questione, al di là dell’ego e delle polemiche accademiche, è brutale nella sua evidenza: senza PyTorch, oggi non avremmo neppure la metà della cultura di machine learning che inonda GitHub e arXiv. Quel framework flessibile, nato in un laboratorio di Meta (o meglio, Facebook AI Research, per gli archeologi della memoria), è l’asse portante su cui poggiano DeepSeek, Mistral, LLaMA e un’intera galassia di modelli che si vendono come “open”, “free” o “alternativi”.

Anche Luciano Floridi ha il suo digital twin? La filosofia generativa del bot LuFlot

Ci siamo: anche Luciano Floridi ha il suo avatar cognitivo. Si chiama LuFlot, ed è un’intelligenza artificiale generativa che, a detta dei suoi giovani creatori, dovrebbe incarnare — se mai un algoritmo potesse farlo — trent’anni di pensiero filosofico del direttore del Digital Ethics Center di Yale. Ebbene sì, il digital twin è sbarcato anche nel pensiero critico, e stavolta non si limita a simulare macchine industriali o profili finanziari, ma un vero e proprio intellettuale. L’ultima mossa dell’era epistemica delle allucinazioni assistite da AI.

Floridi, con il consueto equilibrio tra rigore e understatement anglosassone, ammette: “Io ho solo condiviso i miei scritti e dato qualche suggerimento sul design.” La paternità operativa del progetto, infatti, è tutta di Nicolas Gertler, matricola di Yale, e Rithvik Sabnekar, liceale texano con talento per lo sviluppo software. Due nomi che, nel contesto di una Ivy League dove il filosofo è leggenda accademica, suonano come una sottile vendetta della generazione Z: i padri della filosofia digitale messi in scena dalla loro progenie algoritmica.

Apple e la tassa App Store: il bluff della concorrenza libera

Apple ha appena ricevuto un colpo che potrebbe incrinare la sua fortezza dorata chiamata App Store. Dopo anni di battaglie legali e proteste da parte degli sviluppatori, una recente sentenza ha aperto la porta ai pagamenti esterni, potenzialmente riducendo il controllo esclusivo di Cupertino e, soprattutto, le sue lucrose commissioni. Il palco è pronto per la WWDC della prossima settimana e tutti aspettano che Apple faccia un gesto, una specie di “ramo d’ulivo” per stemperare la tensione e sedurre di nuovo gli sviluppatori, quelli che da sempre finanziano il suo impero digitale.

Il nocciolo della questione non è solo il 30% di commissione che Apple ha applicato per anni con la sua politica rigida, ma un intero ecosistema costruito sulla dipendenza e sul monopolio apparente. Gli sviluppatori non si sono mai nascosti dietro un dito: quella tassa, in molti casi, è una strozzatura che limita l’innovazione, ma soprattutto i margini di profitto. Ora, con la sentenza che consente i pagamenti esterni, la melodia potrebbe cambiare. Immaginate un mondo in cui un’app potenzialmente paghi meno commissioni, o addirittura si liberi dalla presa di Apple, bypassando il sistema di acquisto in-app tradizionale.

Perché Eric Schmidt, Jeff Bezos e le startup stanno puntando sui data center nello spazio

C’è un nuovo Eldorado tecnologico, e non si trova né nella Silicon Valley né a Shenzhen. Si trova a centinaia di chilometri sopra le nostre teste, in orbita terrestre. Mentre i comuni mortali cercano di far funzionare i loro server on-premise o di migrare al cloud, i giganti della tecnologia stanno già pensando a data center spaziali, come se fosse la cosa più naturale del mondo. Eric Schmidt, ex CEO di Google, ha recentemente preso le redini di Relativity Space, un’azienda che punta a costruire razzi stampati in 3D e a lanciare infrastrutture nello spazio. Nel frattempo, Jeff Bezos, con la sua Blue Origin, sta sviluppando “Blue Ring”, una piattaforma spaziale che offre potenza di calcolo resistente alle radiazioni, gestione termica e comunicazioni per carichi utili in orbita.

Ma perché tutto questo interesse per i data center nello spazio? Per cominciare, lo spazio offre un ambiente unico: temperature estreme, assenza di gravità e un’abbondanza di energia solare. Queste condizioni possono essere sfruttate per creare data center altamente efficienti e sicuri. Inoltre, con l’aumento esponenziale dei dati generati da dispositivi IoT,(o da reti tipo Starlink o Kuiper di Amazon) intelligenza artificiale e altre tecnologie emergenti, la domanda di capacità di elaborazione e archiviazione è in costante crescita. I data center spaziali potrebbero offrire una soluzione scalabile e sostenibile a lungo termine.

Deepseek assume stagisti per addestrare l’intelligenza artificiale clinica: il futuro della medicina cinese vale 70 dollari al giorno

Quando l’intelligenza artificiale incontra la medicina, la posta in gioco non è una startup da miliardi, ma la vita umana. Eppure, in Cina, l’ultima frontiera di questa rivoluzione si sta costruendo con budget da stagista. Letteralmente.

DeepSeek, startup AI cinese ancora misteriosamente silenziosa sul lancio del suo modello avanzato R2 reasoning, ha deciso che per migliorare l’accuratezza diagnostica servono… studenti pagati 500 yuan al giorno (circa 70 dollari). In cambio? Quattro giorni a settimana etichettando dati medici, scrivendo prompt in Python e domando la bestia linguistica dei Large Language Models. L’annuncio, apparso su Boss Zhipin, non sulla loro pagina ufficiale, sembra quasi un messaggio cifrato: “Sappiamo dove andiamo, ma non ve lo diciamo”.

Alibaba svela Qwen3 Embedding: così la cina trasforma gli embedding in una macchina da guerra semantica

Alibaba non vuole solo giocare la partita dell’intelligenza artificiale. Vuole riscrivere il regolamento, imporre il ritmo e magari anche cambiare il terreno di gioco. E lo fa con il lancio della serie Qwen3 Embedding, l’ultima mossa del colosso di Hangzhou per rafforzare la propria posizione globale nel settore più caldo e strategico del secolo: l’open-source AI. Altro che modelli chiusi e gelosamente custoditi in server americani. Qui si parla la lingua – anzi, le 100 lingue – del mondo. Compresi JavaScript e Python.

La notizia, rilasciata con l’eleganza strategica del giovedì sera (un tempismo che dice tutto sulla guerra psicologica dei lanci tech), nasconde in realtà un messaggio chiarissimo al resto del mondo: Alibaba non è più solo un marketplace. È un’armeria cognitiva.

Perché l’Intelligenza artificiale ama i tuoi dati sanitari più di quanto tu ami il tuo medico

Diciamolo senza girarci intorno: l’Intelligenza Artificiale non è interessata al tuo cuore, ma al tuo cuore visto da una risonanza magnetica, incrociato con i tuoi esami del sangue, i tuoi battiti notturni tracciati dall’Apple Watch, le tue abitudini alimentari dedotte da quanto sushi ordini su Glovo e da quanto insulina consumi nel silenzio della tua app.

Benvenuti nell’era dell’ecosistema dei dati sanitari, un mondo che sembra pensato da un bioeticista impazzito e un data scientist con la passione per il controllo.

Mentre l’European Health Data Space (EHDS, per gli amici stretti della Commissione Europea Regolamento 2025/327) si appresta a diventare il cuore pulsante del nuovo continente digitale della salute, le big tech affilano gli algoritmi. Il paziente europeo diventa il più grande fornitore gratuito di dati strutturati mai esistito. E noi? Noi firmiamo i consensi informati senza leggerli, applaudiamo all’efficienza predittiva, e poi ci indigniamo perché la nostra assicurazione sanitaria sa che abbiamo preso troppo ibuprofene a maggio.

The New York Times vs OpenAI: come distruggere la fiducia nell’AI in nome del copyright

Il paradosso perfetto è servito. In un’epoca in cui le Big Tech si fanno guerre epiche a colpi di etica e algoritmi, a tradire la promessa di riservatezza non è un CEO distopico né una falla nella sicurezza: è un’ordinanza giudiziaria. OpenAI, la regina madre dei modelli generativi, è costretta per ordine del tribunale a violare una delle sue stesse policy fondanti: la cancellazione delle conversazioni su richiesta dell’utente. Cancellazione, si fa per dire.

Quello che accade dietro le quinte di ChatGPT oggi non è un incidente tecnico né una svista legale. È un ribaltamento formale della logica contrattuale tra utente e piattaforma, e rappresenta un passaggio simbolico nella guerra fredda tra intelligenza artificiale e diritto d’autore. Il tutto, ovviamente, con in mezzo il cadavere illustre della privacy digitale.

Meta e il fantasma digitale di Ronaldo: come un deepfake scoperchia la farsa dell’intelligenza artificiale etica

È stato necessario l’intervento del Oversight Board, l’organo che Meta ha creato per farsi il bagno di trasparenza, perché qualcuno in azienda si degnasse di togliere un video truffaldino con protagonista a sua insaputa Ronaldo Nazário. Non il giovane Cristiano, ma il Fenomeno, quello vero. E anche il deepfake era tutto fuorché credibile: un doppiaggio posticcio, movimenti labiali scoordinati, e una promessa irreale guadagnare più che lavorando grazie a un giochino online chiamato “Plinko”.

Benvenuti nell’epoca dell’intelligenza artificiale generativa, dove la reputazione umana è una licenza open source, e i colossi tech oscillano tra l’ignoranza deliberata e la complicità algoritmica.

Il nuovo culto dei capitali: GPx, unicornizzazione e startup ai limiti della fede matematica

Nel sottobosco delle term sheet di carta lucida, tra pitch di PowerPoint e founder in hoodie che citano Wittgenstein, si sta aprendo un nuovo capitolo della religione laica della Silicon Valley: il ritorno del venture capital come culto esoterico, dove la logica è un optional e la narrazione vale più del bilancio. A comandare la liturgia? Intelligenza artificiale, valutazioni stratosferiche e un nuovo attore pronto a “dare un vantaggio ingiusto ai GP d’élite”: GPx. La nuova sigla magica che fa brillare gli occhi a chi vede più valore in una curva hockey stick disegnata con Figma che nei fondamentali economici.

ADVANCES AND CHALLENGES IN FOUNDATION AGENTS FROM BRAIN

INSPIRED INTELLIGENCE TO EVOLUTIONARY, COLLABORATIVE, AND SAFE SYSTEMS: Tradotto Il futuro ha già un cervello: come i Foundation Agents stanno trasformando l’intelligenza artificiale da pappagallo parlante a stratega senziente

Un paper con un titolo affascinante, abbiamo insegnato alle macchine a parlare prima ancora che sapessero fare. Gli LLMs, quegli oracoli linguistici superalimentati che da anni catturano titoli e investimenti, hanno un grande talento nel produrre parole ma, come tanti filosofi da salotto, faticano ad agire. È come avere un genio della lampada che può spiegarti come costruire un razzo, ma non riesce ad alzarsi dal divano per prendere un cacciavite.

Ecco perché oggi, in sordina ma con crescente inevitabilità, stiamo assistendo all’ascesa dei Foundation Agents, la vera mutazione darwiniana dell’AI. Non più solo modelli linguistici che sfornano risposte brillanti, ma entità modulari che percepiscono, ragionano, agiscono, apprendono e – con un pizzico di inquietudine – iniziano anche a sentire. O quantomeno, simulano molto bene la sensazione di farlo.

Zoltan Istvan e l’apocalisse dei robot: perché un androide in salotto sarà il tuo prossimo ammortizzatore sociale

Immaginate questo: un robot umanoide ti apre la porta, prepara la cena vegana sintetica, lava i piatti e ti ricorda che domani hai un colloquio di lavoro per un impiego che, probabilmente, non esisterà più tra sei mesi. Benvenuti nella California del futuro secondo Zoltan Istvan, ex paladino del Transumanesimo, oggi candidato Democratico alla carica di governatore. Il suo piano per evitare la “job apocalypse”? Reddito universale e un robot per ogni famiglia. Un’idea a metà tra Isaac Asimov e Karl Marx, impacchettata in retorica elettorale.

Istvan non è nuovo a trovate scenografiche: nel 2016 attraversò gli Stati Uniti su un camper a forma di bara per promuovere l’estensione indefinita della vita umana. Oggi, però, ha deciso di seppellire (o ibernare) il Transhumanist Party per tuffarsi nell’ecosistema Democratico californiano, ben consapevole che, come dice lui stesso, “correre con un altro partito equivale a non correre affatto”.

Quando Elon morde Trump: il reality techno-pop che incendia Washington

È successo di nuovo. Un altro episodio del più grande reality americano, una tragicommedia di potere, ego e tweet: Elon Musk e Donald Trump, due poli magnetici del narcisismo contemporaneo, si sono scontrati in pubblico come due CEO con troppo tempo libero e un’ossessione condivisa per l’attenzione. Il loro litigio ha avuto il sapore di un wrestling elettorale tra chi vuole dominare Marte e chi ancora pensa di poter ri-conquistare Manhattan. Il risultato? Più fumo che fuoco, ma anche un riflettore impietoso acceso sul rapporto torbido tra la Silicon Valley e la nuova – o meglio, rinnovata – MAGAcronica amministrazione trumpiana.

Hollywood si è venduta al silicio, e non tornerà indietro

AMC Networks e Runway

L’intelligenza artificiale generativa non è più l’ospite invisibile nella stanza dei bottoni di Hollywood. Con la partnership tra AMC Networks e la startup Runway, la tecnologia non sta più bussando alla porta: ha buttato giù i muri, ha messo i piedi sul tavolo e ha iniziato a scrivere le sceneggiature. Previsualizzazioni generate da AI, campagne marketing senza un solo ciak, versioni alternative di film per fasce d’età modellate da algoritmi: questo non è il futuro della TV via cavo, è il presente, spudorato e inequivocabile.

X vieta l’addestramento AI sui suoi post, ma li usa per sé: l’etica à la Musk

Nel grande bazar dei dati digitali, dove ogni parola postata è una pepita d’oro per l’addestramento delle intelligenze artificiali, X (ex Twitter) ha aggiornato il suo Developer Agreement con una nuova clausola: vietato usare i contenuti della piattaforma per addestrare modelli fondazionali o di frontiera. A meno che tu non sia… beh, X stessa.

L’annuncio, passato quasi inosservato se non fosse stato per TechCrunch, arriva con la delicatezza di un aggiornamento di sistema, ma nasconde una torsione strategica da manuale Machiavelli. Tradotto dal legalese: se sei uno sviluppatore esterno, dimentica l’idea di nutrire il tuo LLM con i tweet. Però X (cioè Elon Musk) può continuare a farlo. E lo fa. Con entusiasmo.

L’arte si fa algoritmo e costa quanto una Tesla: benvenuti nell’era della tela che respira

Ventiduemila dollari. Per un display. No, non stiamo parlando di un monitor da sala controllo NASA, né del cruscotto olografico di una navicella SpaceX. È Layer, la nuova creazione di Angelo Sotira, co-fondatore di DeviantArt, una delle prime culle della creatività digitale, oggi mutata in parco giochi per l’intelligenza artificiale.

Il prezzo non è casuale, è una dichiarazione. Un grido estetico incastonato tra pixel e marketing, che tenta di legittimare il generative AI art come nuova frontiera del collezionismo. Dimenticate le stampe numerate, i quadri firmati a mano o le fotografie d’autore. Qui siamo oltre la firma: qui il quadro si scrive da solo.

Anthropic lancia Claude Gov, l’intelligenza artificiale patriottica che non fa troppe domande

C’è un curioso dettaglio nelle democrazie moderne: ogni volta che una tecnologia diventa abbastanza potente da riscrivere le regole del gioco economico, qualcuno in uniforme entra nella stanza e chiede di parlarne a porte chiuse.

Così è stato per internet, per i satelliti GPS, per il cloud, e oggi ça va sans dire per l’intelligenza artificiale. La nuova mossa di Anthropic lo conferma: la startup fondata da transfughi di OpenAI ha appena annunciato Claude Gov, un set di modelli AI personalizzati creati su misura per le agenzie dell’intelligence americana. Il claim? “Rispondono meglio alle esigenze operative del governo.” Traduzione: sanno leggere, sintetizzare e suggerire azioni su documenti classificati, in contesti ad alto rischio geopolitico. Senza tirarsi indietro.

Gemini 2.5 pro fa il salto quantico che Google doveva al mondo dell’intelligenza artificiale

Ogni attore ha il suo momento di gloria, il suo rilascio “rivoluzionario”, la sua conferenza patinata da annunciare tra un keynote e una demo pompata a razzo. Ma oggi, finalmente, Google sembra aver smesso di rincorrere gli altri per tornare a fare scuola. Con il rilascio della versione aggiornata in anteprima di Gemini 2.5 Pro, siglata 06-05, Mountain View alza l’asticella in modo tangibile. E sì, stavolta i benchmark non mentono: stavolta è roba seria.

Partiamo da dove il dolore si sentiva di più: fuori dal mondo del coding, le release precedenti della famiglia Gemini 2.5 sembravano avvolte da una nebbia di mediocrità. Accuse non troppo velate su Reddit, sussurri negli ambienti dev più esigenti: “03-25 era più brillante”, “le nuove release hanno perso smalto”, “troppa ottimizzazione, poca anima”. Bene: con 06-05, Google prova a rimediare. E lo fa con un’operazione chirurgica sul linguaggio, sulla formattazione delle risposte e udite udite su una creatività finalmente leggibile, non più solo impressa nei prompt di marketing.

Palantir, il Trumpismo digitale e il lato oscuro dell’intelligenza artificiale

Il CEO di Palantir, Alex Karp, è apparso oggi su CNBC con lo stesso tono del professore universitario che ti guarda come se non capissi nulla, anche se è il tuo esame di dottorato. Karp ha risposto piccato all’articolo del New York Times che la scorsa settimana ha insinuato che Palantir fosse stata “arruolata” dall’Amministrazione Trump per creare una sorta di “registro maestro” dei dati personali degli americani. Un’accusa pesante. E prevedibile. In fondo, quando la tua azienda costruisce software per eserciti, spie e governi opachi, è difficile convincere il pubblico che stai solo “aiutando le agenzie a lavorare meglio”.

La smentita di Karp? “Non stiamo sorvegliando gli americani”. Certo, come no. È un po’ come se Meta dichiarasse: “Non vendiamo dati”, o come se TikTok sostenesse di non avere legami con la Cina. Palantir, per chi non la conoscesse, è l’azienda fondata con soldi della CIA e oggi quotata al Nasdaq (PLTR), che costruisce sistemi avanzati di analisi dei dati. È anche la compagnia preferita da chi vuole controllare senza che sembri controllo.

Amazon vuole sostituire i corrieri con androidi in furgoni elettrici. Ma davvero pensiamo che si fermeranno ai pacchi?

Mentre ci beviamo l’ultima birra artigianale a Brooklyn o ci lamentiamo della ZTL a Milano, Amazon ha iniziato a costruire silenziosamente un “parco umanoide” in un ufficio di San Francisco. No, non è un’attrazione turistica per nostalgici di Westworld, ma una palestra hi-tech dove androidi addestrati da intelligenze artificiali stanno imparando a saltar fuori dai furgoni Rivian per consegnare i nostri pacchi. Letteralmente.

Il progetto è tutto fuorché una boutade fantascientifica. Secondo The Information, il colosso di Seattle sta mettendo a punto software agentici avanzati sistemi capaci non solo di rispondere a comandi, ma di agire in modo autonomo e adattivo. Niente più macchine rigide a compiere task singoli come in una catena di montaggio fordista: Amazon vuole trasformare i suoi robot in creature quasi conversazionali, capaci di interpretare ordini in linguaggio naturale. Sì, tipo: “porta questo pacco al tizio col bulldog al terzo piano, ma attento a non calpestare il basilico della signora Rosina”.

Dario Amodei Moratoria senza morso: la finta tregua sull’intelligenza artificiale

C’è qualcosa di inquietante, quasi surreale, nell’idea di congelare lo sviluppo normativo dell’Intelligenza Artificiale per dieci anni. Un’era geologica in tempo algoritmico. Ma è proprio ciò che propone una corrente bipartisan americana: un moratorium regolatorio decennale sulla AI. Un’idea che sembra uscita da un comitato scolastico piuttosto che da un think tank geopolitico.

A scrivere contro questa bizzarria, sulle colonne del New York Times, è Dario Amodei, CEO e co-fondatore di Anthropic, l’unicorno addomesticatore di AI creato da ex ribelli di OpenAI. Il suo pezzo, lucido e chirurgico, è una dichiarazione di guerra travestita da appello alla ragionevolezza: “una moratoria di dieci anni è uno strumento troppo rozzo”, scrive, con la pacatezza di chi sa che l’AI non aspetta i calendari del Congresso.

Radiologia e Intelligenza Artificiale

Il mondo dell’imaging RM sta entrando in una nuova era. Non si tratta di cambiare macchina, ma di cambiare cervello. Con l’arrivo di AI, stiamo passando da un’acquisizione “meccanica” delle immagini a una “intelligente”. Ma niente tecnicismi inutili. Questo articolo frutto dell’evento ECM gratuito organizzato a Viterbo Commissione Albo per TSRM con Rivista.AI patrocinato dal Dott. M.Gentile spiega in modo pratico e chiaro a chi lavora davvero sulla macchina i tecnici radiologi cosa cambia davvero con l’uso dell’intelligenza artificiale nei parametri principali della risonanza magnetica.

Pagina 4 di 136

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie