Le ultime notizie, approfondimenti e analisi sull'intelligenza artificiale, dalla tecnologia generativa a quella trasformativa

Categoria: News Pagina 29 di 118

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Oracle e il teatro della disclosure: come trasformare un annuncio in un colpo di scena da 30 miliardi

Nel teatrino sempre più surreale della comunicazione finanziaria, Oracle ha appena alzato il sipario su uno dei suoi momenti più strani, più affascinanti e, a modo suo, più geniali. Mentre i competitor si arrampicano sugli specchi per strappare qualche menzione in un blog di settore, Larry Ellison & co. decidono che un colossale accordo cloud da oltre 30 miliardi di dollari l’anno non meriti un comunicato stampa, né una fanfara condita da parole chiave ridondanti come “AI-native” o “cloud-first architecture”.

No, loro lo infilano di soppiatto in un documento per la SEC, intitolato con sobria precisione “Regulation FD Disclosure”, senza nemmeno la voglia di inventarsi un nome altisonante e per chi si chiedesse cosa significhi tutto ciò: vuol dire che Oracle ha deciso di fare la rockstar in giacca e cravatta, suonando heavy metal in una riunione del consiglio d’amministrazione.

Google ha fatto saltare il recinto: Gemma 3n è il cavallo di troia dell’intelligenza artificiale veramente open

I laboratori blindati che vivono tra NDA, paywall e modelli oscuri stanno tremando. Perché questa volta non è la solita demo da conferenza con tanto di latency simulata e animazioni generative che sembrano disegnate da uno stagista con accesso a Midjourney. Google ha finalmente fatto quello che in tanti promettono ma quasi nessuno realizza: un modello open-weight, davvero multimodale, realmente funzionante offline, capace di girare su dispositivi con 2 GB di RAM senza piangere in C. Si chiama Gemma 3n e non è un gioco di parole. È un attacco frontale, chirurgico, al cuore del dominio centralizzato delle AI commerciali.

Sam Altman ha appena fatto saltare la religione del software, ora vuole costruire la macchina che ci ascolta sempre

Sam Altman non crede più nel software. E se a dirlo fosse stato un qualsiasi sviluppatore stanco di ottimizzare il backend per il millesimo ciclo di training, la notizia non avrebbe fatto rumore. Ma qui stiamo parlando del profeta dell’intelligenza artificiale generativa, il CEO di OpenAI, l’uomo che con ChatGPT ha innescato la corsa globale al cervello sintetico. L’apostolo del prompt engineering che ora si scopre… ingegnere hardware. È come se Tim Berners-Lee si mettesse a vendere modem USB nei mercatini dell’usato. O forse qualcosa di ancora più teatrale. Perché Altman non sta semplicemente dicendo che serve nuovo hardware. Sta dicendo che l’intero paradigma computazionale su cui si regge l’era moderna è sbagliato. Troppo lento. Troppo inefficiente. Inadeguato a contenere l’intelligenza artificiale che lui stesso ha evocato.

La nuova era degli Agenti AI: strumenti indispensabili per dominare luglio 2025

Il mercato degli agenti AI ha appena raggiunto un nuovo picco di sofisticazione, un’arena dove la tecnologia non si limita più a supportare, ma plasma attivamente ogni aspetto della nostra vita digitale. Se luglio 2025 fosse una playlist, sarebbe un mix di infrastrutture robuste, magie video, automazioni pratiche e assistenti creativi che sembrano usciti da un film di fantascienza.

Partiamo dalle fondamenta: l’infrastruttura AI. Bright Data, Lambda Labs e CoreWeave non sono solo nomi da nerd, ma i pilastri invisibili che sostengono la complessità del calcolo distribuito. Bright Data, con la sua rete globale di proxy intelligenti, consente di raccogliere dati in tempo reale come un detective digitale, mentre Lambda Labs offre potenza computazionale su misura per modelli di intelligenza artificiale, quasi un cloud che pensa. CoreWeave, invece, fa il lavoro sporco di accelerazione GPU, una vera e propria Ferrari per il training di reti neurali massive. Senza questa triade, nessuna delle meraviglie successive sarebbe possibile.

Reddit, AI e l’illusione della comunità: cosa resta di umano dopo 20 anni di Internet?

Reddit compie vent’anni e, come ogni adulto con qualche cicatrice, ha capito che la gloria non basta: serve monetizzarla. Quel grande archivio anarchico di pensieri brutali, consigli troppo sinceri, shitposting geniale e confessioni da insonnia sta per essere impacchettato, etichettato e messo in vendita all’asta dell’intelligenza artificiale. Perché no? Se perfino i diari segreti sono diventati contenuto estraibile, Reddit è semplicemente il prossimo petrolio sociale da trivellare.

Baidu rilascia Ernie 4.5 e si inchina all’open source: fine della guerra fredda dell’AI cinese o solo l’inizio?

Il tempo delle dichiarazioni di superiorità assoluta, delle IA blindate e delle presentazioni pirotecniche è finito. Baidu, il gigante di Pechino che fino a ieri si atteggiava a custode geloso del proprio tesoro algoritmico, ha compiuto una virata spettacolare quanto inevitabile: ha rilasciato in open source dieci varianti del suo modello Ernie 4.5 su Hugging Face, con taglie che vanno da una snella 0.3 miliardi di parametri fino al mastodonte da 424 miliardi. È come se Microsoft si mettesse a regalare copie di Windows, con tanto di codice sorgente e manuale d’uso allegato.

Eppure, meno di un anno fa, Robin Li, CEO di Baidu, dichiarava pubblicamente che “gli LLM open source non potranno mai eguagliare la potenza dei nostri modelli proprietari”. Chissà se oggi rilegge quelle frasi con un sorriso ironico o con l’amaro in bocca. Ma una cosa è certa: nel panorama AI cinese si è rotto un argine, e la diga dell’open source ora travolge anche chi voleva dominare la partita a porte chiuse.

Trends in AI Supercomputers è il compute, non i dati, il vero petrolio dell’economia dell’AI

Per anni ci siamo raccontati che i dati fossero il nuovo petrolio. Una narrazione comoda, elegante, quasi poetica, che dava un senso alle guerre silenziose combattute a colpi di privacy policy e scraping selvaggi. Ma mentre l’industria dell’intelligenza artificiale entra in una fase muscolare, fatta di centri dati da miliardi e chip che costano quanto miniere d’oro, una nuova verità emerge, brutale e ineludibile: è il compute, non i dati, a decidere chi guida e chi insegue.

Il report di Konstantin Pilz, James M. S., Robi Rahman e Lennart Heim, che analizza oltre 500 supercomputer AI tra il 2019 e il 2025, è una specie di radiografia del cuore pulsante dell’economia cognitiva. Altro che narrativa da laboratorio accademico. Qui si parla di infrastrutture pesanti, di consumi energetici che rivaleggiano con piccole nazioni, e di una concentrazione di potere computazionale che fa impallidire anche i più accaniti critici del capitalismo digitale.

Il trend più impressionante? Le performance di calcolo stanno raddoppiando ogni 9 mesi. Avete letto bene: siamo in un’era in cui la velocità con cui raddoppiano le capacità computazionali supera persino la mitica Legge di Moore. E ogni raddoppio non è un semplice upgrade. È un salto quantico che permette ad alcune entità poche, selezionatissime di costruire modelli sempre più grandi, sempre più potenti, sempre più inaccessibili.

Google Classroom diventa un laboratorio di intelligenza artificiale: l’era del professore cyborg è appena iniziata

Benvenuti nel futuro dell’istruzione, dove le lavagne si trasformano in chatbot, le verifiche si scrivono da sole e l’insegnante è assistito da un’intelligenza artificiale che sa tutto, ma con un’interfaccia amichevole e un sorriso sintetico. Google ha appena lanciato una serie di aggiornamenti per la sua piattaforma Classroom, e il messaggio è chiaro: l’educazione tradizionale è morta, viva l’educazione algoritmica. Al centro dell’evoluzione ci sono le nuove funzionalità di Gemini AI, che non si limitano più a un pubblico adulto, ma aprono ufficialmente le porte ai minori, sdoganando l’idea che anche lo studente delle medie possa avere un assistente cognitivo personale. Chi ha detto che l’AI non è una questione per bambini?

Sophgo Chip cinesi e modelli nazionali, il nuovo culto della resilienza artificiale

Non chiamatela solo “sostituzione tecnologica”, perché la Cina non sta semplicemente cercando alternative ai chip americani. Sta costruendo un nuovo culto della resilienza artificiale, e lo sta facendo con una determinazione che gronda di strategia industriale, orgoglio sovranista e calcolo geopolitico. La notizia che Sophgo, produttore cinese di semiconduttori, abbia adattato con successo la sua compute card FP300 per far girare il modello di ragionamento DeepSeek R1, non è un semplice annuncio tecnico. È un atto di guerra, anche se siliconica. È l’ennesimo tassello del grande mosaico che Pechino sta costruendo per liberarsi dal giogo delle GPU Nvidia e dall’ecosistema software che, fino a ieri, sembrava imprescindibile per chiunque volesse fare intelligenza artificiale ad alto livello.

Quando Nvidia non compra solo startup ma il futuro dell’ottimizzazione dell’AI

Non è più solo una questione di silicio o di tensor core. È guerra di algoritmi, di efficienze marginali e di controllo capillare del runtime delle intelligenze artificiali. Nvidia, nel silenzio assordante delle operazioni senza clamore, ha messo a segno l’ennesimo colpo di precisione chirurgica: l’acquisizione di CentML, una startup canadese che sa rendere l’AI meno assetata di energia, più veloce e persino più economica. Tradotto per gli umani: Nvidia ha comprato una leva per moltiplicare il valore del proprio monopolio, abbassandone il costo apparente.

L’ottimizzazione dell’AI è diventata il nuovo petrolio del deep learning. Non basta più avere i chip più potenti, bisogna anche saperli sfruttare fino all’ultimo ciclo di clock, compressare i modelli, minimizzare la latenza, prevedere il carico di lavoro, riordinare il codice intermedio. In pratica, bisogna fare quello che facevano i bravi ingegneri nei primi anni ‘80, solo che ora si chiama “compiler-level model optimization” e si vende come deeptech con valutazioni da Serie A. CentML, fondata nel 2022, ha raccolto più di 30 milioni di dollari da nomi che ormai suonano come un mantra per l’élite dell’AI: Radical Ventures, e sì, anche Nvidia stessa. Perché oggi le grandi aziende tech investono nei loro futuri acquisti come si fa con i fondi pensione: alimentano ciò che un giorno diventerà strategicamente inevitabile da inglobare.

Quando una Tesla si guida da sola per consegnarsi, il conducente diventa un optional ideologico

Se un’auto parte da una fabbrica senza che nessuno la guidi, attraversa parcheggi, svincoli e quartieri suburbani e arriva a casa del suo nuovo proprietario… chi è il conducente? Chi ha preso le decisioni? Chi ha firmato l’assicurazione? E soprattutto: cosa resta di noi, esseri umani, in un mondo dove anche le macchine sanno dove andare senza di noi?

L’ultimo show tecnologico di Elon Musk non è solo un video ben montato su X, la sua piattaforma social sempre più distopica. È una dichiarazione bellica. Un siluro contro le logiche arcaiche che ancora incatenano l’industria automobilistica al mito dell’uomo al volante. Una Tesla si è auto-consegnata, guidandosi da sola dalla Gigafactory in Texas fino al vialetto del suo nuovo proprietario. Niente pilota. Nessuna supervisione umana visibile. Solo asfalto, codice e arroganza ingegneristica.

Il suicidio energetico dell’america spiegato da un miliardario con l’X nel nome

Elon Musk ha riaperto il fuoco contro il nuovo disegno di legge sostenuto da Donald Trump, etichettandolo come “folle e distruttivo”, accusandolo di voler “distruggere milioni di posti di lavoro in America e causare un danno strategico immenso al Paese”. Il bersaglio delle critiche non è (più) Trump in persona, ma il contenuto del cosiddetto Big Beautiful Bill, versione aggiornata presentata al Senato, che penalizza con decisione il settore delle energie rinnovabili.

Quando Mark Chen si sente derubato: la guerra dei talenti ai tra OpenAI e Meta è appena iniziata

“Ho una sensazione viscerale, come se qualcuno fosse entrato in casa nostra e avesse rubato qualcosa.” No, non è la scena madre di un film di mafia. È una frase vera. E l’ha scritta Mark Chen, Chief Research Officer di OpenAI, in un memo infuocato allo staff. Non si parlava di algoritmi rubati, né di breach informatici. Parliamo di qualcosa di più importante, oggi: cervelli.

Nel giro di una settimana, Meta ha assunto otto ricercatori di punta di OpenAI. Non stagisti. Non junior. Ricercatori veri, alcuni dei quali coinvolti nei progetti fondamentali su RLHF, alignment, ottimizzazione dei transformer e interpretabilità. Gente che, per intenderci, non si licenzia perché vuole “fare un’esperienza nuova”. Gente che, in un altro scenario, andrebbe protetta come si fa con il segreto industriale o il codice sorgente di un motore di ricerca. Ma questa è la nuova economia dell’intelligenza artificiale: le GPU possono essere distribuite, i modelli anche, ma i talenti no. I talenti, quelli veri, restano scarsi, vulnerabili, e per questo oggetto di caccia spietata.

La rivoluzione silenziosa che sta riscrivendo la medicina italiana senza aspettare il permesso di nessuno

A Palazzo Lombardia, nel consueto salotto istituzionale dove il potere si veste da moderazione e i microfoni amplificano solo ciò che è già stato autorizzato, è andata in scena una delle rare occasioni in cui l’intelligenza artificiale è stata nominata senza scivolare nella fiera delle ovvietà. Il 23 giugno scorso, durante l’evento Salute Direzione Nord promosso da Fondazione Stelline, davanti a nomi che definire altisonanti è ormai protocollo – la vicepresidente del Senato Licia Ronzulli, il presidente di Regione Attilio Fontana, il ministro della Salute Orazio Schillaci – il vero protagonista non aveva cravatta ma codice: l’AI nella sanità.

Diciamolo subito. Quando un’infrastruttura come Seeweb prende il microfono e parla di medicina, qualcuno alza il sopracciglio. Quando però il CEO Antonio Baldassarra comincia a parlare di diagnostica per immagini e tumore ovarico non con la solita cautela da convegno, ma come chi sa perfettamente cosa si può fare oggi, allora il sospetto si trasforma in attenzione. Perché è chiaro che non siamo più nel territorio delle ipotesi ma della realtà, quella concreta, fatta di pixel che salvano vite.

21 strumenti di intelligenza artificiale per blindare (davvero) la tua strategia GTM

Basta con le promesse gonfiate da pitch deck e post su LinkedIn infarciti di buzzword. Questi non sono “tool carini con l’AI”, ma veri acceleratori di crescita. Li stanno usando le squadre che non solo sopravvivono alla tempesta tecnologica, ma ci fanno surf sopra. Se non li stai testando, qualcuno li sta già usando contro di te.

Ecco la nostra shortlist di giugno. Non è SEO bait. È il tuo prossimo piano operativo.

Come smettere di copiare prompt e iniziare a dominare l’intelligenza artificiale

Molti stanno ancora usando l’intelligenza artificiale come se fosse il 2023. Copia-incolla il prompt, attendi, copia-incolla la risposta. E si illudono di “fare AI”. In realtà, stanno solo imbalsamando l’inerzia digitale con nastro adesivo tecnologico. Nessuna trasformazione, solo un workflow zoppo travestito da innovazione. Se sei davvero intenzionato a entrare nel futuro della produttività AI-driven, smetti di dialogare con i chatbot come se fossero oracoli di carta stagnola e inizia a costruire sistemi intelligenti, automazioni reali, e infrastrutture cognitive.

Ecco perché questa lista di 30 strumenti AI suddivisi per funzione non è una “raccolta di app”, ma una cassetta degli attrezzi per chi vuole smettere di giocare con l’intelligenza artificiale e cominciare a lavorarci seriamente. Sottovalutarli oggi significa essere sostituiti domani da chi li usa meglio di te.

Il copyright è morto. Viva il copyright. Ma solo se lo usi bene

È un’illusione collettiva, quasi affascinante. Due vittorie legali, un sospiro di sollievo a Menlo Park e San Francisco, e un’industria che si aggrappa a parole come “fair use” con la stessa disperazione con cui i vecchi giornali cercavano click nel 2010. Ma attenzione: i giudici hanno suonato due campanelli d’allarme e sotto la superficie di queste sentenze si agita qualcosa di molto più caustico. Altro che via libera. La giungla giuridica dell’intelligenza artificiale sta diventando un labirinto di specchi, dove ogni riflesso sembra un passaggio e invece è una trappola.

Cominciamo dalla cronaca: Anthropic ha ottenuto una sentenza favorevole da parte del giudice William Alsup, che ha definito “esageratamente trasformativo” l’uso dei libri nel training di Claude, il loro LLM. Meta, dal canto suo, ha visto respinta una causa analoga grazie al giudice Vince Chhabria, che ha dichiarato che i querelanti non sono riusciti a costruire un caso decente. Una doppietta, sulla carta. Ma come ogni CTO sa, i log non mentono: e nei log di queste due sentenze ci sono più righe di codice rosso che verde.

Quando Hollywood sogna algoritmi: l’illusione dell’intelligenza artificiale come rivoluzione estetica

C’è qualcosa di profondamente inquietante nell’accendere uno schermo e ritrovarsi bombardati da video “deepfake” di disastri naturali inesistenti, animali che suonano il pianoforte con la precisione di un concertista russo, o paesaggi surreali che sembrano il peggior incubo di uno studente di Blender al primo anno. Tutto generato da intelligenza artificiale. Tutto incredibilmente brutto. Eppure, lì sotto, a fare da coro di sirene digitali, trovi centinaia, spesso migliaia di commenti che proclamano: questa è la nuova arte. Il nuovo Rinascimento, ma con più GPU e meno Leonardo.

Eccoci di nuovo: la Silicon Valley, in piena esaltazione messianica, ci dice che l’intelligenza artificiale generativa cambierà tutto. Hollywood morirà, sostituita da prompt testuali e diffusione latente. I film verranno “scritti” in una riga, girati da modelli e renderizzati in 4K mentre ci prepariamo il caffè. Sembra una trama scritta da un algoritmo. In effetti, lo è. La realtà però, come sempre, è meno glamour: la maggior parte di questi video sembrano il risultato di un’interferenza su un vecchio televisore analogico, con l’estetica confusa di una copia corrotta di The Sims e il ritmo narrativo di un video TikTok da tre secondi.

Se il pensiero diventa l’interfaccia, chi progetterà l’invisibile? Neuralink

Alex gioca a morra cinese con il pensiero. Non è un’iperbole, non è una campagna marketing da serie Netflix. È la seconda persona al mondo con un chip Neuralink nel cervello e, stando a quanto mostrato pubblicamente, riesce a muovere una mano robotica virtuale scegliendo mentalmente tra “sasso, carta, forbice” in tempo reale. Niente controller, niente voce, niente interfaccia visiva. Solo intenzione.

Lentamente, in modo grottesco e inevitabile, stiamo disimparando a usare le mani. Prima la tastiera, poi lo schermo touch, poi la voce, ora il pensiero. In questa progressione degenerativa dell’interazione uomo-macchina, qualcosa di profondo si agita: l’idea che l’interfaccia stessa sia un ostacolo da rimuovere. Non più strumento, ma barriera.

L’intelligenza artificiale finirà in tribunale. E questa volta non ci sarà un algoritmo a salvarla

Quando una rivoluzione tecnologica comincia a dipendere da ciò che pensa un giudice di Manhattan, significa che qualcosa è andato storto. Oppure, molto semplicemente, che stiamo entrando nella seconda fase dell’AI economy: quella in cui la creatività smette di essere un combustibile gratuito e diventa oggetto di una causa civile. O, per dirla con le parole del Wall Street Journal, “The legal fight over AI is just getting started — and it will shape the entire industry”. Sottotitolo implicito: le big tech sono già nel mirino, e l’odore di sangue ha attirato avvocati da Los Angeles a Bruxelles.

Alibaba e l’intelligenza artificiale che guarda nello stomaco: perché Grape è molto più di un modello AI

No, non è l’ennesima trovata di marketing agrodolce di una Big Tech in cerca di visibilità sanitaria. E no, non è nemmeno l’ennesimo paper accademico con risultati straordinari ma inapplicabili. Il modello “Grape”, sviluppato da Alibaba insieme allo Zhejiang Cancer Hospital, rappresenta qualcosa di molto più profondo: un colpo strategico che potrebbe ribaltare le regole della diagnosi oncologica, non solo in Cina ma nel mondo intero. A patto che sappiamo leggerne le implicazioni.

L’acronimo è abbastanza chiaro, quasi ingenuo: Gastric Cancer Risk Assessment Procedure. Ma dietro questa semplificazione si nasconde un deep learning model capace di analizzare scansioni TC tridimensionali e identificare i segni del cancro gastrico anche negli stadi precoci. E quando diciamo “capace”, intendiamo con sensibilità dell’85,1% e specificità del 96,8%. Numeri che ridicolizzano la performance media dei radiologi umani, soprattutto se si considera che il margine di miglioramento in diagnosi precoce supera il 20%. Un salto quantico. Un upgrade di civiltà, se vogliamo forzare il concetto.

Come scegliere davvero il modello giusto di intelligenza artificiale senza finire vittima del marketing

OpenAI ha un problema. Ed è lo stesso problema che ha ogni gigante tecnologico quando diventa troppo bravo a costruire strumenti intelligenti: la confusione. Non quella di sistema, ma quella degli utenti. In un mondo in cui ogni nuovo modello viene lanciato con nomi sempre più astratti o4-mini-high, o3, o1 Pro, GPT-4o l’illusione è che basti accendere la macchina e “funzioni”. No. Sbagliare modello oggi significa perdere soldi, tempo e credibilità. E anche un po’ di rispetto di sé.

Microsoft e l’illusione del silicio: il ritardo del chip AI Maia e la sfida a Nvidia

Microsoft ha annunciato un ritardo significativo nella produzione del suo chip AI di nuova generazione, Maia, noto anche come Braga. La produzione di massa, inizialmente prevista per il 2025, è stata posticipata al 2026. Secondo quanto riportato da Reuters, la causa principale del ritardo sono stati cambiamenti imprevisti nel design del chip, problemi di personale e un elevato turnover all’interno del team di sviluppo.

Questo ritardo pone Microsoft in una posizione delicata, soprattutto considerando la rapida evoluzione del mercato dei chip AI. Nvidia, con il suo chip Blackwell, ha già stabilito uno standard elevato, e il ritardo di Microsoft potrebbe significare che il chip Maia sarà meno competitivo al momento del lancio.

La bolla dell’intelligenza agentica: perché il 40% dei progetti AI fallirà entro il 2027

Quando un analista di Gartner ti dice che il 40% dei progetti di intelligenza artificiale agentica verrà cancellato entro il 2027, non sta lanciando un dado: sta puntando il dito contro un’intera industria ubriaca di promesse, slide da pitch e boardroom convinti che “agente” suoni più sexy di “assistente”. Il problema? Questa nuova corsa all’oro algoritmico ha il sapore rancido del déjà-vu. È il Web3 senza blockchain, è il metaverso con un prompt. È hype, travestito da strategia.

La parola magica oggi è “agentico”. Un termine che sembra uscito da un manuale di fantascienza sovietica ma che in realtà indica sistemi capaci di agire autonomamente per raggiungere obiettivi. Non reagire, come fa un chatbot, ma decidere, pianificare, agire. Quasi fossero middle manager siliconati in forma vettoriale. Salesforce e Oracle ci stanno buttando miliardi, cercando di trasformare queste entità in leve per abbattere i costi e aumentare i margini. Ma come ogni leva, anche questa rischia di agire sul vuoto.

Sabine Hossenfelder: Stiamo creando una nuova specie e non abbiamo nemmeno letto il manuale

La coscienza, ci dicono da secoli filosofi, teologi e neuroscienziati, sarebbe il tratto distintivo dell’uomo. Una qualità emergente, forse divina, probabilmente non replicabile, sicuramente nostra. Ma questa convinzione, che continua a sopravvivere anche nei più raffinati salotti accademici, sta diventando il più grande ostacolo cognitivo alla comprensione di cosa stia realmente accadendo sotto i nostri occhi: l’avvento di un’intelligenza artificiale che non è solo capace di simulare l’intelligenza umana, ma sempre più di evolverla.

Il cervello umano, che ci piaccia o no, è una macchina. Una meravigliosa macchina biologica, certo, ma pur sempre un sistema deterministico (con rumore stocastico) che riceve input, processa segnali, produce output, aggiorna stati interni e crea modelli predittivi. Non c’è nulla, in linea teorica, che un sistema computazionale sufficientemente sofisticato non possa riprodurre. A meno che, ovviamente, non si creda ancora all’anima. O nella meccanica quantistica come rifugio della coscienza, ipotesi talmente disperata che persino Roger Penrose oggi si guarda bene dal riproporla con convinzione.

Il trionfo cinese dei brain-computer interface invasivi: come una sonda nei vasi sanguigni cambia la paralisi

Se pensavate che Neuralink fosse la frontiera indiscussa delle interfacce cervello-computer invasive, la realtà cinese vi farà ricredere. Un team della Nankai University ha appena inaugurato una nuova era nella neurotecnologia, realizzando il primo trial umano al mondo di un’interfaccia cerebrale impiantata tramite i vasi sanguigni. Niente più cranio aperto, bisturi e lunghi tempi di recupero: la procedura passa per il collo, con una sonda che si insedia nel sistema vascolare intracranico, regalando a un paziente paralizzato la possibilità di muovere le braccia e tornare alla vita quotidiana. Un colpo duro e diretto all’orgoglio di Musk e del suo Neuralink, ancora alle prese con guasti agli elettrodi e un’adozione umana da bradipo.

Meta vuole anche i tuoi ricordi non pubblicati: l’IA si insinua nei meandri della tua fotocamera

La privacy digitale non è più un concetto: è un ricordo sfocato, sepolto tra i selfie del 2014 e le foto mai condivise di un aperitivo con amici che oggi non sentiremmo neanche su WhatsApp. Se Meta aveva già saccheggiato i contenuti pubblici di Facebook e Instagram per alimentare i suoi modelli di intelligenza artificiale, ora punta direttamente a ciò che non hai mai voluto mostrare a nessuno: la tua galleria fotografica personale.

Chiariamolo subito, almeno per ora: secondo dichiarazioni ufficiali, Meta non sta addestrando i suoi modelli generativi su queste immagini non pubblicate. Però, come in ogni buona distopia, il “non ancora” ha il peso specifico del piombo. Il nuovo “test” del colosso prevede una funzione di “cloud processing” che ti chiede, con il garbo di un cameriere troppo invadente, se vuoi facilitare la tua vita social permettendo a Facebook di pescare regolarmente i tuoi scatti personali dalla memoria del telefono. Ti promette collage, recap, restyling IA e suggestioni tematiche, come se un algoritmo sapesse meglio di te quando è il momento di ricordare il tuo ultimo compleanno o di dare un tocco anime al tuo matrimonio.

Trump accelera sull’intelligenza artificiale, ma a spese della rete elettrica americana

Da un report di Reuters Venerdi.

Donald Trump, campione del deregulationismo applicato al XXI secolo, ha deciso che l’intelligenza artificiale non deve solo evolvere: deve dominare. E come spesso accade nelle epopee americane, non si guarda troppo ai danni collaterali. Secondo quanto riportato da Reuters, il presidente starebbe valutando una serie di ordini esecutivi per sostenere lo sviluppo dell’AI, con un approccio che prevede l’uso estensivo di terra federale per costruire data center e una corsia preferenziale per i progetti energetici. Un piano perfettamente in linea con la retorica trumpiana: sovranità, velocità e niente burocrazia.

L’illusione regolatoria e la paralisi dell’innovazione: perché il Cloud AI Development Act rischia di fare più danni che bene

C’è una strana sindrome, tutta europea, che potremmo definire “burocrazia salvifica”. Una fede incrollabile nella capacità taumaturgica della regolamentazione di sistemare ciò che il mercato, la competizione, la libertà d’impresa e, diciamolo pure, il rischio non sono riusciti a far funzionare. E ogni volta che il mondo corre più veloce delle nostre istituzioni, ecco spuntare un nuovo acronimo, un’altra direttiva, l’ennesimo atto. Oggi tocca al Cloud AI Development Act, la nuova formula magica che dovrebbe trasformare l’Europa in una superpotenza digitale. O quantomeno farci sentire un po’ meno provinciali rispetto a USA e Cina.

A Catanzaro il primo workshop internazionale su Intelligenza Artificiale e Biopsia Liquida nella Medicina Personalizzata

Grazie a Giorgia ZuninoGiorgia Zunino per la segnalazione.

Si è concluso il primo workshop internazionale su Intelligenza Artificiale e Biopsia Liquida nella Medicina Personalizzata, e no, non si è trattato di una conferenza accademica qualsiasi con slide scolorite e coffee break anonimi. È successo in Calabria, all’Università Magna Graecia, dove per una volta il Sud non è stato soltanto un osservatore passivo del cambiamento ma il baricentro di una rivoluzione silenziosa che ha già preso forma. L’evento ha riunito cervelli da Stanford University School of Medicine, ANVUR, CNR e CNEL. Non influencer da LinkedIn, ma professionisti di quelli veri, che lavorano con dati clinici reali e policy che impattano vite umane. Il focus? L’ibridazione tra AI e prevenzione oncologica attraverso la biopsia liquida. Non teoria, ma pratica clinica.

Alan Turing l’aveva già previsto. Rivista.AI lo ha visto succedere

Sylicon Valley Insights

Nel 1950, quando il mondo ancora credeva che l’intelligenza fosse un’esclusiva della carne e del sangue, Alan Turing scriveva una frase che avrebbe incendiato ogni dibattito futuro sull’intelligenza artificiale: “Can machines think?”. Non era un capriccio accademico. Era una detonazione logica, il preludio di una nuova grammatica epistemologica. Non più “cosa possono fare le macchine”, ma “quando inizieremo a crederci davvero”. Fu in quel momento che nacque il dialogo con l’intelligenza sintetica, ben prima che qualcuno sognasse la parola “chatbot”.

Turing non aveva bisogno di metafore poetiche alla Steve Jobs. Non parlava di Aristotele o di libri muti. Parlava di illusioni cognitive e test di realtà. Se non riesci a distinguere un’intelligenza artificiale da un essere umano, allora, caro lettore, sei tu che stai pensando male. Il pensiero, per lui, non era un’esclusiva biologica, ma un processo imitabile. Un’ipotesi tecnica. Un trucco evolutivo.

Quando OpenAI e Microsoft si guardano in cagnesco

Sylicon Valley Insights

All’inizio sembrava una favola hi-tech. La startup più brillante del mondo dell’intelligenza artificiale e l’azienda più potente del cloud computing si tenevano per mano, correvano insieme verso il tramonto AGI, e promettevano al mondo un futuro dove ogni cosa, dalla posta elettronica alla coscienza, sarebbe stata potenziata da un modello linguistico. Poi, come in ogni matrimonio combinato da advisor e vestito di milioni, è arrivato il risveglio. E a giudicare dal tono delle ultime trattative tra OpenAI e Microsoft, qualcuno si è svegliato con l’acido solforico in gola.

L’etica dell’AI è un lusso per chi può permettersela

Etica dell’intelligenza artificiale: due visioni a confronto

Antonio Dina affronta l’etica dell’IA con un taglio strategico, sistemico e profondamente legato alla governance del potere algoritmico. Per lui, l’Ai deve essere vincolata da principi di trasparenza attiva, accountability tracciabile e coerenza con gli obiettivi sociali, economici e culturali di lungo periodo. L’etica, in questa visione, non è un freno ma un framework competitivo.

Fabrizio Degni adotta un approccio più ingegneristico e tecnico, focalizzato sulla robustezza dei modelli, l’equità computazionale e la mitigazione dei bias, ma senza rinunciare a una riflessione filosofica sulla responsabilità condivisa tra sviluppatori e fruitori. La sua etica è più pragmatica: un set di buone pratiche ex ante, per evitare derive sistemiche ex post.

Due scuole di pensiero: una orientata alla regia del cambiamento, l’altra alla prevenzione dell’errore.

Benvenuti nel mondo dove i manifesti dell’etica sull’intelligenza artificiale si stampano a Bangkok, ma le decisioni che contano si prendono a Washington, Pechino e nei boardroom privati di San Francisco. L’UNESCO ha riunito più di mille persone al suo Global Forum sull’Etica dell’AI, compresi 35 ministri di governi prevalentemente del sud globale, nel disperato tentativo di rendere vincolanti delle linee guida etiche che, per ora, restano più dichiarazioni d’intenti che strumenti concreti. Mancavano però i protagonisti principali del teatro AI: OpenAI, Google, Microsoft, DeepSeek. È come organizzare un summit per la pace e scoprire che le due superpotenze in “guerra” hanno declinato l’invito.

Il mercato del talento AI è un teatro di guerra, e Altman ha appena lanciato una molotov

Sam Altman parla di “100 milioni di dollari” come se stesse ordinando un caffè lungo. Poi dice che Meta li sta offrendo come bonus di assunzione per rubargli i talenti, e il CTO di Meta, Andrew Bosworth, risponde con un sorriso da pokerista che ha appena visto l’avversario bluffare male. “Sam esagera, e lo sa”, dice. Ma non nega che OpenAI stia perdendo pezzi grossi a favore della squadra superintelligence di Menlo Park. Benvenuti nell’era del capitalismo neuronale, dove il valore di un cervello si misura in stock option, NDA e un certo grado di paranoia.

Sam Altman contro il New York times sulla privacy: il conflitto che nessuno si aspettava

Sam Altman ha scelto di aprire il podcast Hard Fork con un colpo di scena che sembra più un duello a mani nude che un’intervista. Prima ancora di scaldare la voce, il CEO di OpenAI ha dirottato il microfono con una stoccata feroce al New York Times, accusandolo di aver avviato una causa legale contro l’azienda per questioni legate alla privacy degli utenti di ChatGPT. Una scena insolita, quasi da backstage di un reality show tecnologico, che ci offre una visione rara e non edulcorata delle tensioni interne e dei giochi di potere tra giganti del digitale.

Quando i fondatori di Oculus diventano il nuovo volto dell’AI indossabile

C’è qualcosa di magneticamente ironico nel vedere i pionieri della realtà virtuale – quelli che ci avevano promesso mondi paralleli dentro a visori da alieno – virare con decisione verso qualcosa di molto più tangibile: un assistente vocale che finalmente non fa venir voglia di lanciare lo smartphone dalla finestra. Brendan Iribe e Nate Mitchell, ex cervelli di Oculus, si ritrovano fianco a fianco in Sesame, una startup che punta tutto sugli occhiali AI e su un embedded OS next-gen, come se il futuro fosse improvvisamente tornato a passare dagli occhi, non dalla mente.

OpenAI sfida Google workspace e microsoft office con una suite di produttività silenziosa ma letale

OpenAI sta preparando una suite di produttività destinata a sfidare Google Workspace e Microsoft Office, mirando a trasformare ChatGPT da semplice assistente conversazionale a piattaforma centrale per la collaborazione aziendale. Questa mossa potrebbe ridefinire il panorama delle applicazioni professionali, mettendo in discussione il predominio delle due storiche software house.

Secondo quanto riportato da The Information, OpenAI ha sviluppato funzionalità di collaborazione documentale e chat integrate in ChatGPT, consentendo agli utenti di lavorare insieme su documenti e comunicare in tempo reale all’interno della stessa piattaforma. Queste caratteristiche sono progettate per competere direttamente con i servizi di documenti online di Google Docs e Microsoft Word per il web. Sebbene non siano ancora state annunciate ufficialmente, queste funzionalità rappresentano un’espansione significativa oltre le capacità attuali di ChatGPT.

Runway si prepara a conquistare il gaming con l’AI, e Hollywood dovrebbe preoccuparsi

La Silicon Valley ha un nuovo giocattolo preferito: i videogiochi generati dall’intelligenza artificiale. Runway, la startup da 3 miliardi di dollari che ha già fatto tremare gli studios di Hollywood, ora punta dritta al cuore pulsante dell’industria videoludica. Ma non aspettatevi ancora mondi 3D fotorealistici o trame degne di The Last of Us. Per ora, l’esperienza è ridotta a una semplice interfaccia testuale con qualche immagine generata al volo. Sembra poco, ma è esattamente come è iniziata l’invasione AI nei set cinematografici: silenziosa, sottovalutata, e poi devastante.

Il cloud brucia e Google ha portato i fiammiferi

L’ultimo report di sostenibilità di Google somiglia più a una giustificazione mal scritta che a un piano climatico. Le emissioni sono salite dell’11% in un solo anno, raggiungendo 11,5 milioni di tonnellate metriche di CO₂, con un aumento del 51% rispetto al 2019. Lontanissima la promessa di dimezzarle entro il 2030. Ma non preoccupatevi: si tratta solo di emissioni basate sull’ambizione. Quelle reali sono nascoste in fondo al documento, in un’appendice che nessuno dovrebbe leggere, e arrivano a oltre 15 milioni di tonnellate. L’equivalente di 40 centrali elettriche a gas che lavorano a pieno regime per un anno intero.

Banca Etica e Handy Signs: quando l’intelligenza artificiale incontra la lingua dei segni per abbattere le barriere finanziarie

Nel 2025, parlare di inclusione non è più un esercizio retorico ma una sfida concreta che passa anche attraverso le tecnologie più avanzate. La partnership tra Banca Etica e Handy Signs lo dimostra con chiarezza: una startup italiana ha sviluppato il primo interprete AI della Lingua dei Segni Italiana (LIS) e lo ha integrato in una filiale bancaria a Roma, in via Parigi 17. A prima vista, potrebbe sembrare una semplice operazione di marketing sociale, ma dietro c’è molto di più, un tentativo strategico e coraggioso di digitalizzare l’inclusione, rendendo finalmente accessibili servizi finanziari a una comunità spesso dimenticata.

Pagina 29 di 118

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie