Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: News Pagina 1 di 85

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Come Gartner ha smascherato la bolla degli agenti ai e perché il 40% dei progetti è destinato a fallire entro il 2027

Gartner ha appena tirato giù la maschera sul mito degli agenti AI, e la realtà è molto meno entusiasmante di quanto il marketing tech ci voglia far credere. Un fulmine a ciel sereno: oltre il 40% dei progetti di intelligenza artificiale agentica sarà cancellato entro il 2027. Non è una previsione da lunedì mattina, ma un avvertimento che scuote le fondamenta di chi ha investito a occhi chiusi nel “prossimo grande salto” dell’automazione intelligente.

Se pensavate che “agenti AI” significasse robot autonomi che risolvono problemi complessi mentre voi sorseggiate il vostro caffè, beh, è meglio rivedere le aspettative. Gartner parla chiaro: non c’è un ROI chiaro, i costi esplodono e la tecnologia “cool” non regge sotto pressione. Il risultato? Un boom di hype, battezzato con il termine icastico di “agent washing” — roba da rinnovare chat bot o RPA con una semplice etichetta nuova, senza un briciolo di vera intelligenza autonoma.

Quando la diagnosi diventa un algoritmo: microsoft alza il sipario sulla medicina del futuro

Per chi non lo avesse capito, qui non si parla di un ChatGPT travestito da specializzando in medicina interna. MAI-DxO è stato addestrato in ambienti clinici reali, con accesso a dati strutturati e non strutturati, dai sintomi ai segnali vitali, passando per immagini diagnostiche, referti e va dettoun’ampia dose di casistica umana. Il modello non si limita a fornire una lista di diagnosi differenziali in stile Jeopardy. Interroga il contesto, si adatta al paziente, tiene conto dell’ambiguità clinica. In altre parole: non pensa come un medico, ma meglio.

Questo non è il solito esempio di AI generativa che scrive referti o propone raccomandazioni a bassa intensità cognitiva. Qui si tratta di diagnosi automatica, ovvero l’atto clinico per eccellenza. Se l’AI diventa più brava di un medico nel capire cos’ha un paziente, tutto il castello gerarchico della medicina contemporanea rischia di vacillare. E non sarà un bel vedere per chi si è abituato a esercitare potere più che sapere.

Quando l’intelligenza artificiale si mette a interpretare i sogni: riflessioni ciniche su un giocattolo poetico

A me pare una strun… ma una strun raffinata, degna di un designer olandese con troppe ore di sonno e un’estetica ben calibrata tra brutalismo scandinavo e nostalgia da Commodore 64. Eppure eccoci qui, a parlare del Dream Recorder, un aggeggio minuscolo quanto basti per passare da Jung a TikTok in tre passaggi: dormi, ti svegli, premi un bottone e racconti i tuoi deliri notturni a una IA che ti restituisce un videoclip da incubo, nel senso più letterale del termine.

Nulla di tutto ciò dovrebbe sorprendere, in un mondo in cui l’intelligenza artificiale ha già imparato a imitare il nostro modo di parlare, scrivere, dipingere, perfino di flirtare malamente su Tinder. Ora prova a emulare il nostro inconscio. Con risultati a metà tra un sogno lisergico anni ‘70 e una GIF compressa male. Castelli sfocati, tetti fluttuanti, fiori di luce: roba che Magritte si sarebbe fatto bastare per una carriera, ora disponibile al prezzo popolare di 285 euro e qualche spicciolo per l’elaborazione cloud. Il primo sogno industrializzato che ti costruisci con le mani, come un Lego mentale con l’ansia incorporata.

Quando l’America prova a salvare l’IA dai suoi stessi stati e fallisce miseramente

La scena potrebbe sembrare uscita da un dramma teatrale scritto da Kafka e diretto da Aaron Sorkin con un bicchiere di bourbon in mano: il Senato degli Stati Uniti, in un rarissimo momento di consenso bipartisan, ha votato 99 a 1 per eliminare una moratoria che avrebbe impedito agli stati di regolamentare l’intelligenza artificiale. Ma non lasciamoci ingannare dal numero schiacciante. Questo voto non rappresenta unità. È il prodotto di un collasso nervoso collettivo, l’incapacità strutturale del Congresso di capire chi comanda davvero quando si parla di AI: i legislatori, le lobby o gli algoritmi.

Il tentativo repubblicano di blindare la crescita dell’IA dentro un recinto federale centralizzato, impedendo agli stati di fare da sé, si è infranto contro un fronte variegato e vagamente schizofrenico: dai libertari digitali alla frangia populista MAGA, fino ai democratici impegnati a difendere le micro-sovranità statali. Un mix letale per qualsiasi progetto normativo. Eppure la proposta di moratoria non era nata per caso. Nascondeva un intento molto chiaro, quasi scolpito nei tweet di Elon Musk e nei white paper delle Big Tech: evitare che un mosaico impazzito di leggi statali, ognuna con la sua definizione di “AI”, potesse inceppare l’orgia di innovazione e investimenti che Silicon Valley pretende a colpi di deregulation.

AI contro le etichette musicali: come l’industria più odiata d’america è diventata la paladina del diritto d’autore

Chi avrebbe mai pensato che un giorno ci saremmo trovati a fare il tifo per le etichette discografiche? Quelle stesse entità che per decenni hanno succhiato linfa vitale da artisti giovani e ingenui con contratti da usuraio, quelle che hanno trasformato la musica in un prodotto finanziario prima ancora che artistico. Eppure, in un colpo di teatro degno di un concept album psichedelico, eccoci qui: con le major come gli ultimi baluardi contro lo tsunami dell’intelligenza artificiale generativa che minaccia di trasformare tutta la produzione creativa in una discarica algoritmica. Complimenti Silicon Valley, hai fatto sembrare Warner Music un alleato. Non era facile.

Quando l’intelligenza artificiale ti sussurra all’orecchio: il fascino disturbante dell’ASMR sintetico

Grazie

Avete mai sentito il rumore che fa una fragola di cristallo liquido mentre si frantuma in slow motion contro un coltello, accompagnato dal suono granulare di una piuma che sfiora un microfono cardioide? No? Perfetto. Significa che siete ancora vivi nel vecchio mondo, quello dove la realtà sensoriale era definita da leggi fisiche e non da prompt generati con Modjourney Higgsfield Kling e una sound library di ASMR calibrati per manipolare la vostra corteccia prefrontale. Benvenuti nel futuro parallelo dell’ASMR generato da intelligenza artificiale. Vi sembrerà un gioco. Non lo è.

È un esperimento neuroestetico travestito da contenuto virale. È lo Xanax 3.0 incapsulato in loop video di 15 secondi che si piazzano tra un reel di fitness e un tutorial di trucco, e nel frattempo vi riscrivono le sinapsi. Non stiamo parlando delle classiche clip in cui una ragazza con un accento scandinavo sussurra nell’orecchio del microfono mentre taglia saponi color pastello. Quello era il vecchio ASMR, primitivo e umano. Oggi ci troviamo davanti a una nuova generazione: algoritmica, disturbante, elegantemente ipnotica. Video AI impossibili, progettati per bloccare il vostro scroll con una precisione chirurgica.

Cloudflare lancia l’arma anti-ai: fine corsa per il saccheggio gratuito dei contenuti

C’è una nuova cortina di ferro che si sta alzando sul web. Non divide Est e Ovest, ma editori e intelligenze artificiali affamate di dati. E non è un’ideologia a spingerla, ma il business, quello vero. Cloudflare, l’architettura nervosa dietro milioni di siti web, ha deciso di schierarsi senza più ambiguità: d’ora in poi, i crawler delle AI verranno bloccati by default. Non chiederanno più permesso, non si fingeranno amichevoli attraverso un file robots.txt che nessuno ha mai davvero rispettato. Saranno identificati, arginati e, se vogliono nutrirsi di contenuti altrui, dovranno pagare. Letteralmente.

Trump e le 2 settimane

Perfetto, partiamo da quel concetto di “due settimane”. Un’unità di misura temporale elastica, fluida, ideologica, che nell’universo narrativo di Donald Trump funziona come il concetto di “domani” nei romanzi distopici: una promessa che serve a guadagnare tempo, spostare l’attenzione, evitare dettagli concreti. Ogni volta che Trump ha detto “tra due settimane” si è aperta una finestra quantistica dove tutto è possibile, niente è verificabile e nessuno è responsabile. Il tempo, in questo caso, è uno strumento di potere, non un fatto misurabile.

Meta Superintelligence Labs e la scienza del caos artificiale

C’era una volta un nerd, cresciuto a pane, Harvard e codice C++, che decise di costruire un impero. Poi però arrivò l’intelligenza artificiale, e tutto andò storto. O quasi. Ora quello stesso nerd, noto ai più come Mark Zuckerberg, ha deciso che Meta deve smettere di giocare a rincorrere gli altri e iniziare a sparare fuoco AI come un Terminator in preda a un burnout da hype tecnologico. Il risultato? Meta Superintelligence Labs. Ovvero: un nome che promette superpoteri, ma che per ora sembra solo il trailer di un’epopea distopica.

In effetti, quando si afferma senza battere ciglio che una manciata di superstar della Silicon Valley riuscirà a trasformare una balena arenata come Meta in un velociraptor digitale, sarebbe utile ricordare che i velociraptor sono estinti. La verità, non detta ma scritta tra le righe, è che Zuckerberg sta cercando disperatamente di rifondare il suo impero con la magia nera dei large language models, dopo aver bruciato miliardi nel metaverso e lanciato Llama 4 come se fosse un missile… che ha fallito il decollo.

Oracle e il teatro della disclosure: come trasformare un annuncio in un colpo di scena da 30 miliardi

Nel teatrino sempre più surreale della comunicazione finanziaria, Oracle ha appena alzato il sipario su uno dei suoi momenti più strani, più affascinanti e, a modo suo, più geniali. Mentre i competitor si arrampicano sugli specchi per strappare qualche menzione in un blog di settore, Larry Ellison & co. decidono che un colossale accordo cloud da oltre 30 miliardi di dollari l’anno non meriti un comunicato stampa, né una fanfara condita da parole chiave ridondanti come “AI-native” o “cloud-first architecture”.

No, loro lo infilano di soppiatto in un documento per la SEC, intitolato con sobria precisione “Regulation FD Disclosure”, senza nemmeno la voglia di inventarsi un nome altisonante e per chi si chiedesse cosa significhi tutto ciò: vuol dire che Oracle ha deciso di fare la rockstar in giacca e cravatta, suonando heavy metal in una riunione del consiglio d’amministrazione.

Google ha fatto saltare il recinto: Gemma 3n è il cavallo di troia dell’intelligenza artificiale veramente open

I laboratori blindati che vivono tra NDA, paywall e modelli oscuri stanno tremando. Perché questa volta non è la solita demo da conferenza con tanto di latency simulata e animazioni generative che sembrano disegnate da uno stagista con accesso a Midjourney. Google ha finalmente fatto quello che in tanti promettono ma quasi nessuno realizza: un modello open-weight, davvero multimodale, realmente funzionante offline, capace di girare su dispositivi con 2 GB di RAM senza piangere in C. Si chiama Gemma 3n e non è un gioco di parole. È un attacco frontale, chirurgico, al cuore del dominio centralizzato delle AI commerciali.

Sam Altman ha appena fatto saltare la religione del software, ora vuole costruire la macchina che ci ascolta sempre

Sam Altman non crede più nel software. E se a dirlo fosse stato un qualsiasi sviluppatore stanco di ottimizzare il backend per il millesimo ciclo di training, la notizia non avrebbe fatto rumore. Ma qui stiamo parlando del profeta dell’intelligenza artificiale generativa, il CEO di OpenAI, l’uomo che con ChatGPT ha innescato la corsa globale al cervello sintetico. L’apostolo del prompt engineering che ora si scopre… ingegnere hardware. È come se Tim Berners-Lee si mettesse a vendere modem USB nei mercatini dell’usato. O forse qualcosa di ancora più teatrale. Perché Altman non sta semplicemente dicendo che serve nuovo hardware. Sta dicendo che l’intero paradigma computazionale su cui si regge l’era moderna è sbagliato. Troppo lento. Troppo inefficiente. Inadeguato a contenere l’intelligenza artificiale che lui stesso ha evocato.

La nuova era degli Agenti AI: strumenti indispensabili per dominare luglio 2025

Il mercato degli agenti AI ha appena raggiunto un nuovo picco di sofisticazione, un’arena dove la tecnologia non si limita più a supportare, ma plasma attivamente ogni aspetto della nostra vita digitale. Se luglio 2025 fosse una playlist, sarebbe un mix di infrastrutture robuste, magie video, automazioni pratiche e assistenti creativi che sembrano usciti da un film di fantascienza.

Partiamo dalle fondamenta: l’infrastruttura AI. Bright Data, Lambda Labs e CoreWeave non sono solo nomi da nerd, ma i pilastri invisibili che sostengono la complessità del calcolo distribuito. Bright Data, con la sua rete globale di proxy intelligenti, consente di raccogliere dati in tempo reale come un detective digitale, mentre Lambda Labs offre potenza computazionale su misura per modelli di intelligenza artificiale, quasi un cloud che pensa. CoreWeave, invece, fa il lavoro sporco di accelerazione GPU, una vera e propria Ferrari per il training di reti neurali massive. Senza questa triade, nessuna delle meraviglie successive sarebbe possibile.

La scommessa da mille miliardi che l’intelligenza artificiale sta ancora perdendo

C’era una volta un sogno da mille miliardi di dollari. Una favola high-tech, recitata in loop tra i neon di Menlo Park e le terrazze panoramiche di Manhattan, alimentata da venture capitalist che giocano a fare i profeti e da executive che confondono il pitch con la realtà. Il nome del miracolo era intelligenza artificiale generativa. E se per un attimo vi è sembrato di vivere la nuova età dell’oro dell’innovazione, era solo perché il marketing ha superato la fisica.

Era il 2023 quando i modelli linguistici diventavano la nouvelle vague della Silicon Valley. Le slide di Satya Nadella facevano impallidire quelle di Jobs, e Sam Altman veniva paragonato a Galileo, ignorando che almeno Galileo aveva torto su meno cose.

Reddit, AI e l’illusione della comunità: cosa resta di umano dopo 20 anni di Internet?

Reddit compie vent’anni e, come ogni adulto con qualche cicatrice, ha capito che la gloria non basta: serve monetizzarla. Quel grande archivio anarchico di pensieri brutali, consigli troppo sinceri, shitposting geniale e confessioni da insonnia sta per essere impacchettato, etichettato e messo in vendita all’asta dell’intelligenza artificiale. Perché no? Se perfino i diari segreti sono diventati contenuto estraibile, Reddit è semplicemente il prossimo petrolio sociale da trivellare.

Baidu rilascia Ernie 4.5 e si inchina all’open source: fine della guerra fredda dell’AI cinese o solo l’inizio?

Il tempo delle dichiarazioni di superiorità assoluta, delle IA blindate e delle presentazioni pirotecniche è finito. Baidu, il gigante di Pechino che fino a ieri si atteggiava a custode geloso del proprio tesoro algoritmico, ha compiuto una virata spettacolare quanto inevitabile: ha rilasciato in open source dieci varianti del suo modello Ernie 4.5 su Hugging Face, con taglie che vanno da una snella 0.3 miliardi di parametri fino al mastodonte da 424 miliardi. È come se Microsoft si mettesse a regalare copie di Windows, con tanto di codice sorgente e manuale d’uso allegato.

Eppure, meno di un anno fa, Robin Li, CEO di Baidu, dichiarava pubblicamente che “gli LLM open source non potranno mai eguagliare la potenza dei nostri modelli proprietari”. Chissà se oggi rilegge quelle frasi con un sorriso ironico o con l’amaro in bocca. Ma una cosa è certa: nel panorama AI cinese si è rotto un argine, e la diga dell’open source ora travolge anche chi voleva dominare la partita a porte chiuse.

Trends in AI Supercomputers è il compute, non i dati, il vero petrolio dell’economia dell’AI

Per anni ci siamo raccontati che i dati fossero il nuovo petrolio. Una narrazione comoda, elegante, quasi poetica, che dava un senso alle guerre silenziose combattute a colpi di privacy policy e scraping selvaggi. Ma mentre l’industria dell’intelligenza artificiale entra in una fase muscolare, fatta di centri dati da miliardi e chip che costano quanto miniere d’oro, una nuova verità emerge, brutale e ineludibile: è il compute, non i dati, a decidere chi guida e chi insegue.

Il report di Konstantin Pilz, James M. S., Robi Rahman e Lennart Heim, che analizza oltre 500 supercomputer AI tra il 2019 e il 2025, è una specie di radiografia del cuore pulsante dell’economia cognitiva. Altro che narrativa da laboratorio accademico. Qui si parla di infrastrutture pesanti, di consumi energetici che rivaleggiano con piccole nazioni, e di una concentrazione di potere computazionale che fa impallidire anche i più accaniti critici del capitalismo digitale.

Il trend più impressionante? Le performance di calcolo stanno raddoppiando ogni 9 mesi. Avete letto bene: siamo in un’era in cui la velocità con cui raddoppiano le capacità computazionali supera persino la mitica Legge di Moore. E ogni raddoppio non è un semplice upgrade. È un salto quantico che permette ad alcune entità poche, selezionatissime di costruire modelli sempre più grandi, sempre più potenti, sempre più inaccessibili.

Google Classroom diventa un laboratorio di intelligenza artificiale: l’era del professore cyborg è appena iniziata

Benvenuti nel futuro dell’istruzione, dove le lavagne si trasformano in chatbot, le verifiche si scrivono da sole e l’insegnante è assistito da un’intelligenza artificiale che sa tutto, ma con un’interfaccia amichevole e un sorriso sintetico. Google ha appena lanciato una serie di aggiornamenti per la sua piattaforma Classroom, e il messaggio è chiaro: l’educazione tradizionale è morta, viva l’educazione algoritmica. Al centro dell’evoluzione ci sono le nuove funzionalità di Gemini AI, che non si limitano più a un pubblico adulto, ma aprono ufficialmente le porte ai minori, sdoganando l’idea che anche lo studente delle medie possa avere un assistente cognitivo personale. Chi ha detto che l’AI non è una questione per bambini?

Sophgo Chip cinesi e modelli nazionali, il nuovo culto della resilienza artificiale

Non chiamatela solo “sostituzione tecnologica”, perché la Cina non sta semplicemente cercando alternative ai chip americani. Sta costruendo un nuovo culto della resilienza artificiale, e lo sta facendo con una determinazione che gronda di strategia industriale, orgoglio sovranista e calcolo geopolitico. La notizia che Sophgo, produttore cinese di semiconduttori, abbia adattato con successo la sua compute card FP300 per far girare il modello di ragionamento DeepSeek R1, non è un semplice annuncio tecnico. È un atto di guerra, anche se siliconica. È l’ennesimo tassello del grande mosaico che Pechino sta costruendo per liberarsi dal giogo delle GPU Nvidia e dall’ecosistema software che, fino a ieri, sembrava imprescindibile per chiunque volesse fare intelligenza artificiale ad alto livello.

Quando Nvidia non compra solo startup ma il futuro dell’ottimizzazione dell’AI

Non è più solo una questione di silicio o di tensor core. È guerra di algoritmi, di efficienze marginali e di controllo capillare del runtime delle intelligenze artificiali. Nvidia, nel silenzio assordante delle operazioni senza clamore, ha messo a segno l’ennesimo colpo di precisione chirurgica: l’acquisizione di CentML, una startup canadese che sa rendere l’AI meno assetata di energia, più veloce e persino più economica. Tradotto per gli umani: Nvidia ha comprato una leva per moltiplicare il valore del proprio monopolio, abbassandone il costo apparente.

L’ottimizzazione dell’AI è diventata il nuovo petrolio del deep learning. Non basta più avere i chip più potenti, bisogna anche saperli sfruttare fino all’ultimo ciclo di clock, compressare i modelli, minimizzare la latenza, prevedere il carico di lavoro, riordinare il codice intermedio. In pratica, bisogna fare quello che facevano i bravi ingegneri nei primi anni ‘80, solo che ora si chiama “compiler-level model optimization” e si vende come deeptech con valutazioni da Serie A. CentML, fondata nel 2022, ha raccolto più di 30 milioni di dollari da nomi che ormai suonano come un mantra per l’élite dell’AI: Radical Ventures, e sì, anche Nvidia stessa. Perché oggi le grandi aziende tech investono nei loro futuri acquisti come si fa con i fondi pensione: alimentano ciò che un giorno diventerà strategicamente inevitabile da inglobare.

Quando una Tesla si guida da sola per consegnarsi, il conducente diventa un optional ideologico

Se un’auto parte da una fabbrica senza che nessuno la guidi, attraversa parcheggi, svincoli e quartieri suburbani e arriva a casa del suo nuovo proprietario… chi è il conducente? Chi ha preso le decisioni? Chi ha firmato l’assicurazione? E soprattutto: cosa resta di noi, esseri umani, in un mondo dove anche le macchine sanno dove andare senza di noi?

L’ultimo show tecnologico di Elon Musk non è solo un video ben montato su X, la sua piattaforma social sempre più distopica. È una dichiarazione bellica. Un siluro contro le logiche arcaiche che ancora incatenano l’industria automobilistica al mito dell’uomo al volante. Una Tesla si è auto-consegnata, guidandosi da sola dalla Gigafactory in Texas fino al vialetto del suo nuovo proprietario. Niente pilota. Nessuna supervisione umana visibile. Solo asfalto, codice e arroganza ingegneristica.

Il suicidio energetico dell’america spiegato da un miliardario con l’X nel nome

Elon Musk ha riaperto il fuoco contro il nuovo disegno di legge sostenuto da Donald Trump, etichettandolo come “folle e distruttivo”, accusandolo di voler “distruggere milioni di posti di lavoro in America e causare un danno strategico immenso al Paese”. Il bersaglio delle critiche non è (più) Trump in persona, ma il contenuto del cosiddetto Big Beautiful Bill, versione aggiornata presentata al Senato, che penalizza con decisione il settore delle energie rinnovabili.

Quando Mark Chen si sente derubato: la guerra dei talenti ai tra openai e meta è appena iniziata

“Ho una sensazione viscerale, come se qualcuno fosse entrato in casa nostra e avesse rubato qualcosa.” No, non è la scena madre di un film di mafia. È una frase vera. E l’ha scritta Mark Chen, Chief Research Officer di OpenAI, in un memo infuocato allo staff. Non si parlava di algoritmi rubati, né di breach informatici. Parliamo di qualcosa di più importante, oggi: cervelli.

Nel giro di una settimana, Meta ha assunto otto ricercatori di punta di OpenAI. Non stagisti. Non junior. Ricercatori veri, alcuni dei quali coinvolti nei progetti fondamentali su RLHF, alignment, ottimizzazione dei transformer e interpretabilità. Gente che, per intenderci, non si licenzia perché vuole “fare un’esperienza nuova”. Gente che, in un altro scenario, andrebbe protetta come si fa con il segreto industriale o il codice sorgente di un motore di ricerca. Ma questa è la nuova economia dell’intelligenza artificiale: le GPU possono essere distribuite, i modelli anche, ma i talenti no. I talenti, quelli veri, restano scarsi, vulnerabili, e per questo oggetto di caccia spietata.

La rivoluzione silenziosa che sta riscrivendo la medicina italiana senza aspettare il permesso di nessuno

A Palazzo Lombardia, nel consueto salotto istituzionale dove il potere si veste da moderazione e i microfoni amplificano solo ciò che è già stato autorizzato, è andata in scena una delle rare occasioni in cui l’intelligenza artificiale è stata nominata senza scivolare nella fiera delle ovvietà. Il 23 giugno scorso, durante l’evento Salute Direzione Nord promosso da Fondazione Stelline, davanti a nomi che definire altisonanti è ormai protocollo – la vicepresidente del Senato Licia Ronzulli, il presidente di Regione Attilio Fontana, il ministro della Salute Orazio Schillaci – il vero protagonista non aveva cravatta ma codice: l’AI nella sanità.

Diciamolo subito. Quando un’infrastruttura come Seeweb prende il microfono e parla di medicina, qualcuno alza il sopracciglio. Quando però il CEO Antonio Baldassarra comincia a parlare di diagnostica per immagini e tumore ovarico non con la solita cautela da convegno, ma come chi sa perfettamente cosa si può fare oggi, allora il sospetto si trasforma in attenzione. Perché è chiaro che non siamo più nel territorio delle ipotesi ma della realtà, quella concreta, fatta di pixel che salvano vite.

Il copyright è morto. Viva il copyright. Ma solo se lo usi bene

È un’illusione collettiva, quasi affascinante. Due vittorie legali, un sospiro di sollievo a Menlo Park e San Francisco, e un’industria che si aggrappa a parole come “fair use” con la stessa disperazione con cui i vecchi giornali cercavano click nel 2010. Ma attenzione: i giudici hanno suonato due campanelli d’allarme e sotto la superficie di queste sentenze si agita qualcosa di molto più caustico. Altro che via libera. La giungla giuridica dell’intelligenza artificiale sta diventando un labirinto di specchi, dove ogni riflesso sembra un passaggio e invece è una trappola.

Cominciamo dalla cronaca: Anthropic ha ottenuto una sentenza favorevole da parte del giudice William Alsup, che ha definito “esageratamente trasformativo” l’uso dei libri nel training di Claude, il loro LLM. Meta, dal canto suo, ha visto respinta una causa analoga grazie al giudice Vince Chhabria, che ha dichiarato che i querelanti non sono riusciti a costruire un caso decente. Una doppietta, sulla carta. Ma come ogni CTO sa, i log non mentono: e nei log di queste due sentenze ci sono più righe di codice rosso che verde.

Quando Hollywood sogna algoritmi: l’illusione dell’intelligenza artificiale come rivoluzione estetica

C’è qualcosa di profondamente inquietante nell’accendere uno schermo e ritrovarsi bombardati da video “deepfake” di disastri naturali inesistenti, animali che suonano il pianoforte con la precisione di un concertista russo, o paesaggi surreali che sembrano il peggior incubo di uno studente di Blender al primo anno. Tutto generato da intelligenza artificiale. Tutto incredibilmente brutto. Eppure, lì sotto, a fare da coro di sirene digitali, trovi centinaia, spesso migliaia di commenti che proclamano: questa è la nuova arte. Il nuovo Rinascimento, ma con più GPU e meno Leonardo.

Eccoci di nuovo: la Silicon Valley, in piena esaltazione messianica, ci dice che l’intelligenza artificiale generativa cambierà tutto. Hollywood morirà, sostituita da prompt testuali e diffusione latente. I film verranno “scritti” in una riga, girati da modelli e renderizzati in 4K mentre ci prepariamo il caffè. Sembra una trama scritta da un algoritmo. In effetti, lo è. La realtà però, come sempre, è meno glamour: la maggior parte di questi video sembrano il risultato di un’interferenza su un vecchio televisore analogico, con l’estetica confusa di una copia corrotta di The Sims e il ritmo narrativo di un video TikTok da tre secondi.

Se il pensiero diventa l’interfaccia, chi progetterà l’invisibile? Neuralink

Alex gioca a morra cinese con il pensiero. Non è un’iperbole, non è una campagna marketing da serie Netflix. È la seconda persona al mondo con un chip Neuralink nel cervello e, stando a quanto mostrato pubblicamente, riesce a muovere una mano robotica virtuale scegliendo mentalmente tra “sasso, carta, forbice” in tempo reale. Niente controller, niente voce, niente interfaccia visiva. Solo intenzione.

Lentamente, in modo grottesco e inevitabile, stiamo disimparando a usare le mani. Prima la tastiera, poi lo schermo touch, poi la voce, ora il pensiero. In questa progressione degenerativa dell’interazione uomo-macchina, qualcosa di profondo si agita: l’idea che l’interfaccia stessa sia un ostacolo da rimuovere. Non più strumento, ma barriera.

L’intelligenza artificiale finirà in tribunale. E questa volta non ci sarà un algoritmo a salvarla

Quando una rivoluzione tecnologica comincia a dipendere da ciò che pensa un giudice di Manhattan, significa che qualcosa è andato storto. Oppure, molto semplicemente, che stiamo entrando nella seconda fase dell’AI economy: quella in cui la creatività smette di essere un combustibile gratuito e diventa oggetto di una causa civile. O, per dirla con le parole del Wall Street Journal, “The legal fight over AI is just getting started — and it will shape the entire industry”. Sottotitolo implicito: le big tech sono già nel mirino, e l’odore di sangue ha attirato avvocati da Los Angeles a Bruxelles.

Alibaba e l’intelligenza artificiale che guarda nello stomaco: perché Grape è molto più di un modello AI

No, non è l’ennesima trovata di marketing agrodolce di una Big Tech in cerca di visibilità sanitaria. E no, non è nemmeno l’ennesimo paper accademico con risultati straordinari ma inapplicabili. Il modello “Grape”, sviluppato da Alibaba insieme allo Zhejiang Cancer Hospital, rappresenta qualcosa di molto più profondo: un colpo strategico che potrebbe ribaltare le regole della diagnosi oncologica, non solo in Cina ma nel mondo intero. A patto che sappiamo leggerne le implicazioni.

L’acronimo è abbastanza chiaro, quasi ingenuo: Gastric Cancer Risk Assessment Procedure. Ma dietro questa semplificazione si nasconde un deep learning model capace di analizzare scansioni TC tridimensionali e identificare i segni del cancro gastrico anche negli stadi precoci. E quando diciamo “capace”, intendiamo con sensibilità dell’85,1% e specificità del 96,8%. Numeri che ridicolizzano la performance media dei radiologi umani, soprattutto se si considera che il margine di miglioramento in diagnosi precoce supera il 20%. Un salto quantico. Un upgrade di civiltà, se vogliamo forzare il concetto.

Come scegliere davvero il modello giusto di intelligenza artificiale senza finire vittima del marketing

OpenAI ha un problema. Ed è lo stesso problema che ha ogni gigante tecnologico quando diventa troppo bravo a costruire strumenti intelligenti: la confusione. Non quella di sistema, ma quella degli utenti. In un mondo in cui ogni nuovo modello viene lanciato con nomi sempre più astratti o4-mini-high, o3, o1 Pro, GPT-4o l’illusione è che basti accendere la macchina e “funzioni”. No. Sbagliare modello oggi significa perdere soldi, tempo e credibilità. E anche un po’ di rispetto di sé.

Microsoft e l’illusione del silicio: il ritardo del chip AI Maia e la sfida a Nvidia

Microsoft ha annunciato un ritardo significativo nella produzione del suo chip AI di nuova generazione, Maia, noto anche come Braga. La produzione di massa, inizialmente prevista per il 2025, è stata posticipata al 2026. Secondo quanto riportato da Reuters, la causa principale del ritardo sono stati cambiamenti imprevisti nel design del chip, problemi di personale e un elevato turnover all’interno del team di sviluppo.

Questo ritardo pone Microsoft in una posizione delicata, soprattutto considerando la rapida evoluzione del mercato dei chip AI. Nvidia, con il suo chip Blackwell, ha già stabilito uno standard elevato, e il ritardo di Microsoft potrebbe significare che il chip Maia sarà meno competitivo al momento del lancio.

La bolla dell’intelligenza agentica: perché il 40% dei progetti AI fallirà entro il 2027

Quando un analista di Gartner ti dice che il 40% dei progetti di intelligenza artificiale agentica verrà cancellato entro il 2027, non sta lanciando un dado: sta puntando il dito contro un’intera industria ubriaca di promesse, slide da pitch e boardroom convinti che “agente” suoni più sexy di “assistente”. Il problema? Questa nuova corsa all’oro algoritmico ha il sapore rancido del déjà-vu. È il Web3 senza blockchain, è il metaverso con un prompt. È hype, travestito da strategia.

La parola magica oggi è “agentico”. Un termine che sembra uscito da un manuale di fantascienza sovietica ma che in realtà indica sistemi capaci di agire autonomamente per raggiungere obiettivi. Non reagire, come fa un chatbot, ma decidere, pianificare, agire. Quasi fossero middle manager siliconati in forma vettoriale. Salesforce e Oracle ci stanno buttando miliardi, cercando di trasformare queste entità in leve per abbattere i costi e aumentare i margini. Ma come ogni leva, anche questa rischia di agire sul vuoto.

Sabine Hossenfelder: Stiamo creando una nuova specie e non abbiamo nemmeno letto il manuale

La coscienza, ci dicono da secoli filosofi, teologi e neuroscienziati, sarebbe il tratto distintivo dell’uomo. Una qualità emergente, forse divina, probabilmente non replicabile, sicuramente nostra. Ma questa convinzione, che continua a sopravvivere anche nei più raffinati salotti accademici, sta diventando il più grande ostacolo cognitivo alla comprensione di cosa stia realmente accadendo sotto i nostri occhi: l’avvento di un’intelligenza artificiale che non è solo capace di simulare l’intelligenza umana, ma sempre più di evolverla.

Il cervello umano, che ci piaccia o no, è una macchina. Una meravigliosa macchina biologica, certo, ma pur sempre un sistema deterministico (con rumore stocastico) che riceve input, processa segnali, produce output, aggiorna stati interni e crea modelli predittivi. Non c’è nulla, in linea teorica, che un sistema computazionale sufficientemente sofisticato non possa riprodurre. A meno che, ovviamente, non si creda ancora all’anima. O nella meccanica quantistica come rifugio della coscienza, ipotesi talmente disperata che persino Roger Penrose oggi si guarda bene dal riproporla con convinzione.

Ismail Amla: Come l’AI generativa sta riscrivendo il contratto sociale dell’innovazione

Nel 1997, quando Deep Blue batté Kasparov, qualcuno mormorò che le macchine non avrebbero mai superato l’intuizione umana. Oggi, mentre ChatGPT sforna codice e strategie aziendali meglio di un middle manager, è evidente che non solo l’hanno superata, ma stanno riscrivendo da zero le regole del gioco. E Kyndyl Consult, guidata da visioni come quella di Ismail Amla, sembra aver colto il senso della rivoluzione: l’AI generativa non è uno strumento, è un nuovo contratto sociale tra tecnologia e leadership.

Il trionfo cinese dei brain-computer interface invasivi: come una sonda nei vasi sanguigni cambia la paralisi

Se pensavate che Neuralink fosse la frontiera indiscussa delle interfacce cervello-computer invasive, la realtà cinese vi farà ricredere. Un team della Nankai University ha appena inaugurato una nuova era nella neurotecnologia, realizzando il primo trial umano al mondo di un’interfaccia cerebrale impiantata tramite i vasi sanguigni. Niente più cranio aperto, bisturi e lunghi tempi di recupero: la procedura passa per il collo, con una sonda che si insedia nel sistema vascolare intracranico, regalando a un paziente paralizzato la possibilità di muovere le braccia e tornare alla vita quotidiana. Un colpo duro e diretto all’orgoglio di Musk e del suo Neuralink, ancora alle prese con guasti agli elettrodi e un’adozione umana da bradipo.

Meta vuole anche i tuoi ricordi non pubblicati: l’IA si insinua nei meandri della tua fotocamera

La privacy digitale non è più un concetto: è un ricordo sfocato, sepolto tra i selfie del 2014 e le foto mai condivise di un aperitivo con amici che oggi non sentiremmo neanche su WhatsApp. Se Meta aveva già saccheggiato i contenuti pubblici di Facebook e Instagram per alimentare i suoi modelli di intelligenza artificiale, ora punta direttamente a ciò che non hai mai voluto mostrare a nessuno: la tua galleria fotografica personale.

Chiariamolo subito, almeno per ora: secondo dichiarazioni ufficiali, Meta non sta addestrando i suoi modelli generativi su queste immagini non pubblicate. Però, come in ogni buona distopia, il “non ancora” ha il peso specifico del piombo. Il nuovo “test” del colosso prevede una funzione di “cloud processing” che ti chiede, con il garbo di un cameriere troppo invadente, se vuoi facilitare la tua vita social permettendo a Facebook di pescare regolarmente i tuoi scatti personali dalla memoria del telefono. Ti promette collage, recap, restyling IA e suggestioni tematiche, come se un algoritmo sapesse meglio di te quando è il momento di ricordare il tuo ultimo compleanno o di dare un tocco anime al tuo matrimonio.

Trump accelera sull’intelligenza artificiale, ma a spese della rete elettrica americana

Da un report di Reuters Venerdi.

Donald Trump, campione del deregulationismo applicato al XXI secolo, ha deciso che l’intelligenza artificiale non deve solo evolvere: deve dominare. E come spesso accade nelle epopee americane, non si guarda troppo ai danni collaterali. Secondo quanto riportato da Reuters, il presidente starebbe valutando una serie di ordini esecutivi per sostenere lo sviluppo dell’AI, con un approccio che prevede l’uso estensivo di terra federale per costruire data center e una corsia preferenziale per i progetti energetici. Un piano perfettamente in linea con la retorica trumpiana: sovranità, velocità e niente burocrazia.

L’illusione regolatoria e la paralisi dell’innovazione: perché il Cloud AI Development Act rischia di fare più danni che bene

C’è una strana sindrome, tutta europea, che potremmo definire “burocrazia salvifica”. Una fede incrollabile nella capacità taumaturgica della regolamentazione di sistemare ciò che il mercato, la competizione, la libertà d’impresa e, diciamolo pure, il rischio non sono riusciti a far funzionare. E ogni volta che il mondo corre più veloce delle nostre istituzioni, ecco spuntare un nuovo acronimo, un’altra direttiva, l’ennesimo atto. Oggi tocca al Cloud AI Development Act, la nuova formula magica che dovrebbe trasformare l’Europa in una superpotenza digitale. O quantomeno farci sentire un po’ meno provinciali rispetto a USA e Cina.

A Catanzaro il primo workshop internazionale su Intelligenza Artificiale e Biopsia Liquida nella Medicina Personalizzata

Grazie a Giorgia ZuninoGiorgia Zunino per la segnalazione.

Si è concluso il primo workshop internazionale su Intelligenza Artificiale e Biopsia Liquida nella Medicina Personalizzata, e no, non si è trattato di una conferenza accademica qualsiasi con slide scolorite e coffee break anonimi. È successo in Calabria, all’Università Magna Graecia, dove per una volta il Sud non è stato soltanto un osservatore passivo del cambiamento ma il baricentro di una rivoluzione silenziosa che ha già preso forma. L’evento ha riunito cervelli da Stanford University School of Medicine, ANVUR, CNR e CNEL. Non influencer da LinkedIn, ma professionisti di quelli veri, che lavorano con dati clinici reali e policy che impattano vite umane. Il focus? L’ibridazione tra AI e prevenzione oncologica attraverso la biopsia liquida. Non teoria, ma pratica clinica.

Alan Turing l’aveva già previsto. Rivista.AI lo ha visto succedere

Sylicon Valley Insights

Nel 1950, quando il mondo ancora credeva che l’intelligenza fosse un’esclusiva della carne e del sangue, Alan Turing scriveva una frase che avrebbe incendiato ogni dibattito futuro sull’intelligenza artificiale: “Can machines think?”. Non era un capriccio accademico. Era una detonazione logica, il preludio di una nuova grammatica epistemologica. Non più “cosa possono fare le macchine”, ma “quando inizieremo a crederci davvero”. Fu in quel momento che nacque il dialogo con l’intelligenza sintetica, ben prima che qualcuno sognasse la parola “chatbot”.

Turing non aveva bisogno di metafore poetiche alla Steve Jobs. Non parlava di Aristotele o di libri muti. Parlava di illusioni cognitive e test di realtà. Se non riesci a distinguere un’intelligenza artificiale da un essere umano, allora, caro lettore, sei tu che stai pensando male. Il pensiero, per lui, non era un’esclusiva biologica, ma un processo imitabile. Un’ipotesi tecnica. Un trucco evolutivo.

Pagina 1 di 85

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie