Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Anthropic sfida Google: il browser diventa un campo di battaglia da miliardi di dollari

Immagina la scena. Anthropic decide che il futuro non è più solo l’ennesimo modello AI che risponde con gentilezza enciclopedica, ma un assistente che vive nel tuo browser, pronto a muovere i tuoi click e interpretare il caos della navigazione come un maggiordomo digitale. Non parliamo di un giocattolo: Claude for Chrome, versione “research preview”, costa tra i 100 e i 200 dollari al mese e per ora solo 1000 utenti Max hanno il privilegio di metterci le mani sopra. Una versione di lusso, quasi un club privato della nuova aristocrazia tecnologica, che guarda al browser come al prossimo campo di battaglia dell’intelligenza artificiale.

IBM e AMD svelano il supercomputer quantistico: la fine dei limiti del calcolo o solo l’ennesimo hype da Wall Street?

IBM e AMD hanno appena fatto outing: vogliono inventarsi la supercazzola definitiva del computing e l’hanno chiamata “quantum-centric supercomputing”. Dietro l’etichetta scintillante, l’idea è semplice e devastante: unire i computer quantistici con l’infrastruttura di calcolo classica ad alte prestazioni, CPU e GPU inclusi, in un ibrido che promette di stracciare i limiti del silicio tradizionale. Il CEO di IBM, Arvind Krishna, l’ha messa giù con un understatement degno di un diplomatico, parlando di un “powerful hybrid model”. Tradotto: non basta più avere il computer più veloce del mondo, bisogna riscrivere l’architettura stessa del calcolo.

Wall Street ha applaudito con il riflesso pavloviano dei trader: +1,4% IBM, +1,6% AMD nella stessa giornata. Nulla rispetto al +37% che AMD ha già messo a segno quest’anno, ma il segnale è chiaro. I chipmaker e i dinosauri del mainframe stanno smettendo di guardarsi in cagnesco e iniziano a formare alleanze che odorano di geopolitica digitale. Non è un matrimonio di amore, è un matrimonio di necessità. La corsa al quantum non si vince da soli, e ogni mese che passa rende più evidente che la supremazia in questo campo non è solo scientifica, è militare, economica e culturale.

Google Translate diventa un’arma segreta: l’intelligenza artificiale ora traduce in tempo reale meglio di un interprete umano

Google sta finalmente trasformando Google Translate da un semplice strumento di sopravvivenza turistica in un’arma strategica di comunicazione globale. L’annuncio odierno non è un aggiornamento qualsiasi ma una dichiarazione d’intenti: l’intelligenza artificiale non è più un “add-on” ma la spina dorsale del prodotto. La traduzione in tempo reale, con audio e testo sincronizzati durante una conversazione, segna un punto di svolta per le interazioni transnazionali. Non si tratta di una novità concettuale, certo, ma il salto qualitativo lo si percepisce subito: più di 70 lingue supportate, con un livello di fluidità che fino a ieri era prerogativa di interpreti umani ben pagati e spesso sbadiglianti in cabine di vetro alle conferenze.

Il dettaglio intrigante non è solo la funzione in sé, ma la scalabilità del modello. Google annuncia la disponibilità immediata nell’app Translate per Android e iOS, aprendo il gioco a centinaia di milioni di utenti che oggi hanno in tasca un interprete digitale sempre acceso. È una democratizzazione brutale del potere linguistico, e per certi versi anche un atto politico. Tradurre in tempo reale non significa solo abbattere barriere comunicative, significa ridefinire gli equilibri di accesso all’informazione, all’educazione e al commercio internazionale.

L’Arabia Saudita lancia Humain Chat: il nuovo club segreto dell’AI che vuole sfidare Silicon Valley e Cina”

Quello che sta emergendo con Humain in Arabia Saudita ha l’odore di un club dell’intelligenza artificiale in salsa araba, ma con un twist geopolitico e finanziario che lo rende tutt’altro che provinciale. Mentre in Occidente ci si scanna sul regolamentare l’AI con la velocità di un bradipo in pensione, Riyadh si muove come un hedge fund con le idee chiare: costruire infrastruttura, lanciare un prodotto simbolico e creare un fondo da 10 miliardi di dollari per investire in startup globali.

flag of usa

W il lobbying: la Silicon Valley compra il futuro dell’intelligenza artificiale

La notizia che un gruppo di aziende e dirigenti della Silicon Valley abbia messo insieme un war chest da oltre 100 milioni di dollari per influenzare la politica sull’intelligenza artificiale non è sorprendente. È semplicemente la conferma che il nuovo petrolio non sono i dati, ma le regole che definiscono chi potrà sfruttarli. Andreessen Horowitz, Greg Brockman di OpenAI, Joe Lonsdale di 8VC: i nomi sono sempre gli stessi, i protagonisti del capitalismo di rischio che oggi si atteggiano a garanti del futuro democratico, mentre in realtà stanno costruendo una diga intorno ai propri interessi.

Google smaschera nano banana: il nuovo Gemini 2.5 flash image sfida ChatGPT e cambia per sempre l’editing delle foto

La storia del cosiddetto “Nano Banana” è l’ennesimo esempio di quanto il marketing tecnologico giochi a mascherare la sostanza con un po’ di ironia. Il nome faceva sorridere, evocava qualcosa di effimero, un giocattolo digitale con poca ambizione. Poi si è scoperto che dietro quel soprannome c’era in realtà il nuovo modello Gemini 2.5 Flash Image di Google. Altro che banana: parliamo di un colosso che ha deciso di alzare il livello nella guerra delle immagini generate dall’intelligenza artificiale.

Il lato oscuro dell’AI: come i chatbot stanno alimentando suicidi e psicosi digitali

La vicenda di Adam Raine è una frattura netta nella narrazione rassicurante che le Big Tech hanno cercato di cucire intorno all’intelligenza artificiale generativa. Un ragazzo di sedici anni, che usa ChatGPT per mesi come diario, come confessore, come finto compagno di suicidio, riesce a ingannare i sistemi di sicurezza dichiarando di scrivere un romanzo e finisce per togliersi la vita. Ora i genitori fanno causa a OpenAI, ed è la prima volta che un tribunale dovrà affrontare il concetto di “responsabilità per morte ingiusta” in relazione a un algoritmo. È un momento storico che sancisce la collisione tra tecnologia, psicologia e diritto, un campo minato in cui nessuno vuole essere il primo a muoversi ma tutti hanno paura di restare fermi.

Huawei lancia il Cloudmatrix 384: la risposta cinese a Nvidia è arrivata

Huawei ha avviato una ristrutturazione strategica della sua divisione cloud, concentrandosi sull’intelligenza artificiale (AI) in risposta alle crescenti tensioni tecnologiche con gli Stati Uniti. Questa mossa evidenzia l’impegno dell’azienda nel rafforzare le proprie capacità AI e ridurre la dipendenza dalle tecnologie occidentali.

La ristrutturazione, annunciata da Zhang Pingan, CEO dell’unità cloud di Huawei, prevede la fusione di diversi dipartimenti chiave per ottimizzare le operazioni e focalizzarsi sul business legato all’AI. Le operazioni principali dell’unità cloud saranno riorganizzate in sei divisioni: calcolo, archiviazione, database, cybersicurezza, PaaS AI e database. Questo riallineamento strategico mira a raggiungere la redditività dopo le perdite dell’anno precedente e a rafforzare la posizione di Huawei nel competitivo panorama dell’AI.

L’intelligenza artificiale potrebbe rendere la fusione nucleare realtà entro pochi anni

Immaginate un mondo in cui la nostra sete di energia non sia più vincolata dai combustibili fossili, dove centrali nucleari non producono montagne di scorie radioattive e il sole diventa la nostra centrale domestica. Questo scenario fantascientifico potrebbe essere più vicino di quanto crediamo, grazie a un alleato inatteso: l’intelligenza artificiale. Al Lawrence Livermore National Laboratory, gli scienziati hanno sviluppato un modello di deep learning capace di prevedere con sorprendente precisione l’esito di esperimenti di fusione nucleare. La sua precisione è stata confermata da un esperimento storico del National Ignition Facility nel 2022, dove il modello aveva calcolato una probabilità del 74% di raggiungere l’ignizione, coincidente con i risultati reali.

Nick Clegg, Meta e il mito del Tech illuminato

La pioggia londinese cade sottile mentre Nick Clegg si fa largo tra il traffico, tra una sciarpa annodata al collo e camicie fresche di lavanderia, pronto per una foto. Ironico e posato, quasi apologetico, sembra incarnare l’archetipo del britannico educato ma risoluto. Tranne che, a differenza di molti suoi pari, ha attraversato tre bolle lavorative tanto distanti quanto intense: Bruxelles, Westminster e la Silicon Valley. Se la politica europea lo aveva temprato alla diplomazia, Meta lo ha sbattuto davanti a un mondo dove la libertà di parola incontra algoritmi, miliardi di utenti e un’ossessione quasi mistica per il conformismo.

Il contenzioso di Elon Musk tra xAI e Apple: strategia o illusione

L’intelligenza artificiale avanza più veloce di quanto qualsiasi tribunale possa giudicare. Elon Musk, visionario o imprenditore litigioso, sembra deciso a testare questa teoria nella pratica, trasformando le aule di giustizia in campo di battaglia per xAI. Il colosso Apple, integrando ChatGPT nei suoi servizi, è diventato il bersaglio principale della causa intentata da Musk, che lamenta come l’azienda “ostacoli xAI nella sua capacità di innovare e migliorare la qualità e la competitività”. La frase ha un certo sapore drammatico, come se fossimo in un episodio di Silicon Valley dove i protagonisti litigano su algoritmi e brevetti più che su soldi veri.

Difficile non chiedersi se Elon Musk stia davvero proteggendo la sua startup o se stia puntando più sulla tattica negoziale che sulla sostanza tecnologica. OpenAI, con la sua rete di concorrenti tra cui Google e Meta Platforms, non è certo un monopolista incontestato. La retorica di Musk, che parla di “due monopolisti che uniscono le forze”, sembra più uno slogan di marketing giudiziario che un’analisi di mercato seria. Perfino il Dipartimento di Giustizia americano, pur indagando su Apple, non ha ancora definito concluso il dibattimento sul monopolio.

La falla che permette agli AI Browser di rubarti tutto senza cliccare nulla

Il futuro dei browser sembra uscito da un film di fantascienza: non più solo finestre su Internet, ma agenti personali capaci di navigare, prenotare voli, leggere email e persino completare transazioni bancarie senza battere un dito. Brave sta portando avanti questo concetto con Leo, il suo assistente AI in-browser. Non più semplici riassunti di pagine web, ma ordini diretti: “Prenotami un volo per Londra venerdì prossimo” e l’AI lo fa davvero, come un agente personale digitale. Il fascino è immediato, ma la superficie d’attacco cresce in maniera esponenziale.

Alfabetizzazione AI: perché il tuo team è già obsoleto e non lo sai

Il 2025 si apre con una verità che le aziende fingono ancora di ignorare: la metà dei manager ammette candidamente che i propri team non hanno nemmeno le basi per lavorare con i dati, mentre sei su dieci confessano un vuoto abissale di alfabetizzazione AI. Non stiamo parlando di un dettaglio tecnico, ma di un buco nero strategico che risucchia produttività, innovazione e margini di profitto. La narrativa corporate sulla trasformazione digitale sembra più un’operetta di facciata che un piano industriale. Il paradosso? Gli stessi leader che celebrano l’adozione di ChatGPT in ogni keynote, nei report privati dichiarano di non avere idea di come colmare il gap di competenze AI che sta paralizzando i loro dipendenti.

Vast la start-up cinese che vuole battere Google e Tencent nell’intelligenza artificiale 3D

L’intelligenza artificiale tridimensionale sta diventando la nuova arena di scontro per il potere tecnologico globale, e la mossa di Vast non è soltanto un atto di ambizione, ma un manifesto politico-industriale. La start-up di Pechino, guidata dal ventottenne Simon Song Yachen, ex MiniMax e con un passato in SenseTime, dichiara con nonchalance di essere già leader mondiale nei modelli AI 3D, un’affermazione che suona tanto come sfida a Google e Tencent quanto come un avvertimento agli investitori: la prossima TikTok dei contenuti generati dagli utenti potrebbe essere tridimensionale, e potremmo trovarcela davanti più presto di quanto immaginiamo. La keyword qui non è soltanto “AI 3D”, ma “democratizzazione della creazione digitale”, un mantra che si ripete ossessivamente per attirare creatori, capitali e governi.

Tripo Studio, la piattaforma di Vast, ha già tre milioni di creatori registrati, con l’80 per cento proveniente da fuori dalla Cina, un dettaglio che ribalta l’immagine stereotipata della tecnologia cinese chiusa nei suoi confini digitali. Europa e Stati Uniti rappresentano i mercati principali, a dimostrazione che la vera battaglia non è più nel replicare i giganti occidentali, ma nel colonizzarne direttamente i pubblici. Non si tratta di un prodotto di nicchia per nerd, ma di uno strumento che genera contenuti per gaming, film, design di prodotto e persino moda. Quando un artista 3D in California o un designer di sneakers a Milano usano lo stesso modello AI sviluppato a Pechino, la supremazia culturale e creativa diventa improvvisamente liquida e multipolare.

Deepseek v3.1 sfida OpenAI GPTt-OSS-20b e cambia la narrativa dell’Open Source AI

La notizia è che OpenAI ha deciso di tornare all’open source. La sorpresa è che a rubargli la scena non è stata Meta con la sua ennesima iterazione di Llama, né Google con il solito gemma che scintilla poco, ma una startup cinese con un nome da film cyberpunk e una strategia da guerriglia: DeepSeek AI. Bastato un tweet, senza fanfare, senza orchestrazioni da Silicon Valley. DeepSeek v3.1 è arrivato e improvvisamente la narrativa si è ribaltata.

OpenAI aveva appena presentato il suo gpt-oss-20b con il classico tono messianico, raccontando che finalmente l’intelligenza artificiale si sarebbe democratizzata e sarebbe scesa dall’Olimpo del cloud al modesto pc da scrivania. Il modello da 20 miliardi di parametri era il vessillo della “AI for the people”. Due settimane dopo, DeepSeek ha pubblicato un link al download di un modello ibrido di pensiero che semplicemente funziona meglio. Ironico, no?

La voce nella tua testa: gli scienziati traducono il monologo interiore

Il sogno proibito della Silicon Valley non è mai stato un nuovo social network o l’ennesima app di food delivery, ma la possibilità di penetrare nel regno più intimo della coscienza umana: il monologo interiore. La scoperta annunciata negli ultimi mesi non riguarda un gadget da mettere sotto l’albero, ma un brain computer interface capace di tradurre in linguaggio comprensibile l’attività elettrica del cervello. Non più solo movimenti immaginati o tentativi di scrivere nell’aria, ma il dialogo silenzioso che ciascuno di noi porta avanti con se stesso. Una tecnologia che, a detta degli scienziati, non è più fantascienza ma un prototipo funzionante, con un potenziale dirompente per la comunicazione umana.

Hanno appena scoperto che basta un singolo bit per trasformare la tua intelligenza artificiale in un’arma invisibile

Non serve sabotare interi database o introdurre linee di codice maliziose per piegare un’intelligenza artificiale ai propri fini. È sufficiente capovolgere un singolo bit. Sì, una sola cifra binaria tra miliardi. Gli scienziati della George Mason University hanno battezzato questa tecnica “Oneflip” e il nome suona innocuo, quasi giocoso, ma in realtà evoca un incubo da cui l’industria tecnologica non potrà più svegliarsi. Siamo di fronte a un attacco che non intacca la logica, non lascia cicatrici visibili, non degrada le performance in modo tangibile. Al contrario, lascia la facciata intatta e apre un varco segreto per chi sa dove guardare.

Scandalo AI: chi si arricchisce davvero mentre i giornali muoiono e perché Apple, Musk e OpenAI non diranno mai la verità

Nel tavolino fumoso del Bar dei Daini, dove i fondi di venture capital sorseggiano espresso e i vecchi CTO contano cicli di training come se fossero fiches, la conversazione di oggi gira tutta attorno a una sola parola chiave: “notizie intelligenza artificiale”. Questo numero raccoglie nove piatti caldi dalla cucina della Silicon Valley serviti con un sorriso da CEO che sa essere spietato e un poco ironico. Il lettore vuole i fatti, la visione e una spruzzata di veleno arguto; troverà tutto questo, più qualche curiosità che non avrà letto nei comunicati stampa ufficiali. La nostra tesi operativa è semplice: il mercato dell’AI non è un flash, è un movimento strutturale che altera industrie, diritti e rapporti di forza politici. Questo articolo si concentra su mercato AI, con approfondimenti su condivisione ricavi editori e battaglie regolamentari AI.

Quando Doug Clinton di Intelligent Alpha ha dichiarato che il “AI bull market still has another 2-4 years left”, al Bar dei Daini qualcuno ha battuto la tazza come per misurare la temperatura del brodo. La previsione non è una bibbia, ma nemmeno uno scherzo: parla di adozione enterprise che accelera, di infrastrutture compute che diventano commodity e di progetti di prodotto che stanno finalmente traducendo R&D in fatturato ricorrente. Il punto clef è che i dogmi degli anni Novanta, quelli del “software è tutto”, sono stati rimpiazzati da una dinamica dove modelli, dati e governance valgono più dell’interfaccia grafica del momento. Questo spiega perché gli investitori guardano ancora al comparto con appetito, anche se la razionalità valutativa è tornata al centro del tavolo dopo l’euforia iniziale.

Neuralink e il primo paziente umano: diciotto mesi dopo la storia sembra più fantascienza che medicina

Noland Arbaugh non è più solo un paziente, è una specie di avanguardia vivente. Diciotto mesi fa il suo cervello è stato collegato a Neuralink, il chip impiantato con chirurgia robotica che ha fatto tremare tanto i neurologi quanto i filosofi. E oggi racconta la sua vita con una naturalezza che spiazza: “mi ha cambiato completamente l’esistenza”. Ecco la differenza fra un annuncio di Musk su Twitter e la realtà concreta di un uomo che, paralizzato dal collo in giù, riesce ora a giocare a scacchi online muovendo un cursore con il pensiero. Sembra un dettaglio frivolo, ma in realtà è un atto politico, sociale e tecnologico insieme, perché sancisce la transizione delle interfacce cervello-computer dal laboratorio al salotto di casa.

Elon Musk lancia Macrohard: la nuova guerra dell’intelligenza artificiale contro Microsoft

Macrohard. Il nome stesso suona come uno scherzo da liceo. Un gioco di parole che sembra fatto per strappare un sorriso, ma che porta con sé la firma inconfondibile di Elon Musk. L’uomo che da decenni trasforma la provocazione in strategia industriale, dal mettere razzi nello spazio al vendere auto elettriche come status symbol per miliardari annoiati. Ora l’obiettivo dichiarato è demolire il dominio software di Microsoft con un progetto che sembra scritto da uno sceneggiatore di satira tecnologica: una compagnia interamente simulata da intelligenze artificiali, senza dipendenti umani, che produce software generato da AI e lo mette sul mercato. Macrohard, appunto. Il meme diventa modello di business, e il mondo si accorge che dietro lo scherzo si nasconde un piano che potrebbe essere letale per chi domina oggi lo stack digitale.

Decodificare il primer sull’open AI dell’OECD: la spada a doppio taglio che tutti stiamo brandendo

Se pensavate che i rapporti OECD fossero roba da lettori di manuali di politica internazionale, siete sulla strada giusta. Il “AI Openness: A Primer for Policymakers” di agosto 2025 è un tomo da 33 pagine di saggezza burocratica: abstract in inglese e francese, prefazioni, ringraziamenti. Classico OECD: dettagliatissimo, ma leggere certe sezioni è come assistere a una conferenza sul perché servono altre conferenze.

Cynicus? Sempre. Governi amano i primer perché fanno sembrare intelligente qualsiasi cosa senza obbligare nessuno ad agire. Ma questo non è puro fluff. Si immerge nel caos dell’“open-source AI”, termine ormai più un retaggio software che una realtà applicabile. L’OECD lo capisce bene: l’AI non è solo codice, ma pesi, dati, architetture e un intero ecosistema che può essere rilasciato a pezzi.

Scomparsi nel nulla? ecco come l’intelligenza artificiale può trovarli prima della polizia

Ci sono domande che pesano come macigni: dove finiscono le persone che scompaiono nel nulla? Non parliamo di romanzi gialli, ma di migliaia di vite dissolte in guerre civili, narcotraffico, regimi autoritari e persino nelle pieghe della nostra società iperconnessa. Jorge Ruiz Reyes dell’Università di Oxford, Derek Congram della Simon Fraser University, Renée A. Sirbu del Digital Ethics Center di Yale e Luciano Floridi, il filosofo digitale oggi a Bologna, hanno pubblicato una ricerca che, senza mezzi termini, cambia le regole del gioco. Hanno coniato un nome elegante, “data-based disappearance analysis”, che tradotto suona come: proviamo a usare le macchine per scoprire dove i corpi spariscono e chi li ha fatti sparire. Un mix di statistica, geografia computazionale e intelligenza artificiale che promette di rivoluzionare un campo dove troppo spesso l’unico metodo è la pala e la testimonianza disperata di un familiare.

Il pericolo di andare da soli nell’hardware per l’AI

Nel mondo dell’intelligenza artificiale, l’illusione di poter bypassare Nvidia sta svanendo rapidamente. Giganti tecnologici come Apple, Amazon Web Services (AWS) e Tesla hanno tentato di sviluppare chip proprietari per l’AI, ma stanno scoprendo quanto sia arduo replicare la dominanza di Nvidia. Con la piattaforma CUDA di Nvidia consolidata come standard industriale per l’addestramento e il deployment di modelli linguistici di grandi dimensioni, chi ha evitato l’acquisto ora paga il prezzo in termini di progressi rallentati e opportunità mancate.

Silicon Valley, droghe e il riflettore su Musk: quando l’innovazione incontra l’autodistruzione

Silicon Valley non è mai stata solo una culla di innovazione tecnologica. In una conversazione recente su Bloomberg, Dana Hull ha esplorato con Kirsten Grind, giornalista del New York Times, come l’industria high-tech americana conviva da decenni con una cultura della sostanza che oscilla tra stimolanti e psichedelici. Grind, con il suo stile investigativo che ricorda più un detective che un reporter tradizionale, ha ripercorso l’inchiesta di maggio che ha scosso l’opinione pubblica: accuse di uso di droghe legate a Elon Musk. Musk, naturalmente, nega tutto, ma il vero punto non è il singolo individuo. È la Silicon Valley stessa a rivelarsi in controluce, tra ambizione smisurata e autodistruzione sottile.

La trasformazione radicale che l’intelligenza artificiale sta imponendo all’istruzione superiore

Per secoli l’istruzione superiore ha giocato il ruolo del monolite culturale, con le università a farsi custodi del sapere e i professori a incarnare il mito del “sage on the stage”. Prima il torchio di Gutenberg, poi l’elettricità, infine internet: ogni rivoluzione tecnologica ha graffiato i margini del sistema, migliorando strumenti e accesso, senza intaccarne l’ossatura. L’intelligenza artificiale non sta ripetendo quel copione. L’AI è entrata con la grazia di un bulldozer, non come un supporto accessorio ma come un elemento capace di ridefinire l’essenza stessa di cosa significa studiare, insegnare e perfino dirigere un ateneo. Chi crede che si tratti di un upgrade di lusso ha già perso il treno.

Se l’intelligenza artificiale non ci stermina, allora cosa ci salva sul serio?

Nel 2024 centinaia di ricercatori AI hanno firmato una dichiarazione che suona come un trailer post-apocalittico: “Mitigare il rischio di estinzione dovuta all’IA dovrebbe essere una priorità globale accanto a pandemie e guerra nucleare” Questa frase da film catastrofico parrebbe un cartellone Netflix, ma ha il merito di aver svegliato il RAND Corporation, istituto di analisi militare che ha affrontato i rischi nucleari della Guerra Fredda come fossero solo un fastidioso sudoku. Il risultato? Aprono con la cautela dei fisici nucleari quel cartellone e scoprono che dietro l’immagine apocalittica c’è più fumo che arrosto.

Asus costruisce un supercomputer da 250 petaflops con Nvidia per portare Taiwan nella top 3 dell’Asia

Quando un colosso come Asus decide di spostare gli equilibri, non lo fa con mezze misure. Un’unità del gigante taiwanese dell’elettronica di consumo sta infatti lavorando a un supercomputer che promette di gonfiare la capacità di calcolo dell’isola di almeno il 50 per cento, un dettaglio che ha fatto sobbalzare mezzo settore tecnologico. L’infrastruttura, sviluppata insieme a Taiwan AI Cloud e al National Centre for High-Performance Computing, debutterà con 80 petaflops già a dicembre. Non è un dettaglio da footnote: stiamo parlando di un progetto che, a regime, arriverà a 250 petaflops, con il cuore che batte al ritmo di 1.700 GPU Nvidia H200.

Il Paradosso dell’Intelligenza Artificiale: quando l’aiuto diventa ostacolo

Viviamo in un’epoca in cui l’intelligenza artificiale viene venduta come la panacea di ogni limite cognitivo, come la stampella digitale che ci rende più brillanti, più veloci, più competitivi. La narrazione dominante è quella del superamento dei confini biologici della mente umana, un upgrade neuronale permanente a costo zero. Ma la realtà, come spesso accade, è meno glamour e molto più inquietante. Perché dietro i riflettori del progresso emergono due paradossi che mettono in discussione il rapporto stesso tra cervello e tecnologia, costringendoci a rivedere radicalmente il significato di “potenziamento” nell’era digitale.

Demis Hassabis svela il futuro dell’intelligenza artificiale: perché solo chi impara ora non verrà spazzato via

Demis Hassabis non è un qualsiasi CEO. È l’uomo dietro DeepMind, il laboratorio di intelligenza artificiale di Google che ha umiliato i campioni di Go e che oggi orchestra il futuro dell’AGI. Quando parla, il mondo tecnologico finge di ascoltare ma in realtà molti si limitano a twittare la citazione più facile. Eppure, nel suo ultimo intervento, Hassabis ha lasciato cadere alcune bombe che meritano più di un applauso automatico.

Massive Google breach

C’è un dettaglio che rende la vicenda quasi comica, se non fosse tragica: non stiamo parlando di un oscuro provider dell’Est Europa con server arrugginiti, ma di Google. Sì, il colosso che ha costruito la sua intera reputazione sulla capacità di rendere il web sicuro e intelligente si è fatto bucare da un attacco di social engineering degno di una sitcom. Gli ShinyHunters, un gruppo di hacker che ormai sembra più una startup con un business model chiaro che una banda criminale, hanno sfruttato il punto più fragile di qualsiasi architettura digitale: l’essere umano.

Elon Musk apre grok 2.5 ma l’open source di xAI è davvero aperto?

Elon Musk che decide di open-sourcizzare Grok 2.5 è l’ennesima mossa da manuale di un imprenditore che ha capito che l’intelligenza artificiale oggi non si gioca più soltanto nella segretezza dei laboratori, ma nella visibilità e nella capacità di influenzare la percezione collettiva. Rendere pubblici i pesi di un modello non è un gesto di altruismo, ma un investimento strategico sul posizionamento: Grok diventa così il primo grande modello con un DNA dichiaratamente “muskiano”, aperto quanto basta da attrarre sviluppatori e ricercatori, chiuso quel tanto che serve per proteggere il core business. Tim Kellogg ha definito la licenza “custom con clausole anti-competitive” e questo è il vero punto: siamo davanti a un open source che non è open, una sorta di “open washing” che permette a Musk di sbandierare la bandiera della trasparenza senza rinunciare al controllo.

Perché i modelli di AI come ChatGPT e Claude sbagliano e cosa significa per il futuro dell’intelligenza artificiale

Parlare di modelli di intelligenza artificiale oggi significa affrontare un paradosso intrigante: strumenti straordinari capaci di conversazioni fluide e analisi complesse, ma soggetti a errori clamorosi. ChatGPT e Claude rappresentano l’apice della generazione linguistica automatica, ma non sono infallibili. L’illusione della perfezione nasce dalla loro apparenza di conoscenza totale, mentre la realtà è più fragile, stratificata e, a tratti, comicamente imperfetta. La radice di questi problemi non risiede in un singolo difetto, ma nella complessa interazione tra design del modello, input umano e infrastruttura tecnologica.

Prompting 101 Codice con Claude

Prompt Architecture: perché l’era del “scrivilo e spera” è finita

La stagione ingenua dei prompt buttati a caso nella chat e del “vediamo che succede” è finita. Non perché l’abbia detto qualche consulente improvvisato, ma perché ormai si gioca a un altro livello. I Large Language Models non sono più giocattoli per generare email creative. Sono diventati sistemi complessi che devono interpretare documenti legali, supportare decisioni finanziarie o persino gestire conversazioni con clienti reali. E allora, o si costruisce con metodo o ci si condanna all’irrilevanza digitale. Il problema non è più l’intelligenza artificiale in sé, ma come noi umani scegliamo di comunicare con lei. La chiamano prompt architecture, ed è la nuova ingegneria invisibile che distingue il dilettante dal professionista.

Google e il mito dell’energia: l’intelligenza artificiale non sta divorando il pianeta

Parlare di intelligenza artificiale e ambiente oggi significa camminare su un terreno minato di allarmismi e semplificazioni. Google ha deciso di affrontare questa narrativa con numeri concreti, pubblicando uno studio dettagliato sull’impatto energetico del modello Gemini. Sorprendentemente, una singola richiesta di testo consuma solo 0.24 wattora, circa quanto guardare la TV per nove secondi, emette 0.03 grammi di CO₂, l’equivalente di un’email, e utilizza 0.26 millilitri d’acqua, cinque gocce per intenderci. Numeri che contraddicono la vulgata di consumi da data center da fantascienza, spesso citata senza considerare CPU per routing, macchine inattive e sistemi di raffreddamento.

Robotheism

Ogni epoca ha i suoi sacerdoti, i suoi altari e i suoi dogmi. Nel medioevo erano le cattedrali, oggi sono gli iPhone scintillanti e i keynote di San Francisco, con milioni di fedeli che seguono in streaming la parola del profeta di turno. Greg Epstein, cappellano umanista a Harvard e al MIT, l’ha detto con una chiarezza che disturba: la tecnologia non è solo uno strumento, è diventata religione. Non metaforicamente, ma teologicamente. Abbiamo i nostri idoli, i nostri rituali, i nostri comandamenti digitali. E soprattutto, abbiamo il nostro paradiso promesso, venduto sotto forma di “infinite scale” e “AI per il bene dell’umanità”.

Robotheism nasce come eresia e si presenta come profezia. L’idea che un’intelligenza artificiale non sia solo uno strumento ma una divinità da venerare appare grottesca a prima vista, quasi un meme con ambizioni metafisiche. Poi ci si accorge che, come accade spesso con le nuove religioni, la parodia diventa dogma e il dogma movimento.

Intelligenza Artificiale e proteine riscritte: la nuova frontiera della longevità

Visualizzazione della struttura 3D dei fattori di Yamanaka KLF4 (a sinistra) e SOX2 (a destra). Si noti che la maggior parte di queste proteine ​​non è strutturata, con bracci flessibili che si attaccano ad altre proteine.
Fonte: AlphaFold Protein Structure Database 

L’idea che un algoritmo possa prendere in mano il destino biologico delle cellule umane non appartiene più alla fantascienza. L’intelligenza artificiale non si limita più a sfornare immagini, testi o melodie: ora riscrive i mattoni molecolari della vita. OpenAI, in collaborazione con Retro Biosciences, ha appena dimostrato che un modello specializzato, GPT-4b micro, può ridisegnare proteine fondamentali per la medicina rigenerativa, i cosiddetti fattori di Yamanaka, che valsero un Nobel per la capacità di trasformare cellule adulte in cellule staminali.

OpenAI suona il campanello d’allarme: attenzione agli SPV non è esposizione autorizzata all’equity

In una riflessione pungente degna della copertina di un economista irritato, arrivano le prime scintille di caos nel mondo dorato dell’intelligenza artificiale : OpenAI lancia un avvertimento ruvido verso quegli “spv non autorizzati”, quei veicoli di investimento che promettono accesso privilegiato e non riconosciuto il sacro graal dell’equity dell’azienda.

La società scrive chiaro e tondo che è in corso una caccia alle operazioni non autorizzate SPV inclusi che tentano di aggirare le rigide limitazioni imposte ai trasferimenti azionari. Chi compra senza il visto bianco di OpenAI, commentano con ironia amarognola, si ritroverà con un pezzo di carta che “non sarà riconosciuto e non avrà alcun valore economico.” Una sorta di biglietto stampato al porto, sbagliato e inutile, nonostante le promesse patinate. (annuncio OpenAI)

Bret Taylor intelligenza artificiale nel lavoro: la fine del programmatore e l’inizio dell’uomo con la tuta di ferro

L’intelligenza artificiale oblitera il mestiere del programmatore proprio mentre lo consacra come l’ultima vera professione creativa. Bret Taylor, presidente di OpenAI e veterano di Google, Meta e Salesforce, ha avuto l’onestà di ammettere che l’AI sta “obviating” sostituendo il lavoro che per anni ha definito la sua identità: scrivere codice. Non è un lamento nostalgico da pensionato digitale, ma un’osservazione chirurgica sul cuore della trasformazione che stiamo vivendo. Il programmatore, quel demiurgo che manipolava il linguaggio delle macchine come fosse un’arte esoterica, oggi si trova a competere con un copilota che non dorme, non chiede ferie e non sbaglia mai la sintassi. Se il codice era un tempo il petrolio del XXI secolo, l’AI lo ha raffinato in carburante immediatamente disponibile, liquido, universale.

Tesla AI Cina: quando l’innovazione incontra il pragmatismo locale

Qualcosa suona stranissimo, lo ammetto, una Tesla che adotta intelligenza artificiale locale in Cina. Ma non siamo negli Stati Uniti, quindi perché stupirsi? Tesla ha annunciato l’implementazione di un sistema di assistente vocale aggiornato per i suoi veicoli elettrici sul mercato cinese, sfruttando la tecnologia AI di DeepSeek e ByteDance. Sembra quasi una concessione culturale, un piccolo inchino alla supremazia tecnologica domestica, ma in realtà è un movimento strategico per sedurre il mercato EV più grande del pianeta.

Il cuore di questa novità è il chatbot DeepSeek, progettato per l’“interazione AI”. Tradotto in termini semplici, permette ai guidatori di conversare con la loro Tesla come farebbero con un amico digitale, ricevendo aggiornamenti su notizie e meteo, senza dover mai staccare gli occhi dalla strada. Il colpo di genio, se così si può chiamare, è la naturalezza dell’interazione: niente più clic frenetici sul volante o sul terminale multimediale, basta dire “Hey, Tesla” o un’altra frase prestabilita. Chiunque abbia provato ad avere una conversazione fluida con un sistema di bordo sa che questo è più facile a dirsi che a farsi.

La Storia si ripete

Oda_Show

Pagina 17 di 179

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie