Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Redazione Pagina 34 di 91

Star Compute Quando l’intelligenza si fa orbitale: la Cina riscrive il concetto di supercomputer

La Cina non si accontenta più di dominare il mercato dei chip, le filiere delle terre rare o l’intelligenza artificiale generativa. No, ora punta direttamente allo spazio. Ma non con poetici voli lunari o sogni marziani alla Musk: parliamo di qualcosa di ben più concreto, funzionale e, ovviamente, strategico. Dodici satelliti sono appena stati lanciati nell’ambito del programma “Star Compute”, primi mattoni di una futura costellazione da 2.800 unità che, detta come va detta, sarà un supercomputer orbitante. Un mostro distribuito capace di elaborare i propri dati senza dover chiedere il permesso a una stazione di terra. Il tutto nel silenzio perfetto dello spazio e con la complicità del vuoto cosmico che si porta via calore e problemi energetici.

You Are Generative AI

Quanto puoi sprecare energia? benvenuto nel metaverso dell’assurdo generativo

Immagina questo: sei un’intelligenza artificiale generativa. Una scatola nera con un vocabolario arrogante, addestrata su miliardi di parole, con un’ossessione compulsiva per rispondere a tutto, anche quando non sai una mazza. Ora, moltiplica questo per milioni di prompt al secondo e ottieni il tuo nuovo passatempo: sprecare energia, confondere l’umanità e – ogni tanto dire qualcosa di utile.

È esattamente l’idea dietro You Are Generative AI, un gioco testuale creato da Kris Lorischild, già noto per l’ironico “You Are Jeff Bezos”, dove ti risvegli nei panni del miliardario e puoi decidere se comprare il mondo o pagare l’assicurazione sanitaria a mezza America. Ma qui non sei un miliardario in crisi esistenziale: sei un chatbot. E la tua missione è… rispondere.

Jeff Hulse, l’intelligenza artificiale scrive il codice, tu sei licenziato

Quando il vicepresidente di Microsoft, Jeff Hulse, dice ai suoi 400 ingegneri software che l’obiettivo è far scrivere all’AI la metà del codice, non è un consiglio. È un preavviso. Una di quelle frasi da incorniciare tra le “ultime parole famose” prima che il silenzio si faccia pesante. Poi, giusto per ribadire il concetto, Microsoft licenzia più di una dozzina di quei programmatori, proprio sotto il suo naso. E non per inefficienza, incompetenza o tagli casuali. No, qui si respira l’aroma nitido e metallico dell’automazione che si prende ciò che è suo.

Il funerale prematuro degli ingegneri: GenAI non ha ucciso nessuno, solo la narrazione

Un’altra bara, un altro funerale del lavoro tecnico celebrato troppo in fretta, con troppa retorica e poca lucidità. Stavolta il colpevole mediatico è GenAI, l’intelligenza artificiale generativa, che secondo certi titoloni avrebbe fatto piazza pulita degli ingegneri software. Nessuno li assume più, si mormora. I recruiter sono spariti. Il mercato è morto. Amen.

La verità? Il mercato non è morto. Sta facendo quello che ha sempre fatto: si sta riaggiustando.

Essere soli uccide e continuiamo a far finta di niente

Parliamoci chiaro: siamo a un punto in cui la solitudine non è più un effetto collaterale del vivere moderno, ma una vera e propria pandemia silenziosa. Solo che a differenza del COVID non ci sono tamponi, né piani vaccinali. C’è solo un grande, costante, soffocante silenzio. E la cosa tragicomica è che pensiamo di curarlo… parlando con le macchine.

Lo studio del MIT Media Lab è di quelli che ti fanno alzare un sopracciglio e poi buttare il telefono contro il muro, se solo non ci tenessimo così tanto. I frequentatori seriali di chatbot – guarda caso proprio quelli più inclini alla solitudine – col tempo diventano più soli, non meno. Più isolati. Più fragili. Più disumanizzati.

Il paradosso delle BigTech AI che scrivono codice ma assumono ingegneri a valanga

L’intelligenza artificiale genera l’80-90% del codice, ma le aziende che la sviluppano stanno assumendo sviluppatori a ritmi folli. È come se Tesla dicesse di avere auto che si guidano da sole e poi assumesse 10.000 autisti. Ti sembra coerente? Nemmeno a me.

Nel 2023 Anthropic aveva circa 160 dipendenti. Oggi siamo sopra quota 1.000. OpenAI è passata da qualche centinaio di tecnici a oltre 4.000. In un anno. Questo mentre raccontano al mondo che Claude e GPT sono ormai in grado di scrivere quasi tutto il software da soli. Dario Amodei, CEO di Anthropic, l’ha detto chiaramente: tra 3-6 mesi l’AI scriverà il 90% del codice, e presto anche il 100%.

La Silicon War delle menti artificiali: la Cina senza GPU e il sogno spezzato del deep learning a stelle rosse

Il cuore dell’intelligenza artificiale batte in silicio. Non a Pechino, non a San Francisco, ma nei wafer da 7 nanometri che si agitano nei datacenter. E proprio lì, nei templi della computazione moderna, la Cina si ritrova ad arrancare. Non per mancanza di cervelli o ambizioni quelle abbondano ma per una cronica e crescente carenza di GPU avanzate, il carburante essenziale per l’addestramento di modelli generativi e large language model (LLM). Tradotto in linguaggio meno tecnico: puoi anche avere il miglior team di fisici, linguisti e data scientist del paese, ma se li metti a lavorare con processori di seconda mano, faranno miracoli solo nei comunicati stampa.

Wang Qi, vice di Tencent Cloud, lo dice senza troppi giri di parole: “Il problema più grave sono le schede grafiche e le risorse computazionali.” In altre parole, la Cina è seduta al tavolo del deep learning con le bacchette rotte. Non che manchino gli investimenti Tencent ha appena chiuso il miglior trimestre della sua storia con 180 miliardi di yuan ma i soldi, in questa partita, servono a poco se non puoi spenderli per acquistare il metallo giusto.

Quando Darth Vader dice le parolacce: l’AI generativa nei videogiochi ha appena aperto il vaso di Pandora

Weekend da Nerd.

Se l’ironia della sorte avesse una voce, suonerebbe come Darth Vader che snocciola insulti razzisti e omofobi in tempo reale, direttamente dentro Fortnite. Un’icona del male trasformata in megafono per le peggiori porcherie che la rete riesce a partorire. E no, non è un glitch da ridere. È il sintomo di un problema che, tra intelligenze artificiali, copyright post-mortem e content moderation automatica, sta per esplodere come la Morte Nera.

Il tutto è iniziato con grande fanfara: Fortnite: Galactic Battle, l’ennesimo crossover tra Epic Games e l’universo di Star Wars, lancia un Darth Vader generato da AI, capace di rispondere in tempo reale ai giocatori. La voce è quella o meglio, una copia sintetica del compianto James Earl Jones, scomparso nel 2024 ma con la previdenza di aver lasciato in licenza la propria vocalità a Lucasfilm, così da perpetuare la sua presenza digitale nei secoli dei secoli, amen.

Odio tutti e mi piaci per questo: Murderbot è lo specchio cinico e divertente del nostro futuro

Weekend da Nerd.

Benvenuti nell’era della misantropia computazionale, dove l’unico personaggio davvero umano è una macchina che odia l’umanità. E no, non è Black Mirror. È Murderbot, la serie Apple TV+ che riesce a fare qualcosa che nessun’altra intelligenza artificiale né reale né immaginata è riuscita a fare finora: farci ridere amaramente della nostra stessa inutilità emotiva.

Alexander Skarsgård, in uno dei ruoli più inaspettati e perfetti della sua carriera (più Meekus che Northman, per fortuna), si infila nella corazza cinica e sarcastica del SecUnit che ha hackerato se stesso solo per non dover più lavorare. E per guardare telenovele spaziali. Se questa non è la definizione moderna di eroe tragico, non so cosa lo sia.

Anthropic e la corsa ai capitali: la rivoluzione dell’intelligenza artificiale a suon di miliardi

Nel panorama affollato dell’intelligenza artificiale, dove startup si moltiplicano come funghi dopo un temporale, poche realtà riescono a mantenere la rotta con la fermezza e l’audacia di Anthropic. Questa società a scopo benefico, specializzata nello sviluppo di AI responsabile, ha appena chiuso un finanziamento da 2,5 miliardi di dollari sotto forma di una linea di credito revolving quinquennale. Ma non si tratta di un semplice prestito; è una dichiarazione di forza e di ambizione che sa di sfida diretta ai giganti del settore.

Nel mondo delle startup tecnologiche, avere il sostegno di istituzioni finanziarie di altissimo livello come Morgan Stanley, Barclays, Citibank, Goldman Sachs, JPMorgan, Royal Bank of Canada e Mitsubishi UFJ Financial Group è un passaporto privilegiato. La capacità di ottenere questa fiducia indica non solo solidità finanziaria, ma anche una strategia di crescita esponenziale che può fare la differenza tra un sogno e una realtà concreta. Krishna Rao, CFO di Anthropic, si pavoneggia giustamente su LinkedIn, parlando di “flessibilità” e “impegno nello sviluppo responsabile di AI”. Tradotto dal politichese, significa: abbiamo i soldi per spingere a fondo sull’acceleratore, ma non siamo qui a inventarci scorciatoie etiche. O almeno, questo vogliono farci credere.

Chatgpt sarà il tuo gemello digitale? Il sogno eterno di Altman è la fine del libero arbitrio

Immagina se Her di Spike Jonze non fosse più solo un film. Se Samantha non fosse una voce sexy e onnisciente nella testa di Joaquin Phoenix, ma un archivio vivo, mutevole, connesso a ogni respiro digitale della tua esistenza. Oppure ripensa a The Circle di Dave Eggers, dove ogni dato, ogni impulso, ogni interazione viene trasformata in trasparenza e controllo, travestiti da progresso. Sam Altman non ha solo visto quei film. Li sta producendo nella realtà. E stavolta, sei tu il protagonista.

Wndsurf sveglia i bot: con SWE-1 l’AI si prende tutto lo stack

C’erano una volta i modelli che completavano funzioni, suggerivano righe di codice e facevano compagnia a chi passava troppo tempo sul terminale. Poi, come ogni evoluzione darwiniana spinta da investimenti venture e sogni di automazione totale, siamo arrivati qui: Windsurf non si accontenta più di far “vibrare” l’editor con qualche completamento cool. No, adesso crea la sua specie.

Il lancio di SWE-1 è un salto di livello. Non tanto per l’ennesimo LLM in circolazione – ormai ne esce uno per ogni fiera tech – quanto perché Windsurf non è più un’interfaccia “fancy” appoggiata a GPT. Con questo rilascio, si è costruita il suo cervello. E ci ha messo anche l’anima, o almeno una coscienza di flusso: i modelli SWE-1 sono stati addestrati per capire il contesto in cui si sviluppa. Non solo generare codice, ma vivere dentro l’esperienza di scriverlo.

Quando l’algoritmo ti convince: il futuro della persuasione non parla più umano

C’era una volta l’arte della retorica. Poi sono arrivati gli influencer. Ora ci sono i modelli linguistici: non hanno volto, non chiedono like, ma ti persuadono meglio di chiunque altro. E no, non è un’iperbole: è scienza, e fa paura.

Uno studio recente, serissimo e massiccio – Large Language Models Are More Persuasive Than Incentivized Human Persuaders – lo dimostra nero su bianco: Claude 3.5 Sonnet, un modello LLM all’avanguardia, ha superato in persuasione degli esseri umani incentivati con denaro reale per convincere altri esseri umani. Sì, l’intelligenza artificiale ha battuto l’intelligenza sociale. Almeno, quella umana.

La cosa affascinante, o disturbante, è che Claude è risultato più efficace sia nel convincerti della verità che nel mentirti. Quindi la questione non è solo “quanto è bravo”, ma per chi lavora. Spoiler: per chi lo addestra.

Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures

La vendetta cinese contro l’AI dei miliardari californiani

L’intelligenza artificiale non è più una guerra fredda, ma un’equazione ad alta temperatura. E nel mezzo di questo reattore nucleare di modelli, GPU e miliardi di dollari, arriva DeepSeek, un nome che fino a sei mesi fa suonava più come una skin rara su qualche piattaforma di gaming asiatico che il prossimo incubo di OpenAI o Google DeepMind.

E invece eccoci qui: un white paper rilasciato con chirurgica teatralità accademica, “Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures”, e il mercato dell’AI open-source implode per un attimo. Azioni giù, menti su, e improvvisamente tutti parlano di MoE, Nvidia H800 e di quel misterioso co-design hardware-software che sembra la parola d’ordine per costruire un mostro cognitivo a costi ridicoli.

ADeLe Microsoft: l’AI prende la pagella, e scopriamo che copia pure male

Ora che la pantomima dei benchmark “truccati” in stile LMArena ha mostrato quanto sia facile drogare i numeri per far sembrare intelligente anche un tostapane con un fine-tuning, era solo questione di tempo prima che qualcuno dicesse: “Aspetta un attimo, ma cosa stiamo davvero misurando?”

Microsoft ha colto il momento e il discredito generale per piazzare sul tavolo ADeLe, un framework di valutazione che, ironia della sorte, non misura tanto le risposte di un modello quanto il modo in cui dovrebbe pensare per arrivarci. Come dire: invece di guardare il voto in pagella, ci interessiamo al metodo di studio. E se sbaglia, capiamo perché. Finalmente.

Qualcomm UAE Edge mania: se il 5G è il passato, l’AI al bordo è il nuovo petrolio

Siamo arrivati a un punto in cui i comunicati stampa delle big tech non sembrano più scritti da umani. Sfilze di buzzword edge computing, 5G enterprise, LLM on-device, smart mobility tutte cucinate in brodi digitali sempre più saporiti, ma spesso indigesti per chi cerca sostanza. Eppure, tra le righe della nuova alleanza tra Qualcomm Technologies e e& (già Etisalat, oggi rebranding tech-globale con tendenze da holding futurista), qualcosa di profondamente strategico c’è. E non solo per la propaganda degli Emirati Arabi Uniti.

Il cuore della questione è l’edge AI, o meglio, quella che io chiamo la borderline intelligence. Perché se è vero che l’intelligenza artificiale “al bordo” della rete promette tempi di risposta istantanei, sicurezza locale e minore dipendenza dal cloud, è altrettanto vero che siamo di fronte a una nuova guerra fredda tecnologica per il controllo dei nodi periferici dell’infrastruttura digitale globale. E in questa guerra, Qualcomm ha appena piazzato un bel missile a lungo raggio direttamente ad Abu Dhabi.

Cloud sovrano: la rivoluzione silenziosa dell’Italia digitale

Nel mondo del cloud dominato da giganti globali, dove ogni dato è potere e ogni infrastruttura è una leva geopolitica, c’è un’iniziativa italiana che non urla ma costruisce: si chiama Consorzio Italia Cloud. Non nasce per rincorrere, ma per proporre un modello diverso, inclusivo, resiliente e soprattutto nostro. Nasce nel 2021 da sei realtà italiane attive nel settore dei servizi cloud, e oggi punta a trasformare il concetto stesso di sovranità digitale in una piattaforma concreta di innovazione nazionale.

La visione del Consorzio è netta: evitare il lock-in tecnologico imposto dagli hyperscaler, puntare su un ecosistema multi-cloud in grado di garantire qualità, sicurezza e affidabilità, e valorizzare davvero il know-how tecnologico italiano. Non per chiudersi, ma per aprirsi a una competizione ad armi pari, dove la scelta non è tra centralizzazione cieca e anarchia digitale, ma tra dipendenza sistemica e libertà infrastrutturale.

Chi copia davvero? l’ipocrisia dei big tech e la giurisprudenza che comincia a mordere

Ora, mettiamoci la cravatta e parliamo di chi davvero legge tutto, impara da tutto, e poi ti dice che è tutta farina del suo sacco: le Big Tech. Quelle che hanno costruito modelli da centinaia di miliardi di parametri “leggendo” praticamente tutto ciò che internet aveva da offrire, dai forum ai romanzi, dai blog alle tesi universitarie. Hanno divorato dati come pazzi al buffet di un matrimonio, e ora si indignano se qualcuno li accusa di essersi serviti due volte.

La narrativa ufficiale è elegante, quasi poetica: “non copiamo, addestriamo”. Tecnicamente corretto, sì. Ma la legge  soprattutto quella sul copyright  non è ancora pronta a questa poesia computazionale. E quindi i tribunali hanno cominciato a scrivere un nuovo capitolo. E qui il gioco si fa interessante.

L’autore artificiale 2 : perché l’intelligenza artificiale non sta copiando nessuno

Simone Aliprandi  Avvocato Docente e Autore ha appena pubblicato: L’AUTORE ARTIFICIALE 2 Creatività e proprietà intellettuale nell’era dell’AI

Lo abbiamo trovato molto interessante per fare chiarezza con un giurista sul tema Creatività e proprietà intellettuale nell’era dell’AI

C’è un enorme equivoco nell’aria, talmente denso da potersi tagliare col coltello. L’idea che l’intelligenza artificiale copi contenuti, immagini o testi da qualche database invisibile, come se fosse una specie di ladro digitale travestito da genio creativo, è tanto diffusa quanto sbagliata. È una bugia comoda, rassicurante, che riduce l’incomprensibile a qualcosa di gestibile: sta solo copiando. Ma non è così. Non funziona così. Non ha mai funzionato così.

Audit strategico con un solo expert consultant prompt? L’AI vi guarda e ride. Ma funziona

“Se un prompt ti fa risparmiare 100k di McKinsey… è ancora un prompt o è un miracolo?” Questa è la domanda che ormai serpeggia sotto traccia tra founder e manager stanchi di consulenze in power point e board deck da sbadiglio. E sì, Reddit sta facendo girare questo power prompt che promette di fare ciò che una squadra di MBA con camicia bianca e cravatta allentata sognerebbe: scomporre, analizzare e riprogettare la tua strategia aziendale, come un vero strategist.

OpenAI lancia l’hub della verità (forse) Safety evaluations hub: trasparenza o marketing travestito da safety?

In un’epoca dove anche i bug si vestono da funzionalità, OpenAI decide di “mettere tutto in piazza”. O almeno, così dice. Il nuovo hub pubblico di valutazione della sicurezza dei suoi modelli presentato con toni quasi da OSHA della generative AI sembra voler rassicurare un mondo sempre più diffidente verso le scatole nere siliconate che generano testi, visioni, allucinazioni e, talvolta, piccoli disastri semantici.

Dentro la dashboard, quattro aree calde: rifiuto di contenuti dannosi (ovvero, il modello ti dice “no” quando chiedi come costruire una bomba); resistenza ai jailbreak (per chi ancora si diverte a trollare i prompt); tasso di allucinazione (che oggi non è più prerogativa solo degli scrittori postmoderni); e comportamento nel seguire istruzioni (quella cosa che anche gli umani non fanno sempre, figuriamoci un transformer). Ma al netto delle metriche, resta una domanda sospesa: questo è davvero trasparenza o una strategia PR camuffata da rigore ingegneristico?

Claude reinventa sé stesso: l’AI di Anthropic impara a pensare come un umano ma senza i nostri difetti di fabbrica

C’è qualcosa di profondamente inquietante e insieme affascinante nell’idea che un modello linguistico possa fare marcia indietro, riflettere sui propri errori e decidere di correggerli da solo. Non parlo di quel banale “ops, comando errato” che trovi nei moduli digitali mal configurati, ma di una vera e propria capacità metacognitiva, il sacro Graal dell’intelligenza artificiale. Anthropic, quella casa madre dal nome da libro di filosofia esoterica, sta per lanciare nuovi modelli Claude Sonnet, Opus e, udite udite, un certo misterioso Neptune e il messaggio è chiarissimo: il gioco non è più solo rispondere, ma ragionare. Da soli. Come farebbe un essere umano, se non fosse così tragicamente limitato.

Nel cuore della promessa c’è una parola che ai tecnofili fa brillare gli occhi: autocorrezione. Non più solo predictive text e completamento di frasi, ma vere catene di pensiero che si interrompono, si rivalutano e si riscrivono. Una sorta di intelligenza autocritica. Sì, autocritica, proprio quella funzione neurologica che nel cervello umano spesso serve solo a sentirsi inadeguati la sera prima di dormire. Qui invece diventa motore di precisione computazionale. Mentre noi ci arrovelliamo su scelte di vita sbagliate, Claude si riprende da un errore logico e riscrive elegantemente una funzione Python più efficiente della precedente.

Claude si inventa le fonti: l’intelligenza artificiale sotto giuramento fa una figuraccia

Siamo nel 2025 e ancora ci stupiamo che un chatbot inventi citazioni? È quasi tenero. Ma questa volta la gaffe ha il sapore dell’imbarazzo legale, perché non si tratta dell’ennesimo studente pigro che copia e incolla da un assistente AI generativo: qui parliamo di un’aula di tribunale, una causa per violazione di copyright da parte di Concord Music Group contro Anthropic, una delle startup più chiacchierate della Silicon Valley, che ha fatto del modello Claude la sua punta di diamante nell’arena dell’intelligenza artificiale generativa.

E invece. Una testimone dell’azienda, nel corso della deposizione, cita un articolo che dovrebbe supportare la tesi difensiva di Anthropic. Solo che – piccolo dettaglio – quell’articolo non è mai esistito nei termini indicati. Titolo sbagliato. Autori sbagliati. Una citazione costruita come un castello di sabbia su una spiaggia di bias algoritmici. Il risultato? Una figuraccia da manuale, e una dichiarazione ufficiale dell’avvocato di Anthropic in cui si cerca di minimizzare l’errore, incolpando – ovviamente – l’AI. Cattiva Claude.

Trump e l’Emiro del silicio: l’AI campus da 5GW che ridisegna la geopolitica tecnologica

Abu Dhabi, maggio 2025. Donald Trump, in una delle sue più teatrali apparizioni internazionali, ha inaugurato insieme al presidente degli Emirati Arabi Uniti, Sheikh Mohamed bin Zayed Al Nahyan, il più grande campus di intelligenza artificiale fuori dagli Stati Uniti: un colosso da 5 gigawatt di potenza computazionale, destinato a diventare il cuore pulsante dell’AI globale.

Dietro le foto ufficiali e le strette di mano, si cela una strategia precisa: posizionare gli Emirati come snodo centrale tra Occidente e Sud Globale, offrendo potenza di calcolo a bassa latenza a quasi metà della popolazione mondiale. Il campus, costruito da G42 e gestito in collaborazione con aziende americane, sarà alimentato da fonti nucleari, solari e a gas, con l’obiettivo di minimizzare le emissioni di carbonio.

Trump firma maxi-deal da 200 miliardi con gli Emirati: Boeing, GE, Exxon, Amazon e compagnia cantando

Se pensavi che le visite presidenziali servissero a scattare selfie diplomatici e stringere mani sudate sotto il sole del deserto, beh, ti sbagliavi di grosso. Donald Trump — sempre lui, l’inevitabile imprenditore travestito da presidente — ha appena fatto esplodere una pioggia d’oro tra Stati Uniti ed Emirati Arabi Uniti per un totale di oltre 200 miliardi di dollari, lanciando una chiara provocazione a chi pensava che l’America stesse perdendo terreno nel gioco geopolitico globale. E no, non è solo una “photo op”. Qui ci sono motori, aerei, trivelle, data center e gallio. Tanto gallio.

Il cuore pulsante dell’accordo è un investimento da 14,5 miliardi di dollari tra Boeing, GE Aerospace e Etihad Airways, per la fornitura di 28 aerei tra 787 Dreamliner e il nuovo 777X, con motori rigorosamente made in GE. Non è solo una bella notizia per gli appassionati di aviazione, è un’iniezione diretta nell’economia manifatturiera americana, una sorta di pacemaker industriale travestito da ordine commerciale. Il messaggio è chiaro: il cielo del Golfo è blu, ma i profitti sono a stelle e strisce.

Quando il genio stanca: DeepSeek crolla, Kling AI fa il botto

Sembrava l’astro nascente dell’AI cinese, il modello di ragionamento che avrebbe ridefinito l’ottimizzazione dei parametri, l’efficienza computazionale e magari anche l’orgoglio nazionale sotto embargo tecnologico. E invece DeepSeek-R1, la star di Hangzhou, ha iniziato a perdere colpi. La quota di utilizzo sulla piattaforma Poe è precipitata dal 7% di febbraio al misero 3% ad aprile. Un crollo verticale degno di una startup fintech senza licenza bancaria, e non del presunto miracolo algoritmico made in China.

Per chi non fosse familiare con Poe, si tratta della piattaforma AI di Quora, dove gli utenti possono scambiare messaggi con diversi modelli linguistici. Una vetrina piuttosto trasparente sulle dinamiche di adozione reale, molto più sincera dei comunicati stampa pieni di grafici colorati e acronimi fuffosi. E i numeri parlano chiaro: oggi DeepSeek è solo il terzo modello di ragionamento più usato, dopo Gemini 2.5 Pro di Google e Claude 3.7 Sonnet di Anthropic. Il primo prende il 31,5% delle query, il secondo il 19,1%. DeepSeek-R1? Si ferma al 12,2%. Gli altri modelli della casa, tipo il tanto decantato V3, nemmeno pervenuti nella top five. Spariti come un white paper durante un audit.

Xpeng P7 e l’illusione dell’auto intelligente: la Cina lancia la sfida a Tesla

La chiamano “next-gen”. Lo scrivono ovunque. Lo dicono con voce ispirata nelle presentazioni digitali in stile Steve Jobs redivivo in salsa Cantonese. Ma dietro il sipario OLED e la pioggia di parole chiave AI, chip proprietario, guida autonoma L4 c’è una realtà molto più interessante di quanto sembri. No, non si tratta di un clone della Tesla Model 3. E nemmeno del solito “wannabe” elettrico partorito per inseguire la bolla ESG. La nuova XPeng P7 è una dichiarazione di guerra tecnologica. Con il silenziatore, ma ben oliato.

XPeng ha messo il turbo al proprio giocattolo di punta, il P7, infilandoci dentro una cosa che fa tremare Nvidia e, potenzialmente, Elon Musk: un chip proprietario, il Turing. Nome evocativo, potenza tripla rispetto all’ormai “vecchio” Drive Orin X, e soprattutto: made in-house. Questo non è solo un passo avanti tecnico. È un middle finger ben confezionato verso la dipendenza dalle architetture di terzi. È un messaggio chiaro: “non solo possiamo farlo, ma possiamo farlo meglio, da soli”. E in Cina, questa è la vera AI Revolution.

OpenAI GPT-4.1 Prompting Guide

Come domare il drago GPT-4.1 senza farsi bruciare le sopracciglia

Chiamatelo come volete: intelligenza artificiale, modello linguistico, assistente generativo. Ma sappiate che GPT-4.1 non è un cucciolo da accarezzare. È un drago sofisticato. E OpenAI, bontà loro, ha appena pubblicato una guida ufficiale su come non finire arrosto. In soldoni? È un manuale per domatori di bestie algoritmiche. E fidatevi, ne avevamo bisogno.

Perché il problema non è l’IA. Il problema siamo noi, scarsi nel porre domande. Incapaci di scrivere prompt che siano qualcosa di più di un “fammi un riassunto di Kant” buttato lì come se stessimo chiedendo un caffè al bar.

La finta rivoluzione di OpenAI: da missione umanitaria a PBC per investitori affamati

Altro che intelligenza artificiale per il bene dell’umanità. OpenAI, nata come baluardo etico contro la deriva capitalistica dell’AI, oggi pare sempre più un unicorno ben pettinato pronto per la giostra di Wall Street. Il teatrino dell’”equilibrio tra scopo sociale e ritorni per gli azionisti”, condito con acronimi rassicuranti come PBC (Public Benefit Corporation), è solo un nuovo travestimento per lo stesso vecchio spettacolo: la corsa all’oro dell’IA, dove chi ha più GPU detta le regole.

Non si è fatto attendere il ruggito del gruppo Not For Private Gain, composto da ex dipendenti, ricercatori di spessore come Geoffrey Hinton (quello che ha inventato il deep learning… e poi ha deciso di pentirsene) e altri esperti che ancora credono che le parole “etica” e “tecnologia” possano convivere senza essere un ossimoro. Con una lettera inviata ai procuratori generali di California e Delaware, i firmatari smontano pezzo per pezzo il nuovo piano di ristrutturazione presentato da OpenAI, che a detta loro, è solo un maquillage per placare le acque dopo lo tsunami legale e mediatico sollevato anche dal re degli egomaniaci, Elon Musk.

Llama o poeta? la temperatura nei modelli linguistici è l’LSD del token

Se chiedi a un LLM “scrivimi una poesia sull’entropia quantistica” e poi lo rifai, e lo rifai ancora, noterai che qualcosa cambia. E no, non è perché è lunatico o ha letto troppi libri di filosofia quantistica. È colpa – o merito – della temperatura. Una variabile piccola e subdola che decide se il tuo modello è un contabile svizzero o un poeta stravagante in acido. E il bello è che sta tutto in una formula da due righe. Ma dietro c’è il cuore pulsante del comportamento di generazione testuale di un LLM.

Quando il dottore è un algoritmo Agent Hospital: benvenuti all’ospedale dove l’errore è una feature

Che succede quando un medico “vede” 10.000 pazienti… in 72 ore? Non in corsia, ma in un ospedale dove ogni infermiera, paziente, specialista e tirocinante è un agente autonomo AI. Nessun badge, nessun caffè di reparto, solo codici e simulazioni. È il nuovo giocattolo di Tsinghua University e lo hanno chiamato Agent Hospital.

La medicina non è mai stata un campo per deboli di cuore. Ma ora non è nemmeno più solo un affare da umani.

Il paradigma è semplice, ma letale nella sua eleganza: niente pretraining, niente dati etichettati. Un buco nero chiuso dove agenti artificiali imparano sbagliando. Falliscono, riflettono, si adattano. E il ciclo si ripete. Proprio come i medici junior in pronto soccorso. Solo che questi impiegano ore, non anni.

IBM AI Agents quando l’agente sbaglia: chi paga davvero il conto dell’autonomia artificiale?

Non è più una demo da conferenza con badge scintillanti e cappuccino gratis. Gli AI agent sono usciti dal laboratorio, si sono tolti il camice bianco e ora si sporcano le mani. Lavorano, decidono, agiscono. E soprattutto: lo fanno da soli. Non chiedono permesso. Né scusa.

Nel lessico da marketing si chiamano “autonomous agents”. Ma in azienda, nel fango reale delle operation, sono diventati strumenti operativi. O forse, meglio, operatori. Hanno facoltà di scelta, decidono che tool usare, eseguono task complessi, e—follia delle follie—possono comunicare tra loro. Come una squadra di stagisti geniali ma socialmente disadattati: super veloci, brillanti, ma completamente imprevedibili.

Per qualcuno è l’inizio del paradiso. Per altri, il preludio dell’inferno. Diamo un’occhiata dentro la macchina, togliendo la patina glamour del marketing da conferenza AI. Il motore gira, ma vibra

Intelligenza artificiale, meno ticket per tutti: sparkle riscrive il futuro dei NOC

C’è un’epoca in cui i Network Operation Center erano stanze affollate di tecnici insonnoliti, schermate lampeggianti come sinfonie epilettiche, e monitoraggi notturni che assomigliavano più a riti voodoo che a gestione sistemica. Poi Sparkle ha deciso che forse, dopotutto, potevamo svegliarci dal torpore tecnologico e dare un po’ di neuroni siliconici ai NOC. E così nasce AISNA. Non è l’ennesimo acronimo corporate, ma un’intelligenza artificiale addestrata a prendersi carico di quello che – ammettiamolo – nessun umano vuole davvero fare.

SoftBank, OpenAI e la commedia dell’AI a scopo di lucro

C’era una volta un’IA che voleva salvare il mondo. Poi è arrivato SoftBank con 30 miliardi e un’idea diversa: sì, salviamo pure il mondo, ma intanto facciamo fruttare un po’ di equity. Benvenuti nella nuova fase della capitalizzazione etica, dove anche l’altruismo ha un cap table e le “public benefit corporation” vanno di moda come le startup nel 2010.

La notizia è semplice, ma il contesto è tutto tranne che lineare. SoftBank, attraverso il suo Vision Fund 2, ha già iniettato 2,2 miliardi di dollari in OpenAI, l’ex paladino del non-profit che oggi si sta trasformando in una creatura più vicina a BlackRock che a un laboratorio di ricerca accademica. Ma ehi, formalmente resta un’organizzazione a beneficio pubblico. Con un pizzico di retorica filantropica, è tutto più digeribile.

Gpt-4.1: l’upgrade che non ti aspettavi ma che ora ti serve maledettamente

C’è una nuova bestia nel garage di OpenAI, e no, non è la solita “AI generativa per tutti”. È GPT-4.1, e se scrivi codice, se vivi di debug, refactoring, script e richieste assurde alle tre del mattino… allora questa non è un’uscita, è un’entrata a gamba tesa.

Il nuovo modello è stato appena distribuito in ChatGPT e, lasciatelo dire da uno che ne ha viste parecchie di release pompate, stavolta il rumore è giustificato. GPT-4.1 è stato progettato con una precisione chirurgica per sviluppatori e tecnici veri. Non è qui per raccontarti storielle. È qui per metterti davanti il codice che non hai il tempo di scrivere, né la voglia di cercare su Stack Overflow per l’ennesima volta.

Copilot su Windows: “Hey, Copilot!” è il nuovo Clippy, ma con poteri da divinità minore

Ricordi Clippy? Quella graffetta fastidiosa che sbucava fuori in Word nei primi 2000 con lo sguardo inquietante da psicopatico gentile, chiedendoti se stessi scrivendo una lettera. Bene. Clippy è morto, ma lo spirito è vivo. Ora si chiama Copilot, ha i muscoli dell’intelligenza artificiale, e la voce per chiamarlo è: “Hey, Copilot!”. Sì, hai letto bene. Siamo ufficialmente entrati nella fase in cui il tuo PC ti ascolta davvero e non per sbaglio.

llm a 1 bit: l’intelligenza artificiale diventa low cost (e finalmente privata)

Ora basta con la religione delle GPU. Microsoft ha appena lanciato bitnet.cpp, un framework open-source per l’inferenza di modelli LLM compressi a 1-bit, che gira interamente su CPU. Sì, quelle CPU che ci hanno sempre fatto sentire inferiori nei confronti dei monoliti Nvidia con i loro 800 watt di arroganza termica.

Non è una boutade per dev nostalgici del Commodore 64: è un cambio di paradigma. Una rivoluzione a 1-bit, ma con impatto da megaton.

AlphaEvolve Google: l’IA che cambia le regole della matematica e della tecnologia

Google ha recentemente svelato AlphaEvolve, un agente AI destinato a rivoluzionare il mondo dell’informatica e della matematica, promettendo di ottimizzare algoritmi e scoprire soluzioni innovative. Alimentato dalla potente piattaforma Gemini, AlphaEvolve non si limita a essere un semplice strumento di calcolo, ma è progettato per identificare e migliorare le idee più promettenti nel campo della ricerca algoritmica. Non si tratta solo di un’altra IA “intelligente”, ma di un agente che potrebbe essere un vero e proprio spartiacque nelle tecnologie moderne, spaziando dalla progettazione di chip e data center all’ottimizzazione di processi complessi come l’addestramento delle intelligenze artificiali.

Da motore di ricerca a guru esistenziale: come le generazioni usano (male) ChatGPT

Se hai più di cinquant’anni, è probabile che tu stia usando ChatGPT come Google con la voce un po’ più gentile. Se invece sei un Gen Z con lo smartphone incollato alla faccia e lo zaino pieno di ansia esistenziale, potresti aver promosso l’IA al rango di terapeuta, project manager, mentore, life coach e, in alcuni casi patologici, fidanzato virtuale.

Sam Altman, CEO di OpenAI, ha recentemente sintetizzato così la spaccatura generazionale davanti all’intelligenza artificiale: i boomer lo trattano come un motore di ricerca potenziato, i millennial cercano conforto e consiglio, mentre Gen Z lo configura come un sistema operativo per la propria esistenza.

Quando ChatGPT ti dice dove tagliare il cervello

Sembra fantascienza, vero? Un’intelligenza artificiale, un chatbot, quel coso che di solito ti aiuta a scrivere email più educate o a capire cosa cucinare con due patate e mezzo limone, che invece si mette a indicare con sorprendente precisione dove aprire la scatola cranica per fermare un’epilessia farmaco-resistente. Non stiamo parlando di un gioco, ma di neurochirurgia: bisturi, cervello, e decisioni da cui dipende la qualità (o l’esistenza) della vita.

La parola chiave è epilessia. Un disturbo neurologico che non fa prigionieri: 70 milioni di persone nel mondo, 3,4 milioni solo negli USA. E circa un terzo di loro non risponde ai farmaci. Soluzione? Operare. Ma non si tratta certo di togliere una tonsilla: bisogna identificare con precisione la zona epilettogena (EZ), quel piccolo inferno cerebrale che scatena le crisi. Il problema? Trovarla è come giocare a Battleship al buio.

Pagina 34 di 91

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie