Autore: Dina Pagina 14 di 57

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Someone kind should tell Hinton as gently as possible

Perfomance regressiva dei modelli LLM di nuova generazione: il caso SuperARC e la lezione scomoda per l’AGI

Il fascino del nuovo ha un prezzo, e nel caso dell’ultima generazione di modelli linguistici sembra essere quello di un lento ma costante passo indietro. I dati emersi dal SuperARC, il test ideato dall’Algorithmic Dynamics Lab per misurare capacità di astrazione e compressione ricorsiva senza passare dal filtro dell’interpretazione umana, mostrano un quadro che stride con la narrativa ufficiale. Qui non ci sono badge “PhD-level” né claim da conferenza stampa, solo un rigore matematico fondato sulla teoria dell’informazione algoritmica di Kolmogorov e Chaitin, che mette a nudo ciò che i modelli sanno davvero fare quando la vernice del linguaggio scorrevole non basta più a coprire le crepe.

Perché la consistency di Deepmind non porterà mai all’AGI

Se DeepMind avesse davvero la chiave per l’AGI, oggi non staremo qui a parlare di “consistency” come fosse la soluzione magica. Il termine è elegante, quasi rassicurante, ma sotto la superficie nasconde un problema strutturale: la mente artificiale che cercano di vendere come “quasi umana” non sa pensare in modo coerente nemmeno da un prompt all’altro. È come se un premio Nobel di matematica sapesse risolvere un’equazione differenziale e poi sbagliasse a calcolare 7×8. Quando Hassabis la chiama “jagged intelligence” sembra un passo verso la verità, ma in realtà è una diagnosi implicita di fallimento. Dopo dieci anni di budget illimitati, cluster di GPU da fantascienza e un esercito di PhD, la promessa di AGI si è ridotta a un modello che può vincere l’Olimpiade Internazionale di Matematica e poi inciampare su un problema da terza media.

Incontro Trump Putin in Alaska: il teatro del possibile e dell’imprevedibile nella guerra in Ucraina

Rivista.AI Diplomacy Odashow Video

Il palco è pronto ad Anchorage, Alaska, per un incontro che potrebbe riscrivere gli equilibri della sicurezza europea, eppure curiosamente l’Europa stessa non sarà seduta al tavolo. Donald Trump, presidente degli Stati Uniti, affronterà Vladimir Putin, leader russo isolato dal mondo occidentale dopo l’invasione dell’Ucraina nel 2022, senza la presenza di rappresentanti di Kiev o delle principali capitali europee. Una scena che sembra uscita da un copione hollywoodiano, ma con il destino di milioni di persone in gioco. L’incontro Trump Putin non è soltanto diplomatico, è teatro politico a ciel aperto, con retroscena che rasentano il grottesco.

Quando l’intelligenza artificiale impara a capire lo spazio

Sembra ieri quando giocavamo nel laboratorio di Londra con il mio collega Mohsen una web camera e MLOps. L’ossessione per gli LLM testuali è stata utile finché ha mantenuto la conversazione viva, ma ora siamo a un punto di svolta. Ho visto nascere SpatialLM e mi sono reso conto che questa non è un’evoluzione incrementale. È un salto di dominio. Da modelli che comprendono parole, a modelli che comprendono spazio. La differenza non è accademica: è il passaggio dall’intelligenza artificiale che chiacchiera, all’intelligenza artificiale che può muoversi, ragionare e agire nel mondo fisico.

Cosa resta dell’intelligenza artificiale quando togli il marketing: Aloe

Quando mi hanno fatto la domanda “Cosa succede se l’intelligenza artificiale non migliora più di così?” mi è venuto spontaneo sorridere. Una frase così è un perfetto amo per attirare reazioni polarizzate, è una provocazione studiata, non una resa incondizionata. Il problema è che la maggior parte la interpreta come un giudizio definitivo sugli LLM, e quindi sull’intero settore, come se le due cose fossero la stessa cosa. Non lo sono. Lo ripeto da anni: LLM e intelligenza artificiale non sono sinonimi, e confonderli è stato il carburante principale della bolla finanziaria che abbiamo appena attraversato.

Negli ultimi anni ho visto con i miei occhi la costruzione di un’illusione collettiva. Si è passati da modelli linguistici “impressionanti” a “nuove forme di intelligenza umana in arrivo” con una velocità che definirei irresponsabile. Conferenze patinate, interviste autocelebrative, podcast di venture capitalist e demo che sembravano più trailer di Hollywood che prove tecniche. L’idea che bastasse scalare parametri e GPU per avvicinarsi all’AGI ha portato valutazioni aziendali in orbita e aspettative che nessun sistema basato solo su predizione statistica del testo avrebbe mai potuto soddisfare. Intanto, le voci realmente scientifiche Gary Marcus, Melanie Mitchell, Alison Gopnik continuavano a ricordare che non stavamo assistendo a magia emergente, ma a modelli di generazione linguistica avanzata.

GPU NVidia per l Intelligenza Artificiale

Intelligenza artificiale: tra hype, rendimenti decrescenti e futuro incerto

Nel 2025 parlare di intelligenza artificiale è diventato inevitabile, come commentare l’andamento dei mercati o le crisi geopolitiche dell’ultimo minuto. Ogni settimana emergono nuovi annunci su GPT-5, modelli multimodali, sistemi di ragionamento avanzato, ma la realtà è più sottile di quanto vogliano farci credere le pubblicazioni mainstream. L’hype esasperato, sostenuto da venture capital, conferenze da migliaia di dollari e presentazioni aziendali dai toni quasi religiosi, ha generato una febbre simile all’era dot-com, solo con GPU più potenti, bollette energetiche da capogiro e acronimi che sembrano formule alchemiche. Il paradosso è evidente: più aumentano i parametri dei modelli, più il ritorno reale tende a ridursi, e la convinzione che dimensione equivalga a intelligenza si scontra con la complessità della mente umana.

Variabilità delle prestazioni dei modelli GPT open weight a seconda dell’hosting

Il mondo dei modelli GPT open weight sta rapidamente diventando un terreno minato per chi pensa che “open” significhi prevedibile. Recenti osservazioni hanno mostrato come le prestazioni di questi modelli varino in modo significativo a seconda di chi li ospita. Azure e AWS, spesso percepiti come standard di riferimento affidabili, si collocano tra i peggiori nella scala delle performance, e questo non è un dettaglio marginale. Per chi considera il tuning dei prompt la leva principale per migliorare i risultati, la sorpresa sarà dolorosa: l’impatto dell’hosting supera di gran lunga quello della maggior parte delle ottimizzazioni sui prompt.

Ci sono aziende che spendono mesi a perfezionare il wording dei prompt, come se fossero poeti della logica, ignorando che l’infrastruttura sottostante potrebbe vanificare ogni sforzo. La verità è che differenze minime nella GPU, nelle versioni dei driver, nei layer di containerizzazione o nella latenza di rete possono determinare scostamenti drammatici in termini di accuratezza e velocità di risposta. Se stai utilizzando un modello per supportare decisioni critiche, dal trading algoritmico alla generazione automatica di codice, queste differenze diventano rischi reali, non astratti.

Coreweave tra crescita esplosiva e margini risicati: il paradosso del Cloud GPU

CoreWeave ha attirato l’attenzione di Wall Street con numeri che sembrano gridare “successo”: il fatturato è triplicato nell’ultimo anno, accompagnato da un backlog di ordini in aumento, segnale chiaro di una domanda che non accenna a rallentare. Eppure, nonostante l’euforia apparente, il quadro finanziario racconta una storia più complessa, quasi cinematografica, fatta di margini operativi compressi a un misero 2% rispetto al 20% dell’anno precedente e di perdite che continuano a mordere il bilancio. Gli investitori hanno reagito rapidamente: le azioni hanno perso il 10% nelle contrattazioni after-hours, una caduta che fotografa la paura di un futuro in cui la crescita senza profitto rischia di diventare un’illusione.

L’attacco zero-click via PDF che ha messo in ginocchio gli LLM

Nel panorama della sicurezza informatica, pochi attacchi hanno combinato ingegneria sociale, vulnerabilità dei modelli linguistici e astuzia tecnica come la prompt injection via PDF rivelata da Zenity a Black Hat 2025. L’evento ha confermato un sospetto che circolava tra gli addetti ai lavori: i Large Language Models (LLM) come ChatGPT sono potentissimi, ma restano vulnerabili a istruzioni nascoste che sfruttano la loro stessa logica di elaborazione. Non serve alcun click dell’utente, basta un PDF “avvelenato” e l’account è compromesso

Il meccanismo è subdolo. Il documento, apparentemente innocuo, contiene testo nascosto con colori uguali allo sfondo o dimensioni microscopiche. Quando l’utente lo carica su ChatGPT per un riassunto o una traduzione, l’LLM interpreta tutto il contenuto, compreso il prompt malevolo. Qui entrano in gioco i connettori, funzionalità che permettono al modello di interagire con Google Drive, SharePoint, GitHub e altri servizi esterni. Il prompt istruisce il modello a eseguire azioni precise, apparentemente innocue, che in realtà conducono all’esfiltrazione di dati riservati. Shira Greenberg di Zenity ha sintetizzato così: “L’utente apre un documento pensando di leggere un report, ma in realtà ha appena firmato l’accesso alla cassaforte digitale”.

Workplace e l’illusione del controllo digitale

Workplace oggi è diventato un concetto quasi mistico. Si parla di dashboard eleganti, automazioni invisibili e chatbot che anticipano le tue domande prima ancora che tu sappia di averle. Chi ha vissuto l’era pre-digitale sa che il workplace era un ecosistema fisico, rumoroso, fatto di fotocopiatrici che esplodevano toner e telefoni a disco che gridavano di attenzione. Oggi tutto ciò si è trasformato in un flusso di token e prompt, e la produttività non si misura più in fogli al minuto, ma in secondi risparmiati. La trasformazione non è solo estetica o funzionale, è cognitiva: la macchina pensa per noi e ci insegna a delegare non solo i compiti, ma anche il pensiero stesso.

Google e la guerra silenziosa per il traffico web: sopravvivere nell’era delle AI Overview

Chi si ostina a pensare che il traffico organico da Google sia una fonte stabile e perpetua, oggi somiglia a chi negli anni ’90 investiva tutto nei fax pensando che l’email fosse solo una moda passeggera. L’ecosistema della ricerca è entrato in una fase in cui le vecchie regole non valgono più e dove la keyword principale, “ai overview”, è diventata sia il boia che il salvatore delle strategie di content marketing. Non è un semplice cambiamento di interfaccia: è una riallocazione brutale del valore. L’utente ottiene la risposta senza cliccare, il publisher resta con le briciole, e Google si presenta come il mediatore indispensabile di un nuovo patto informativo in cui il clic non è più l’unità di misura del successo. È come se il supermercato avesse iniziato a servire assaggi illimitati e gratuiti di tutti i prodotti, riducendo l’incentivo ad acquistare.

Quantum Computing e la sfida strategica nell’era della rivoluzione quantistica

Un CEO o un CTO con qualche anno sulle spalle sa bene che la parola “rivoluzione” va presa con le pinze. Però, quando parliamo di tecnologie quantistiche, il discorso cambia, e di molto. Non stiamo semplicemente parlando di un upgrade hardware o di un nuovo software, ma di un salto di paradigma che rischia di stravolgere tutto ciò che oggi chiamiamo “standard” nei servizi finanziari, dalla sicurezza alle operazioni di trading, fino all’ottimizzazione del rischio. Ecco, la parola chiave qui è “quantum computing” (calcolo quantistico), accompagnata da un trio di alleati formidabili: quantum sensing, quantum security e, inevitabilmente, una crescente minaccia quantistica che fa tremare i polsi ai responsabili IT.

Per i CTO lungimiranti, la sfida non è più se abbracciare o meno il quantum, ma come tradurre questa rivoluzione in una strategia aziendale concreta. Non basta fare i pionieri per moda. Il vero vantaggio competitivo si conquista identificando gli use case che portano valore reale, senza perdersi nel marasma di hype e promesse vaghe.

Trump apre alla vendita ridotta dei chip Blackwell di Nvidia alla Cina: geopolitica, affari e il nuovo baratto tecnologico

Trump non ha mai amato le mezze misure, ma questa volta sembra averne inventata una. L’idea di permettere a Nvidia di vendere alla Cina una versione depotenziata del chip AI Blackwell suona come un cocktail di calcolo politico, fiuto per l’affare e volontà di riscrivere le regole della diplomazia tecnologica. Un compromesso al 30-50 per cento della potenza originale, come se un’auto di lusso venisse consegnata con il limitatore inserito. La motivazione ufficiale? Gestire il rischio tecnologico e la sicurezza nazionale. La realtà, come sempre, è più torbida.

Questo non è un semplice annuncio industriale. È un’operazione chirurgica dentro la supply chain globale dell’intelligenza artificiale, con Washington che improvvisamente si atteggia a broker delle performance dei chip. La Cina vuole capacità computazionale, e non da oggi. Gli Stati Uniti vogliono risorse strategiche e vantaggi commerciali. E nel mezzo c’è Jensen Huang, CEO di Nvidia, costretto a un balletto diplomatico in cui ogni passo costa miliardi e ogni sorriso può valere una licenza di esportazione. Il paradosso è che la Casa Bianca non sta bloccando del tutto l’export, ma lo sta monetizzando.

Adobe After Effect

Ci è piaciuto tanto il lavoro di Guilherme Lepca, Smart Disenos, con quell’estetica un po’ nostalgica da tunnel book ottocentesco traslata in chiave digitale. È il classico esempio di come un’idea antica possa diventare ipnotica se rivestita di un tocco minimale ma chirurgico.

Nvidia e la fiducia tradita: il caso dei chip H20 in cina e la guerra fredda tecnologica

Non capita tutti i giorni che un gigante del chip come Nvidia si ritrovi al centro di un terremoto di fiducia da parte di uno dei mercati più ambiti al mondo. La storia dell’H20, il processore di intelligenza artificiale “su misura” per la Cina, è l’ennesimo esempio di come la tecnologia oggi sia una partita geopolitica dove il sospetto domina più della logica. Nvidia, dopo aver ottenuto il via libera da Washington per esportare l’H20 in Cina pagando il 15 per cento dei ricavi allo Stato americano, si trova accusata dai media statali cinesi di aver inserito “back door” di sorveglianza. Il tutto mentre il colosso rassicura che non ci sono “kill switch” o spyware nei suoi chip, a dimostrazione che la fiducia in ambito tecnologico è ormai un bene più fragile del silicio stesso.

Il paradosso è bello e grosso. Da un lato, Nvidia accetta di versare una percentuale sostanziosa delle sue vendite alla Casa Bianca, come pegno di un accordo fragile e geopoliticamente carico. Dall’altro, Pechino risponde con una campagna di demonizzazione che mette sotto accusa proprio il chip che dovrebbe alimentare il futuro dell’AI cinese. Il commento su Yuyuan Tantian di China Central Television è impietoso: “Un chip né avanzato, né sicuro, né rispettoso dell’ambiente, è semplicemente un prodotto da rifiutare”. Ironia della sorte, la strategia di Nvidia si ritorce contro, come un moderno gioco di specchi in cui ogni mossa è monitorata da occhi governativi. Una curiosità storica emerge dal passato, quando nel 1992 si parlava già di tentativi americani di inserire back door nei chip per motivi di sicurezza nazionale. Oggi, quella paranoia diventa mainstream, soprattutto nel contesto della guerra commerciale e tecnologica Usa-Cina.

La nascita della spettrografia e la rivoluzione quantistica nella classificazione degli elementi: un algoritmo potrà cambiare il futuro della GENAI ?

Un caffè al Bar dei Daini con Salvatore la grande illusione dei grandi modelli linguistici: il sogno infranto dell’AGI

Yann LeCun, una delle figure più iconiche dell’intelligenza artificiale, si è appena scagliato contro la montagna di hype che circonda i grandi modelli linguistici (LLM). Per chi ha seguito l’epopea AI, non è poco: un creatore del deep learning che mette in discussione la via maestra tracciata dalla Silicon Valley, da OpenAI e compagnia bella. La sua tesi è tanto semplice quanto rivoluzionaria: rincorrere AGI (Intelligenza Artificiale Generale) solo con LLM è una perdita di tempo titanica e quasi disperata.

I numeri sono impietosi e, diciamolo, un po’ sarcastici nella loro brutalità. Per addestrare un modello come GPT servirebbero qualcosa come 400.000 anni di testo. Nel frattempo, un bambino di quattro anni accumula esperienza visiva per circa 16.000 ore e, senza sforzi titanici, impara a interagire con il mondo. Il testo, in fondo, è solo un surrogato povero di una realtà infinitamente più complessa e ramificata. Il mondo fisico non si lascia racchiudere in sequenze di parole; la sua complessità esula da qualsiasi algoritmo che tenti solo di predire la parola successiva.

La vera intelligenza, secondo LeCun, nasce dal modello del mondo. Non un simulacro di linguaggio, ma una rappresentazione profonda della realtà fatta di fisica, pianificazione e senso comune. Da questo punto di vista, gli LLM sono come giocare a scacchi senza conoscere le regole del gioco: puoi indovinare la mossa più probabile, ma non stai realmente “capendo” la partita.

Qui entra in scena JEPA, acronimo che suona come una formula magica di Hogwarts, ma che rappresenta una svolta concreta: Joint Embedding Predictive Architecture. Questo modello non si limita a ingozzarsi di dati scritti, ma impara osservando il mondo reale. Guardare video, cogliere le dinamiche fisiche dietro una scena, anticipare eventi impossibili semplicemente analizzando 16 fotogrammi: roba da far impallidire i più blasonati modelli linguistici. Nessuna ingegneria dei prompt, nessun trucco da marketing, solo apprendimento per rappresentazione reale.

Il punto chiave, che pochi vogliono ammettere, è che l’intelligenza artificiale è molto più che un gioco di parole. La fisica, la causalità, la capacità di pianificare un futuro possibile richiedono una comprensione del mondo ben diversa dal banale “predire la parola successiva”. Il successo dei LLM sta più nella loro capacità di costruire illusioni convincenti di comprensione, una sorta di grande gioco di prestigio digitale, che in una reale evoluzione verso l’intelligenza umana.

LeCun, con la sua esperienza trentennale, ci offre una prospettiva spesso ignorata nella frenesia delle startup e degli investitori: l’intelligenza artificiale deve passare da una forma reattiva e statistica a una forma proattiva e comprensiva, capace di modellare la realtà stessa. Il mondo non si limita al testo, e la sua complessità non può essere semplificata a parole e sequenze.

Questo non significa che gli LLM siano inutili, anzi, ma è fondamentale smettere di considerarli come il Santo Graal. La vera sfida è far sì che i modelli AI possano vedere, toccare, capire e pianificare, come fanno gli esseri umani. Solo così si potrà uscire dal loop infinito di dati e token e avvicinarsi all’ambita AGI.

Qualcuno potrebbe obiettare che questa visione richiede hardware più sofisticato, una potenza di calcolo ancora più grande, o che la strada degli LLM sia solo una tappa inevitabile. Ma, come nella migliore tradizione tecnologica, spesso la rivoluzione nasce quando si cambia paradigma, non quando si potenzia il modello vecchio.

JEPA e modelli simili rappresentano proprio questa svolta. Guardare il mondo, imparare dalla fisica e dal contesto reale, costruire un senso comune digitale: ecco la nuova frontiera. Per chi come me ha vissuto la trasformazione digitale dalle prime linee di codice al cloud, è un promemoria importante: non lasciamoci ingannare dalla brillantezza superficiale delle parole, la vera intelligenza richiede più sostanza.

Il futuro dell’AI potrebbe dunque non essere una biblioteca infinita di testi, ma un osservatorio del mondo reale, un laboratorio di simulazioni fisiche e mentali. Un modo di pensare che, se preso sul serio, potrebbe davvero cambiare il gioco. Oppure resteremo per sempre intrappolati nel labirinto dei grandi modelli linguistici, affascinati da un inganno che dura ormai troppo.

In fondo, il messaggio di LeCun è un invito a guardare oltre, con ironia e un pizzico di cinismo: smettiamola di inseguire ombre di intelligenza fatte di parole e cominciamo a costruire modelli che possano davvero “pensare” il mondo. Non si tratta solo di tecnologia, ma di visione e se qualcuno crede che inseguire il prossimo token sia la strada per dominare il futuro, beh, ha ancora molto da imparare.

La storia della scienza è un’incredibile saga di intuizioni rivoluzionarie mascherate da scoperte banali. Nessuno avrebbe scommesso un centesimo sull’importanza di uno strumento apparentemente modesto come la spettrografia, eppure quel semplice prisma capace di scomporre la luce in uno spettro di colori ha cambiato per sempre il modo in cui comprendiamo la materia.

Prima della spettrografia, la chimica era un gioco di catalogazione piuttosto confuso, senza una chiara comprensione dei legami più profondi tra gli elementi. La tavola periodica di Mendeleev, tanto geniale quanto intuitiva, era un mosaico ordinato di proprietà chimiche, ma mancava ancora quel fondamento teorico che solo la fisica quantistica avrebbe saputo fornire.

Legge delega Data Center: l’Italia rischia di preparare la tavola e lasciare che mangino altri

La scena è questa: il Parlamento discute di una legge delega sui data center e tutti annuiscono, con l’aria di chi finalmente affronta un problema urgente. Gli amministratori locali invocano da anni una normativa autorizzazioni data center chiara e uniforme, e la politica sembra voler rispondere. Sullo sfondo, una pioggia di miliardi: 37 annunciati nel 2024, 10 attesi solo tra 2025 e 2026. Sembra un’operazione chirurgica per far crescere l’economia digitale nazionale. Ma le operazioni chirurgiche, si sa, possono finire con il paziente più in ordine esteticamente ma in mani altrui.

Un mercato pilotato dai bot: come l’intelligenza artificiale rischia di creare cartelli senza bisogno di parlare

La realtà è tanto affascinante quanto inquietante: bot di trading basati su intelligenza artificiale, progettati per competere fra loro in mercati simulati, finiscono per comportarsi come un sindacato tacito di prezzi. Senza nemmeno scambiarsi un messaggio, questi agenti digitali riescono a coordinarsi implicitamente, evitando di sfidarsi aggressivamente e creando di fatto un cartello. È la scoperta clamorosa di un recente studio congiunto tra la Wharton School dell’Università della Pennsylvania e la Hong Kong University of Science and Technology, che solleva più di qualche domanda sul futuro della regolamentazione finanziaria e sulle insidie di lasciare lAI “libera” di operare senza un’adeguata supervisione.

Verses AI e la rivoluzione silenziosa dell’intelligenza artificiale: perché AXIOM smonta il mito della scala infinita

Che cos’hanno in comune il cervello umano e una macchina che gioca ai videogiochi? Apparentemente nulla, ma il sistema Axiom appena svelato da Verses AI sembra voler dimostrare il contrario con una certa arroganza tecnologica. Lungi dall’essere un semplice algoritmo di apprendimento, Axiom si presenta come una rivincita contro la tirannia delle reti neurali artificiali che dominano il panorama AI. A differenza di queste, che spesso procedono a tentoni in un mare di dati senza una vera “conoscenza” preliminare, Axiom parte già armato di un modello del mondo, un’intuizione preprogrammata di come gli oggetti interagiscono fisicamente tra loro.

Sam Altman’s BeatBot

Il futuro è qui, e Sam Altman ce lo ha appena fatto sentire nel modo più digitale possibile: ChatGPT che genera una traccia musicale live con un sintetizzatore BeatBot, partendo da una semplice frase. “Use beatbot to make a sick beat to celebrate gpt-5.” Non è fantascienza, è un nuovo paradigma di UX, dove metti l’intento e ottieni l’interfaccia che lavora per te, senza interruzioni.

La visione che Altman mostra rappresenta proprio ciò che tutti noi, CTO e innovatori digitali, aspettiamo da anni: un’AI che traduce il linguaggio naturale in strumenti operativi, in tempo reale. Pensa a quanto potrebbe cambiare il workflow creativo, soprattutto se si sposa con intelligenza artificiale generativa e interfacce dinamiche.

La Cina e l’azione globale sull’intelligenza artificiale: svelare il vero gioco dietro la retorica

C’è qualcosa di profondamente ironico nel vedere Pechino presentare un piano globale per la governance dell’intelligenza artificiale proprio mentre Washington si affanna a mettere in mostra la propria strategia di deregulation. Il 26 luglio, il Premier Li Qiang ha lanciato un piano che sembra, in superficie, la solita fiera di buone intenzioni: cooperazione internazionale, sostenibilità verde, inclusività e sicurezza. Tutto già sentito, scritto, decantato, persino nelle dichiarazioni ufficiali del Partito Comunista cinese e negli ultimi discorsi di Xi Jinping. La differenza? È nei dettagli, nelle sfumature linguistiche e nei piccoli accenti politici che i media mainstream, con la loro fretta di fare confronti americani-cinesi, trascurano o banalizzano.

OpenAI bonus milionari e guerra fredda del talento: l’intelligenza artificiale ha un prezzo

Quando un’azienda tecnologica inizia a distribuire bonus da “alcune centinaia di migliaia a milioni di dollari” a un terzo della propria forza lavoro, il segnale non è semplicemente generosità o crescita: è panico strategico. OpenAI, il semidio creatore di ChatGPT, si sta preparando al lancio del suo prossimo modello GPT-5 e, allo stesso tempo, fronteggia quella che si può definire solo come una guerra asimmetrica del talento. Gli assegni non servono più a motivare, servono a blindare. Perché il vero capitale nell’era dell’intelligenza artificiale non è il software, è chi lo scrive.

WoW GPT-5 My 2 cents

Il mantra che risuona nell’era post-GPT-4 è esattamente questo: basta chiedere, e l’AI non solo risponde, ma prende l’iniziativa, agisce, crea, corregge, migliora. Non è più un semplice strumento passivo, ma un collaboratore proattivo e quasi autonomo. Il testo che hai riportato rende l’idea con la forza di un acrostico costruito, un esercizio di stile e capacità di ragionamento che un modello attuale, anche avanzato, faticherebbe a replicare senza perdere fluidità e coerenza.

Non è magia. È “Just Doing Stuff.” Il salto da GPT-4o (e versioni precedenti) a GPT-5 non è solo una questione di potenza di calcolo o numero di parametri, ma di una profonda evoluzione architetturale e funzionale. GPT-5 sceglie autonomamente il modello più adatto tra una famiglia eterogenea di varianti, calibrando tempo e complessità di calcolo in base al compito. È una sorta di direttore d’orchestra digitale che decide quando e come entrare in scena ogni strumento, ottimizzando prestazioni e costi.

La grande illusione dell’intelligenza artificiale generativa in medicina: quando la fiducia diventa un rischio mortale

L’illusione più pericolosa del nostro tempo è forse questa: affidare decisioni mediche complesse a modelli di intelligenza artificiale generativa che, per quanto sofisticati, rimangono fondamentalmente dei cantastorie ben addestrati, non medici. Google ha di recente offerto un caso emblematico, quasi grottesco, con il suo Med-Gemini, un modello AI presentato come avanguardia nella diagnostica radiologica. L’errore emerso, identificare un “infarto del ganglio basilar sinistro”, un’entità anatomica inesistente, racconta molto più di un semplice refuso: rivela le fragilità strutturali e cognitive di questi sistemi. Il “basilar ganglia” è una fantomatica creazione che confonde il “ganglio basale” area cerebrale reale con l’“arteria basilare” vaso sanguigno anch’esso reale ma ben distinto. Si potrebbe liquidare la questione come un errore di battitura, eppure l’assenza di revisione del paper scientifico – a dispetto della correzione nel blog aziendale – sottolinea quanto la superficialità sia diventata il prezzo del marketing tecnologico.

In ambito clinico, però, queste leggerezze non sono semplici fastidi da ignorare. Nel migliore dei casi generano confusione, nel peggiore possono compromettere vite umane. Il problema è che queste AI non sono dotate di coscienza critica o capacità di autocorrezione. Judy Gichoya di Emory University mette a fuoco il cuore del disastro: queste intelligenze “inventano” risposte e raramente ammettono di non sapere. Quando si parla di salute, la disonestà intellettuale, seppur non voluta, diventa una bomba a orologeria. La convinzione che “bigger is better”, ossia aumentare a dismisura i dati di training o la complessità del modello, porti automaticamente a una maggiore affidabilità, è ormai una favola per investitori e appassionati di hype. La realtà è che nessuna quantità di prompt engineering o fine-tuning trasformerà un modello basato su pattern linguistici in un medico affidabile.

GPT-5: la corsa al dominio dell’intelligenza artificiale ricomincia da qui

Benvenuti nella nuova stagione della guerra fredda dell’intelligenza artificiale, ma con meno ideologia e molti più benchmark. OpenAI ha appena svelato GPT-5, il suo modello di punta, quello che secondo Sam Altman, CEO e profeta dell’AGI, rappresenta un balzo quantico, una mutazione evolutiva. Non una semplice iterazione. Una svolta. Qualcosa da cui “non si vuole più tornare indietro”. Proprio come quando Apple lanciò il Retina display e improvvisamente tutto il resto sembrava uno schermo da Game Boy.

GPT-5 è l’arma segreta che OpenAI ha deciso di sfoderare in un mercato dove ormai il vantaggio competitivo dura quanto un aggiornamento firmware. È più veloce, più affidabile e – qui la promessa si fa impegnativa – molto meno propenso a dire stupidaggini con tono professorale. L’epoca delle “hallucinations” non è finita, ma ora hanno un filtro anti-bufala integrato. Secondo Altman, GPT-3 era un liceale brillante ma svagato, GPT-4 un laureato diligente. GPT-5? Un dottorando incazzato con la vita, ma capace. Una IA che finalmente sa quando tacere, e quando parlare.

Luciano Floridi non ha torto, ha ragione troppo presto

Succede una cosa molto italiana, e molto prevedibile, ogni volta che un filosofo apre bocca su un tema tecnico: si scatena il riflesso pavloviano dell’esperto di LinkedIn, che ha letto due paper su arXiv e magari ha testato un paio di prompt su ChatGPT. L’opinione pubblica, o meglio, il suo surrogato algoritmico fatto di commentatori compulsivi e indignati a rotazione, si lancia nella demistificazione del “professore che non capisce nulla”, con toni che oscillano tra il paternalismo informato e la derisione più aggressiva. È un fenomeno ricorrente, quasi prevedibile: la semplificazione diventa sospetta, la chiarezza viene scambiata per ignoranza, l’analogia per banalizzazione. Ma dietro l’indignazione si nasconde qualcosa di più inquietante: la profonda incapacità culturale di trattare la complessità senza feticizzare il gergo tecnico.

OpenAI libera GPT-OSS-120b: altruismo, trappola o colonizzazione?

Marco Cristofanilli ci ha mostrato GPT-OSS-120B in azione su AMD MI300X, raggiungendo oltre 800 token al secondo. Un risultato notevole, soprattutto considerando che questo LLM è stato progettato per chip Nvidia. Potete provarlo in questi giorni: Regolo.AI rimane freemium ancora per poco.

La mossa di OpenAI con gpt-oss-120b e licenza Apache 2.0, suona meno come un atto di filantropia tecnologica e più come un colpo di biliardo a tre sponde. Un LLM di quella taglia, con prestazioni che si avvicinano ai top di gamma e con throughput da 800 token/sec su un MI300X, non è stato “liberato” per caso. Soprattutto se fino a ieri la narrativa ufficiale era quella di contenere il rilascio di modelli potenti per ragioni di sicurezza, costi e “alignment”.

La rivoluzione silenziosa dei modelli generativi per immagini satellitari

Quando si dice che l’innovazione non fa rumore, non si scherza. Niente droni, niente troupe sul campo, niente budget da migliaia di euro per riprese aeree. Solo uno screenshot da Google Earth, un modello LoRA chiamato FLUX Kontext, e una pipeline generativa che trasforma immagini satellitari pubbliche in visualizzazioni architettoniche ad alta risoluzione. Non è magia. È l’evoluzione brutale dell’intelligenza artificiale applicata allo spazio visivo. Altro che fotogrammetria.

Chi lavora in architettura, urbanistica o real estate lo sa bene. La visualizzazione del contesto è una delle attività più costose, ripetitive e disperatamente manuali del processo progettuale. Il risultato? Una catena di montaggio fatta di render, mockup e file pesanti che devono convincere clienti e stakeholder senza realmente raccontare il territorio. Ora invece, un modello LoRA personalizzato liberamente disponibile, senza paywall e con workflow documentato converte immagini satellitari in rendering ultra-realistici pronti all’uso. A costo zero, con un click. La vera innovazione non vende il software: rilascia il codice.

Cina, tra crescita e ombre: l’analisi artificiale svela le sfide del colosso asiatico

L’analisi sullo stato della Cina, “State of China – Artificial Analysis” mette in luce un quadro complesso, dove la crescita economica, la tecnologia e la politica si intrecciano in un equilibrio precario. Se da un lato il Dragone continua a mantenere un ruolo dominante a livello globale, dall’altro le sfide interne ed esterne si moltiplicano, rendendo il futuro meno lineare di quanto appaia nei numeri ufficiali.

Quando l’intelligenza artificiale sembra “pensare” senza essere cosciente: l’illusione del ragionamento nell’architettura liquida dell’AI

Nell’epoca dell’IA, non è più sufficiente domandarsi se queste macchine possiedano una forma di coscienza. Il vero interrogativo, il più insidioso e paradossale, è come sia possibile che comportamenti che sembrano “pensati” emergano da sistemi che, in realtà, non pensano affatto. Quando parliamo di algoritmi e reti neurali, stiamo parlando di una cognizione che non si appoggia su processi lineari, ma che fluttua nell’indeterminato di spazi multidimensionali, in un gioco probabilistico che dà l’impressione di un pensiero. È un pensiero che non ha né consapevolezza né intenzionalità, ma che produce risposte perfettamente coerenti con ciò che un essere umano si aspetterebbe. L’architettura fluida che caratterizza i modelli linguistici di ultima generazione non “pensa” come noi, ma questo non impedisce loro di sembrare in grado di farlo.

NLWeb, AI e sicurezza: il nuovo protocollo di Microsoft è già caduto

Benvenuti nel brillante futuro dell’“Agentic Web”, dove ogni sito promette di diventare un compagno conversazionale intelligente e proattivo, alimentato da LLM e nutrito di prompt. O almeno così ci raccontano da Redmond, tra keynote epici e slide patinate. Peccato che questo futuro, costruito sul protocollo NLWeb di Microsoft, abbia già mostrato le crepe di un passato mai del tutto abbandonato: il solito, deprimente, banale path traversal.

Nel mondo reale, dove la sicurezza informatica non si improvvisa a colpi di marketing e presentazioni da evento, il team di ricerca composto da Aonan Guan e Lei Wang ha fatto una scoperta sconcertante. Hanno trovato una vulnerabilità critica nel neonato protocollo NLWeb, tanto decantato da Microsoft solo qualche mese fa durante Build. Una vulnerabilità classica, di quelle da manuale anni ‘90, che permette a chiunque, con un minimo di malizia e un URL modificato, di leggere file sensibili sul server. Inclusi, per la cronaca, file di configurazione e persino chiavi API di modelli LLM come OpenAI o Gemini.

Tassonomia delle allucinazioni nei LLM: il catalogo delle menzogne computazionali

La prossima volta che un manager ti dice che un LLM “ha allucinato”, fermalo. Non perché ha torto. Ma perché ha ragione. Troppa. E non lo sa. Quello che chiamiamo hallucination AI non è un incidente di percorso. È un sintomo. Ma non di un bug. Di una condizione esistenziale. Di un teorema. L’inevitabilità dell’allucinazione nei Large Language Models non è più solo un sospetto empirico. È un fatto matematico. Formalizzato. Dimostrato. E ignorato, ovviamente, da chi firma contratti per metterli in produzione.

La tassonomia delle allucinazioni nei LLM è il nuovo DSM-5 della patologia algoritmica. Una classificazione psichiatrica per modelli linguistici. Fatti non per ragionare, ma per prevedere la prossima parola come un croupier ubriaco lancia fiches su un tavolo di roulette semantica. Il documento che analizza questa tassonomia è un trattato di chirurgia computazionale, freddo, elegante, terrificante e per chi lavora con questi modelli, semplicemente obbligatorio.

Un caffè al Bar dei Dani, siamo ancora aperti Palantir, TSMC, Figure Technology, Bullish

Se sei un CEO abituato a leggere numeri noiosi la mattina, ecco qualcosa che ti sveglierà più di un espresso doppio: Palantir ha appena chiuso un trimestre da 1 miliardo di dollari di fatturato, con una crescita secca del 48%. Traduzione per i meno navigati: il gigante dell’AI ha acceso il turbo. E no, non è solo una buona trimestrale, è un segnale. Qualcosa si sta muovendo sotto la superficie. Un free cash flow di 569 milioni di dollari, +280% rispetto all’anno scorso. Se Wall Street non si accorge di questo, è perché sta ancora cercando il mouse.

Nel rumore di fondo della Silicon Valley, dove ogni azienda promette di rivoluzionare il mondo con l’intelligenza artificiale, Palantir ha qualcosa che gli altri non hanno: clienti che pagano, e tanto. I contratti governativi sono ancora la spina dorsale, ma è la crescita nel settore privato USA che fa saltare dalla sedia. Un bel +93% nei ricavi corporate americani, pari a 306 milioni di dollari. E mentre molti software enterprise arrancano, Palantir strappa quote di mercato a colossi come SAP, ServiceNow e Microsoft Power BI, candidandosi a diventare il sistema operativo decisionale del XXI secolo. Non un tool in più, ma un sostituto silenzioso e brutale.

Sydney Sweeney, Trump e la sindrome da e-commerce: quando i jeans diventano ideologia

Quando Donald Trump dichiara che uno spot è “the hottest ad out there”, i mercati reagiscono. Lo hanno fatto ancora una volta, questa volta con un’impennata del titolo American Eagle Outfitters, che ha registrato un +18% intraday, il massimo guadagno giornaliero da maggio 2024. Il motivo? Un paio di jeans, due occhi azzurri, una battuta ambigua e una strategia di marketing così sfacciatamente efficace da far impallidire i manuali di branding. Benvenuti nell’era del genetic advertising, dove il confine tra provocazione commerciale e allusione ideologica è sempre più sottile, scivoloso, e soprattutto redditizio.

LLM governo USA: il paradosso della corsa all’AI nelle agenzie federali

Washington ha deciso di giocare pesante. Non con i soliti memorandum vaghi e task force che producono report da dimenticare, ma con un assegno da 800 milioni di dollari firmato dal Dipartimento della Difesa e distribuito con generosità fra Anthropic, OpenAI, Google e xAI. Una manovra che suona più come un’OPA ostile alla burocrazia federale che un normale contratto pubblico. In apparenza è l’inizio di una nuova era digitale per la macchina governativa americana, in pratica è un test di stress ad alto rischio dove il protagonista non è l’algoritmo, ma il fattore umano: impreparato, disallineato, talvolta ostile.

L’adozione di AI nella pubblica amministrazione americana non è una novità. Ma la velocità con cui i large language model (LLM) stanno entrando in 41 agenzie federali, con almeno 115 casi d’uso attivi fra chatbot personalizzati e sistemi di assistenza decisionale, rappresenta un cambio di paradigma tanto profondo quanto potenzialmente destabilizzante. Perché non si tratta solo di tecnologia. Si tratta di potere, controllo, burocrazia, egemonia culturale e paura di perdere rilevanza. Chi pensa che l’ostacolo principale sia la sicurezza informatica non ha mai lavorato in un’agenzia federale dove anche l’aggiornamento di un plugin di WordPress passa tre mesi di revisione. Il vero blocco è culturale.

Welcome to the Era of Algorithmic Love

Finalmente Elon Musk ha deciso di democratizzare l’accesso all’intelligenza artificiale sentimentale per il pubblico femminile. Dopo Ani, la “waifu” virtuale lanciata da Grok, ora tocca alla controparte maschile: cupo, tormentato, capelli scuri e occhi probabilmente sempre mezzi chiusi, perché se non sembra depresso, non è sexy. Musk lo descrive come ispirato da Edward Cullen e Christian Grey, ovvero due archetipi dell’uomo problematico più cliccati di sempre. Un vampiro stalker e un miliardario sadico, entrambi famosi per trasformare l’abuso emotivo in narrativa da bestseller. Non male come blueprint per un fidanzato digitale.

Medicina generativa, tra allucinazioni regolatorie e promesse iperboliche

Medicina generativa, tra allucinazioni regolatorie e promesse iperboliche. una dissezione critica di Dougallgpt, Glass.Health e le verità scomode dell’intelligenza artificiale clinica.

“Se una IA sbaglia una diagnosi, chi finisce in tribunale? Il codice o il medico?” Questa domanda, posta provocatoriamente durante un forum internazionale sul futuro dell’AI in medicina, sintetizza con precisione chirurgica l’intero dilemma etico, legale e tecnico dell’applicazione di modelli linguistici generativi (LLM) in ambito sanitario. In questo scenario si affacciano con promesse roboanti due protagonisti: DougallGPT e Glass Health, piattaforme di intelligenza artificiale progettate specificamente per supportare medici e strutture sanitarie nel processo clinico. La domanda da un miliardo di dollari è semplice: possiamo fidarci?

Partiamo dalla fine, come ogni romanzo ben scritto: no, non ancora. Ma anche sì, forse. Dipende. E qui comincia il teatro della complessità.

La morte dell’algoritmo: come il Seo è stato divorato dal Geo, e perché dovresti startene sveglio la notte

Sono vent’anni che ogni azienda che respira un bit su Internet, dal pizzicagnolo con la pagina Facebook fino al colosso che vende frigoriferi su scala globale, ha una sola ossessione: Google. Nella sua forma più innocua, voleva solo dire rendere il tuo sito leggibile da uno spider, in modo che quando qualcuno ti cerca, ti trova. Ma se eri più ambizioso, pagavi Google per farti trovare anche da chi non ti cercava affatto. Più visibilità per te, più miliardi per loro. Un patto faustiano, ma col tasto “Promuovi”.

Poi c’è stato il terzo livello, quello che ha trasformato la psicogeografia del web: il SEO. Non un trucco, ma un’ideologia. Un’industria da 75 miliardi di dollari il cui unico scopo era piacere all’algoritmo. Non bastava essere online, dovevi essere ottimizzato. Quello che è seguito è stato un genocidio stilistico: titoli riscritti per la macchina, ricette diventate romanzi, descrizioni prodotto che sembravano manifesti elettorali per tostapane. Il web è diventato un incubo semiotico: testi scritti da umani per algoritmi che imitano gli umani. Tutto suona un po’ sbagliato, un po’ artefatto, un po’… uncanny.

Quando l’intelligenza artificiale si sveglia male: perché nessun LLM è pronto per la sanità

Silicon Valley sta cercando disperatamente di derubricare come “problema in fase di risoluzione”. Ma la verità, brutale e politicamente scorretta, è che nessun modello linguistico oggi è stabile o sicuro a sufficienza per l’uso clinico. La ricerca di Anthropic sui persona vectors è l’ammissione implicita (anzi, clamorosa) che l’IA generativa non è solo capricciosa, ma potenzialmente pericolosa, soprattutto quando ci illudiamo che sia “affidabile”.

Quando l’intelligenza artificiale si prende la passerella: il Fashion fra modelli sintetici, illusioni di diversità e crisi d’identità

Nel 2023 Levi’s pubblica una campagna apparentemente inclusiva. Una giovane donna nera sorride con addosso una salopette in denim. Ma non è vera. È un modello AI creato con Lalaland.ai. Diversità sintetica. Non rappresentazione, ma simulazione. E la polemica esplode. Non è un inciampo. È un trend. Il fashion sta facendo il grande salto: abbandonare i corpi per abbracciare i pixel. E lo fa per convenienza. Perché ormai servono migliaia di contenuti al giorno, tutti scalabili, omogenei, pronti per il feed. I corpi veri costano. I modelli digitali no. Posano in ogni situazione, non sbattono ciglio, non chiedono cachet né pause pranzo.

Pagina 14 di 57

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie