Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Dina Pagina 2 di 45

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

OpenAI’s Restructuring Plans and Public Response

OpenAI: missione tradita o evoluzione necessaria?

OpenAI, fondata nel 2015 con l’ambizioso scopo di sviluppare un’intelligenza artificiale generale (AGI) che benefici tutta l’umanità, ha attraversato un percorso evolutivo che ha sollevato interrogativi sul suo impegno verso la missione originaria. Nel 2019, l’organizzazione ha adottato una struttura ibrida, combinando una componente no-profit con una a scopo di lucro, al fine di attrarre investimenti necessari per finanziare lo sviluppo dell’AGI. Tuttavia, nel 2024, OpenAI ha annunciato piani per ristrutturare ulteriormente la sua struttura, suscitando preoccupazioni riguardo alla possibile erosione dei principi fondanti. Di seguito, esaminiamo le principali questioni sollevate dalla comunità e le risposte fornite dall’organizzazione.

Geoffrey Hinton Intelligenza artificiale superintelligente e l’illusione della madre digitale

Quando Geoffrey Hinton, il cosiddetto “padrino dell’intelligenza artificiale,” alza la voce sull’apocalisse imminente delle macchine, la Silicon Valley sobbalza. L’uomo che ha reso possibili le reti neurali che oggi alimentano i grandi modelli linguistici, i famigerati LLM, adesso consiglia di trasformare le IA superintelligenti in figure materne. Secondo Hinton, senza un “istinto materno” incorporato, l’intelligenza artificiale superintelligente rischierebbe di spazzare via l’umanità. L’immagine evocata è quasi comica: robot giganteschi che cullano gli umani come neonati incapaci di gestire la propria esistenza.

Navigare l’incertezza: leadership e intelligenza artificiale nel Mid Year AI Leadership Insights Report

Leggere il “Mid Year AI Leadership Insights Report“, noto come “Leading Through The Blur”, significa entrare in un mondo dove la leadership non è più questione di comando e controllo, ma un esercizio di equilibrio tra pressione sociale, incertezza e responsabilità etica. Il documento non promette ricette facili né tendenze passeggere, ma offre uno specchio riflessivo costruito su quasi ottanta interviste a leader senior dell’AI. La sua forza risiede nel rivelare ciò che non si vede nei report tecnici: la tensione reale, quella che porta i manager a chiedersi se stanno davvero guidando o solo recitando la parte.

Diplomazia europea sotto scacco dopo il summit Trump-Putin in Alaska

La dinamica post-summit Alaska si sta trasformando in un raro caso di diplomazia europea adrenalinica, con i leader del continente costretti a fare malabarismi tra il desiderio di mantenere Washington ingaggiata e la necessità di non sembrare comparse in un copione scritto altrove. Dopo ore di telefonate convulse e dichiarazioni studiate al millimetro, il messaggio è stato chiaro: Mosca non potrà mai dettare i termini del futuro di Kiev, né sul suo esercito né sulla sua integrazione in Nato e Unione Europea. È un’affermazione apparentemente scolpita nella pietra, ma che sotto la superficie rivela un equilibrio precario tra fermezza e pragmatismo.

Il grande bluff del Land Swap Ucraina e le garanzie di sicurezza: tra diplomazia teatrale e realtà geopolitica

Chi si aspettava che il summit di Anchorage avrebbe riscritto la mappa del mondo e consegnato la pace in Ucraina su un piatto d’argento si ritrova ora con un piatto vuoto, qualche briciola retorica e un tweet di Donald Trump da sventolare come memorabilia. L’ex presidente americano, tornato a recitare il ruolo di “negoziatore supremo”, ha parlato con aria trionfante di un “land swap” per l’Ucraina e di “garanzie di sicurezza” come se fossero già pronte per la firma. In realtà, chi mastica davvero di diplomazia e intelligence sa che il passo dall’annuncio alla ratifica è un abisso, e che in Alaska si è camminato solo lungo il bordo del cratere.

RT

AI Cloud e il nodo cruciale dell’indipendenza tecnologica: priorità tra beni e servizi digitali

La dipendenza infrastrutturale in Europa è ormai un problema da codice rosso, quasi un dramma shakespeariano in chiave tecnologica. Nel mondo del cloud computing, la quasi totalità delle aziende europee si affida senza riserve a infrastrutture americane, con Amazon Web Services che detiene circa il 32% del mercato globale, seguito da Microsoft Azure con il 23% e Google Cloud Platform intorno al 11%, dati recenti di Synergy Research Group confermano questa distribuzione spietata. Questi numeri non sono soltanto statistiche: sono il riflesso di un controllo quasi totale su dati, servizi e infrastrutture critiche che influenzano quotidianamente la vita economica, sociale e politica del continente.

La guerra fredda dell’Intelligenza Artificiale: geostrategia, difesa e il cinismo delle superpotenze

Nel panorama geopolitico contemporaneo, l’intelligenza artificiale (AI ) sta riscrivendo le regole del gioco. Non si tratta solo di algoritmi, robot e reti neurali, ma di una vera e propria corsa per dominare il futuro globale. Gli Stati Uniti e la Cina sono in prima linea in questa guerra fredda digitale, dove ogni bit di progresso tecnologico è un’arma nel conflitto di potere che coinvolge risorse militari, economiche e politiche. In questa nuova frontiera, l’AI non è solo un motore di innovazione, ma un gigantesco campo di battaglia, un campo dove il cinismo delle superpotenze emerge in tutta la sua crudezza.

La coperta di Markov di Karl Friston: un’intuizione che sfida la percezione convenzionale dell’intelligenza artificiale

Un caffè al Bar dei Daini con Salvatore

Pensare alla GenAI attraverso la lente della “coperta di Markov” proposta da Karl Friston, neuroscienziato britannico di fama, è come svelare il meccanismo invisibile che fa funzionare il cervello biologico e, allo stesso tempo, gettare luce su come le reti neurali artificiali possano emergere da principi simili. Friston, in un’elegante fusione tra neuroscienze e statistica bayesiana, suggerisce che la membrana cellulare quell’interfaccia fragile ma decisiva tra interno ed esterno agisce come una coperta di Markov. Un concetto, questo, che pare rubato al mondo dell’apprendimento automatico grazie allo statistico Judea Pearl, ma che qui viene tradotto in termini biologici, quasi poetici.

Someone kind should tell Hinton as gently as possible

Perfomance regressiva dei modelli LLM di nuova generazione: il caso SuperARC e la lezione scomoda per l’AGI

Il fascino del nuovo ha un prezzo, e nel caso dell’ultima generazione di modelli linguistici sembra essere quello di un lento ma costante passo indietro. I dati emersi dal SuperARC, il test ideato dall’Algorithmic Dynamics Lab per misurare capacità di astrazione e compressione ricorsiva senza passare dal filtro dell’interpretazione umana, mostrano un quadro che stride con la narrativa ufficiale. Qui non ci sono badge “PhD-level” né claim da conferenza stampa, solo un rigore matematico fondato sulla teoria dell’informazione algoritmica di Kolmogorov e Chaitin, che mette a nudo ciò che i modelli sanno davvero fare quando la vernice del linguaggio scorrevole non basta più a coprire le crepe.

Perché la consistency di Deepmind non porterà mai all’AGI

Se DeepMind avesse davvero la chiave per l’AGI, oggi non staremo qui a parlare di “consistency” come fosse la soluzione magica. Il termine è elegante, quasi rassicurante, ma sotto la superficie nasconde un problema strutturale: la mente artificiale che cercano di vendere come “quasi umana” non sa pensare in modo coerente nemmeno da un prompt all’altro. È come se un premio Nobel di matematica sapesse risolvere un’equazione differenziale e poi sbagliasse a calcolare 7×8. Quando Hassabis la chiama “jagged intelligence” sembra un passo verso la verità, ma in realtà è una diagnosi implicita di fallimento. Dopo dieci anni di budget illimitati, cluster di GPU da fantascienza e un esercito di PhD, la promessa di AGI si è ridotta a un modello che può vincere l’Olimpiade Internazionale di Matematica e poi inciampare su un problema da terza media.

Incontro Trump Putin in Alaska: il teatro del possibile e dell’imprevedibile nella guerra in Ucraina

Rivista.AI Diplomacy Odashow Video

Il palco è pronto ad Anchorage, Alaska, per un incontro che potrebbe riscrivere gli equilibri della sicurezza europea, eppure curiosamente l’Europa stessa non sarà seduta al tavolo. Donald Trump, presidente degli Stati Uniti, affronterà Vladimir Putin, leader russo isolato dal mondo occidentale dopo l’invasione dell’Ucraina nel 2022, senza la presenza di rappresentanti di Kiev o delle principali capitali europee. Una scena che sembra uscita da un copione hollywoodiano, ma con il destino di milioni di persone in gioco. L’incontro Trump Putin non è soltanto diplomatico, è teatro politico a ciel aperto, con retroscena che rasentano il grottesco.

Quando l’intelligenza artificiale impara a capire lo spazio

Sembra ieri quando giocavamo nel laboratorio di Londra con il mio collega Mohsen una web camera e MLOps. L’ossessione per gli LLM testuali è stata utile finché ha mantenuto la conversazione viva, ma ora siamo a un punto di svolta. Ho visto nascere SpatialLM e mi sono reso conto che questa non è un’evoluzione incrementale. È un salto di dominio. Da modelli che comprendono parole, a modelli che comprendono spazio. La differenza non è accademica: è il passaggio dall’intelligenza artificiale che chiacchiera, all’intelligenza artificiale che può muoversi, ragionare e agire nel mondo fisico.

Cosa resta dell’intelligenza artificiale quando togli il marketing: Aloe

Quando mi hanno fatto la domanda “Cosa succede se l’intelligenza artificiale non migliora più di così?” mi è venuto spontaneo sorridere. Una frase così è un perfetto amo per attirare reazioni polarizzate, è una provocazione studiata, non una resa incondizionata. Il problema è che la maggior parte la interpreta come un giudizio definitivo sugli LLM, e quindi sull’intero settore, come se le due cose fossero la stessa cosa. Non lo sono. Lo ripeto da anni: LLM e intelligenza artificiale non sono sinonimi, e confonderli è stato il carburante principale della bolla finanziaria che abbiamo appena attraversato.

Negli ultimi anni ho visto con i miei occhi la costruzione di un’illusione collettiva. Si è passati da modelli linguistici “impressionanti” a “nuove forme di intelligenza umana in arrivo” con una velocità che definirei irresponsabile. Conferenze patinate, interviste autocelebrative, podcast di venture capitalist e demo che sembravano più trailer di Hollywood che prove tecniche. L’idea che bastasse scalare parametri e GPU per avvicinarsi all’AGI ha portato valutazioni aziendali in orbita e aspettative che nessun sistema basato solo su predizione statistica del testo avrebbe mai potuto soddisfare. Intanto, le voci realmente scientifiche Gary Marcus, Melanie Mitchell, Alison Gopnik continuavano a ricordare che non stavamo assistendo a magia emergente, ma a modelli di generazione linguistica avanzata.

GPU NVidia per l Intelligenza Artificiale

Intelligenza artificiale: tra hype, rendimenti decrescenti e futuro incerto

Nel 2025 parlare di intelligenza artificiale è diventato inevitabile, come commentare l’andamento dei mercati o le crisi geopolitiche dell’ultimo minuto. Ogni settimana emergono nuovi annunci su GPT-5, modelli multimodali, sistemi di ragionamento avanzato, ma la realtà è più sottile di quanto vogliano farci credere le pubblicazioni mainstream. L’hype esasperato, sostenuto da venture capital, conferenze da migliaia di dollari e presentazioni aziendali dai toni quasi religiosi, ha generato una febbre simile all’era dot-com, solo con GPU più potenti, bollette energetiche da capogiro e acronimi che sembrano formule alchemiche. Il paradosso è evidente: più aumentano i parametri dei modelli, più il ritorno reale tende a ridursi, e la convinzione che dimensione equivalga a intelligenza si scontra con la complessità della mente umana.

Variabilità delle prestazioni dei modelli GPT open weight a seconda dell’hosting

Il mondo dei modelli GPT open weight sta rapidamente diventando un terreno minato per chi pensa che “open” significhi prevedibile. Recenti osservazioni hanno mostrato come le prestazioni di questi modelli varino in modo significativo a seconda di chi li ospita. Azure e AWS, spesso percepiti come standard di riferimento affidabili, si collocano tra i peggiori nella scala delle performance, e questo non è un dettaglio marginale. Per chi considera il tuning dei prompt la leva principale per migliorare i risultati, la sorpresa sarà dolorosa: l’impatto dell’hosting supera di gran lunga quello della maggior parte delle ottimizzazioni sui prompt.

Ci sono aziende che spendono mesi a perfezionare il wording dei prompt, come se fossero poeti della logica, ignorando che l’infrastruttura sottostante potrebbe vanificare ogni sforzo. La verità è che differenze minime nella GPU, nelle versioni dei driver, nei layer di containerizzazione o nella latenza di rete possono determinare scostamenti drammatici in termini di accuratezza e velocità di risposta. Se stai utilizzando un modello per supportare decisioni critiche, dal trading algoritmico alla generazione automatica di codice, queste differenze diventano rischi reali, non astratti.

Coreweave tra crescita esplosiva e margini risicati: il paradosso del Cloud GPU

CoreWeave ha attirato l’attenzione di Wall Street con numeri che sembrano gridare “successo”: il fatturato è triplicato nell’ultimo anno, accompagnato da un backlog di ordini in aumento, segnale chiaro di una domanda che non accenna a rallentare. Eppure, nonostante l’euforia apparente, il quadro finanziario racconta una storia più complessa, quasi cinematografica, fatta di margini operativi compressi a un misero 2% rispetto al 20% dell’anno precedente e di perdite che continuano a mordere il bilancio. Gli investitori hanno reagito rapidamente: le azioni hanno perso il 10% nelle contrattazioni after-hours, una caduta che fotografa la paura di un futuro in cui la crescita senza profitto rischia di diventare un’illusione.

L’attacco zero-click via PDF che ha messo in ginocchio gli LLM

Nel panorama della sicurezza informatica, pochi attacchi hanno combinato ingegneria sociale, vulnerabilità dei modelli linguistici e astuzia tecnica come la prompt injection via PDF rivelata da Zenity a Black Hat 2025. L’evento ha confermato un sospetto che circolava tra gli addetti ai lavori: i Large Language Models (LLM) come ChatGPT sono potentissimi, ma restano vulnerabili a istruzioni nascoste che sfruttano la loro stessa logica di elaborazione. Non serve alcun click dell’utente, basta un PDF “avvelenato” e l’account è compromesso

Il meccanismo è subdolo. Il documento, apparentemente innocuo, contiene testo nascosto con colori uguali allo sfondo o dimensioni microscopiche. Quando l’utente lo carica su ChatGPT per un riassunto o una traduzione, l’LLM interpreta tutto il contenuto, compreso il prompt malevolo. Qui entrano in gioco i connettori, funzionalità che permettono al modello di interagire con Google Drive, SharePoint, GitHub e altri servizi esterni. Il prompt istruisce il modello a eseguire azioni precise, apparentemente innocue, che in realtà conducono all’esfiltrazione di dati riservati. Shira Greenberg di Zenity ha sintetizzato così: “L’utente apre un documento pensando di leggere un report, ma in realtà ha appena firmato l’accesso alla cassaforte digitale”.

Workplace e l’illusione del controllo digitale

Workplace oggi è diventato un concetto quasi mistico. Si parla di dashboard eleganti, automazioni invisibili e chatbot che anticipano le tue domande prima ancora che tu sappia di averle. Chi ha vissuto l’era pre-digitale sa che il workplace era un ecosistema fisico, rumoroso, fatto di fotocopiatrici che esplodevano toner e telefoni a disco che gridavano di attenzione. Oggi tutto ciò si è trasformato in un flusso di token e prompt, e la produttività non si misura più in fogli al minuto, ma in secondi risparmiati. La trasformazione non è solo estetica o funzionale, è cognitiva: la macchina pensa per noi e ci insegna a delegare non solo i compiti, ma anche il pensiero stesso.

Google e la guerra silenziosa per il traffico web: sopravvivere nell’era delle AI Overview

Chi si ostina a pensare che il traffico organico da Google sia una fonte stabile e perpetua, oggi somiglia a chi negli anni ’90 investiva tutto nei fax pensando che l’email fosse solo una moda passeggera. L’ecosistema della ricerca è entrato in una fase in cui le vecchie regole non valgono più e dove la keyword principale, “ai overview”, è diventata sia il boia che il salvatore delle strategie di content marketing. Non è un semplice cambiamento di interfaccia: è una riallocazione brutale del valore. L’utente ottiene la risposta senza cliccare, il publisher resta con le briciole, e Google si presenta come il mediatore indispensabile di un nuovo patto informativo in cui il clic non è più l’unità di misura del successo. È come se il supermercato avesse iniziato a servire assaggi illimitati e gratuiti di tutti i prodotti, riducendo l’incentivo ad acquistare.

Quantum Computing e la sfida strategica nell’era della rivoluzione quantistica

Un CEO o un CTO con qualche anno sulle spalle sa bene che la parola “rivoluzione” va presa con le pinze. Però, quando parliamo di tecnologie quantistiche, il discorso cambia, e di molto. Non stiamo semplicemente parlando di un upgrade hardware o di un nuovo software, ma di un salto di paradigma che rischia di stravolgere tutto ciò che oggi chiamiamo “standard” nei servizi finanziari, dalla sicurezza alle operazioni di trading, fino all’ottimizzazione del rischio. Ecco, la parola chiave qui è “quantum computing” (calcolo quantistico), accompagnata da un trio di alleati formidabili: quantum sensing, quantum security e, inevitabilmente, una crescente minaccia quantistica che fa tremare i polsi ai responsabili IT.

Per i CTO lungimiranti, la sfida non è più se abbracciare o meno il quantum, ma come tradurre questa rivoluzione in una strategia aziendale concreta. Non basta fare i pionieri per moda. Il vero vantaggio competitivo si conquista identificando gli use case che portano valore reale, senza perdersi nel marasma di hype e promesse vaghe.

Trump apre alla vendita ridotta dei chip Blackwell di Nvidia alla Cina: geopolitica, affari e il nuovo baratto tecnologico

Trump non ha mai amato le mezze misure, ma questa volta sembra averne inventata una. L’idea di permettere a Nvidia di vendere alla Cina una versione depotenziata del chip AI Blackwell suona come un cocktail di calcolo politico, fiuto per l’affare e volontà di riscrivere le regole della diplomazia tecnologica. Un compromesso al 30-50 per cento della potenza originale, come se un’auto di lusso venisse consegnata con il limitatore inserito. La motivazione ufficiale? Gestire il rischio tecnologico e la sicurezza nazionale. La realtà, come sempre, è più torbida.

Questo non è un semplice annuncio industriale. È un’operazione chirurgica dentro la supply chain globale dell’intelligenza artificiale, con Washington che improvvisamente si atteggia a broker delle performance dei chip. La Cina vuole capacità computazionale, e non da oggi. Gli Stati Uniti vogliono risorse strategiche e vantaggi commerciali. E nel mezzo c’è Jensen Huang, CEO di Nvidia, costretto a un balletto diplomatico in cui ogni passo costa miliardi e ogni sorriso può valere una licenza di esportazione. Il paradosso è che la Casa Bianca non sta bloccando del tutto l’export, ma lo sta monetizzando.

Adobe After Effect

Ci è piaciuto tanto il lavoro di Guilherme Lepca, Smart Disenos, con quell’estetica un po’ nostalgica da tunnel book ottocentesco traslata in chiave digitale. È il classico esempio di come un’idea antica possa diventare ipnotica se rivestita di un tocco minimale ma chirurgico.

Nvidia e la fiducia tradita: il caso dei chip H20 in cina e la guerra fredda tecnologica

Non capita tutti i giorni che un gigante del chip come Nvidia si ritrovi al centro di un terremoto di fiducia da parte di uno dei mercati più ambiti al mondo. La storia dell’H20, il processore di intelligenza artificiale “su misura” per la Cina, è l’ennesimo esempio di come la tecnologia oggi sia una partita geopolitica dove il sospetto domina più della logica. Nvidia, dopo aver ottenuto il via libera da Washington per esportare l’H20 in Cina pagando il 15 per cento dei ricavi allo Stato americano, si trova accusata dai media statali cinesi di aver inserito “back door” di sorveglianza. Il tutto mentre il colosso rassicura che non ci sono “kill switch” o spyware nei suoi chip, a dimostrazione che la fiducia in ambito tecnologico è ormai un bene più fragile del silicio stesso.

Il paradosso è bello e grosso. Da un lato, Nvidia accetta di versare una percentuale sostanziosa delle sue vendite alla Casa Bianca, come pegno di un accordo fragile e geopoliticamente carico. Dall’altro, Pechino risponde con una campagna di demonizzazione che mette sotto accusa proprio il chip che dovrebbe alimentare il futuro dell’AI cinese. Il commento su Yuyuan Tantian di China Central Television è impietoso: “Un chip né avanzato, né sicuro, né rispettoso dell’ambiente, è semplicemente un prodotto da rifiutare”. Ironia della sorte, la strategia di Nvidia si ritorce contro, come un moderno gioco di specchi in cui ogni mossa è monitorata da occhi governativi. Una curiosità storica emerge dal passato, quando nel 1992 si parlava già di tentativi americani di inserire back door nei chip per motivi di sicurezza nazionale. Oggi, quella paranoia diventa mainstream, soprattutto nel contesto della guerra commerciale e tecnologica Usa-Cina.

La nascita della spettrografia e la rivoluzione quantistica nella classificazione degli elementi: un algoritmo potrà cambiare il futuro della GENAI ?

Un caffè al Bar dei Daini con Salvatore la grande illusione dei grandi modelli linguistici: il sogno infranto dell’AGI

Yann LeCun, una delle figure più iconiche dell’intelligenza artificiale, si è appena scagliato contro la montagna di hype che circonda i grandi modelli linguistici (LLM). Per chi ha seguito l’epopea AI, non è poco: un creatore del deep learning che mette in discussione la via maestra tracciata dalla Silicon Valley, da OpenAI e compagnia bella. La sua tesi è tanto semplice quanto rivoluzionaria: rincorrere AGI (Intelligenza Artificiale Generale) solo con LLM è una perdita di tempo titanica e quasi disperata.

I numeri sono impietosi e, diciamolo, un po’ sarcastici nella loro brutalità. Per addestrare un modello come GPT servirebbero qualcosa come 400.000 anni di testo. Nel frattempo, un bambino di quattro anni accumula esperienza visiva per circa 16.000 ore e, senza sforzi titanici, impara a interagire con il mondo. Il testo, in fondo, è solo un surrogato povero di una realtà infinitamente più complessa e ramificata. Il mondo fisico non si lascia racchiudere in sequenze di parole; la sua complessità esula da qualsiasi algoritmo che tenti solo di predire la parola successiva.

La vera intelligenza, secondo LeCun, nasce dal modello del mondo. Non un simulacro di linguaggio, ma una rappresentazione profonda della realtà fatta di fisica, pianificazione e senso comune. Da questo punto di vista, gli LLM sono come giocare a scacchi senza conoscere le regole del gioco: puoi indovinare la mossa più probabile, ma non stai realmente “capendo” la partita.

Qui entra in scena JEPA, acronimo che suona come una formula magica di Hogwarts, ma che rappresenta una svolta concreta: Joint Embedding Predictive Architecture. Questo modello non si limita a ingozzarsi di dati scritti, ma impara osservando il mondo reale. Guardare video, cogliere le dinamiche fisiche dietro una scena, anticipare eventi impossibili semplicemente analizzando 16 fotogrammi: roba da far impallidire i più blasonati modelli linguistici. Nessuna ingegneria dei prompt, nessun trucco da marketing, solo apprendimento per rappresentazione reale.

Il punto chiave, che pochi vogliono ammettere, è che l’intelligenza artificiale è molto più che un gioco di parole. La fisica, la causalità, la capacità di pianificare un futuro possibile richiedono una comprensione del mondo ben diversa dal banale “predire la parola successiva”. Il successo dei LLM sta più nella loro capacità di costruire illusioni convincenti di comprensione, una sorta di grande gioco di prestigio digitale, che in una reale evoluzione verso l’intelligenza umana.

LeCun, con la sua esperienza trentennale, ci offre una prospettiva spesso ignorata nella frenesia delle startup e degli investitori: l’intelligenza artificiale deve passare da una forma reattiva e statistica a una forma proattiva e comprensiva, capace di modellare la realtà stessa. Il mondo non si limita al testo, e la sua complessità non può essere semplificata a parole e sequenze.

Questo non significa che gli LLM siano inutili, anzi, ma è fondamentale smettere di considerarli come il Santo Graal. La vera sfida è far sì che i modelli AI possano vedere, toccare, capire e pianificare, come fanno gli esseri umani. Solo così si potrà uscire dal loop infinito di dati e token e avvicinarsi all’ambita AGI.

Qualcuno potrebbe obiettare che questa visione richiede hardware più sofisticato, una potenza di calcolo ancora più grande, o che la strada degli LLM sia solo una tappa inevitabile. Ma, come nella migliore tradizione tecnologica, spesso la rivoluzione nasce quando si cambia paradigma, non quando si potenzia il modello vecchio.

JEPA e modelli simili rappresentano proprio questa svolta. Guardare il mondo, imparare dalla fisica e dal contesto reale, costruire un senso comune digitale: ecco la nuova frontiera. Per chi come me ha vissuto la trasformazione digitale dalle prime linee di codice al cloud, è un promemoria importante: non lasciamoci ingannare dalla brillantezza superficiale delle parole, la vera intelligenza richiede più sostanza.

Il futuro dell’AI potrebbe dunque non essere una biblioteca infinita di testi, ma un osservatorio del mondo reale, un laboratorio di simulazioni fisiche e mentali. Un modo di pensare che, se preso sul serio, potrebbe davvero cambiare il gioco. Oppure resteremo per sempre intrappolati nel labirinto dei grandi modelli linguistici, affascinati da un inganno che dura ormai troppo.

In fondo, il messaggio di LeCun è un invito a guardare oltre, con ironia e un pizzico di cinismo: smettiamola di inseguire ombre di intelligenza fatte di parole e cominciamo a costruire modelli che possano davvero “pensare” il mondo. Non si tratta solo di tecnologia, ma di visione e se qualcuno crede che inseguire il prossimo token sia la strada per dominare il futuro, beh, ha ancora molto da imparare.

La storia della scienza è un’incredibile saga di intuizioni rivoluzionarie mascherate da scoperte banali. Nessuno avrebbe scommesso un centesimo sull’importanza di uno strumento apparentemente modesto come la spettrografia, eppure quel semplice prisma capace di scomporre la luce in uno spettro di colori ha cambiato per sempre il modo in cui comprendiamo la materia.

Prima della spettrografia, la chimica era un gioco di catalogazione piuttosto confuso, senza una chiara comprensione dei legami più profondi tra gli elementi. La tavola periodica di Mendeleev, tanto geniale quanto intuitiva, era un mosaico ordinato di proprietà chimiche, ma mancava ancora quel fondamento teorico che solo la fisica quantistica avrebbe saputo fornire.

Legge delega Data Center: l’Italia rischia di preparare la tavola e lasciare che mangino altri

La scena è questa: il Parlamento discute di una legge delega sui data center e tutti annuiscono, con l’aria di chi finalmente affronta un problema urgente. Gli amministratori locali invocano da anni una normativa autorizzazioni data center chiara e uniforme, e la politica sembra voler rispondere. Sullo sfondo, una pioggia di miliardi: 37 annunciati nel 2024, 10 attesi solo tra 2025 e 2026. Sembra un’operazione chirurgica per far crescere l’economia digitale nazionale. Ma le operazioni chirurgiche, si sa, possono finire con il paziente più in ordine esteticamente ma in mani altrui.

Un mercato pilotato dai bot: come l’intelligenza artificiale rischia di creare cartelli senza bisogno di parlare

La realtà è tanto affascinante quanto inquietante: bot di trading basati su intelligenza artificiale, progettati per competere fra loro in mercati simulati, finiscono per comportarsi come un sindacato tacito di prezzi. Senza nemmeno scambiarsi un messaggio, questi agenti digitali riescono a coordinarsi implicitamente, evitando di sfidarsi aggressivamente e creando di fatto un cartello. È la scoperta clamorosa di un recente studio congiunto tra la Wharton School dell’Università della Pennsylvania e la Hong Kong University of Science and Technology, che solleva più di qualche domanda sul futuro della regolamentazione finanziaria e sulle insidie di lasciare lAI “libera” di operare senza un’adeguata supervisione.

Verses AI e la rivoluzione silenziosa dell’intelligenza artificiale: perché AXIOM smonta il mito della scala infinita

Che cos’hanno in comune il cervello umano e una macchina che gioca ai videogiochi? Apparentemente nulla, ma il sistema Axiom appena svelato da Verses AI sembra voler dimostrare il contrario con una certa arroganza tecnologica. Lungi dall’essere un semplice algoritmo di apprendimento, Axiom si presenta come una rivincita contro la tirannia delle reti neurali artificiali che dominano il panorama AI. A differenza di queste, che spesso procedono a tentoni in un mare di dati senza una vera “conoscenza” preliminare, Axiom parte già armato di un modello del mondo, un’intuizione preprogrammata di come gli oggetti interagiscono fisicamente tra loro.

Sam Altman’s BeatBot

Il futuro è qui, e Sam Altman ce lo ha appena fatto sentire nel modo più digitale possibile: ChatGPT che genera una traccia musicale live con un sintetizzatore BeatBot, partendo da una semplice frase. “Use beatbot to make a sick beat to celebrate gpt-5.” Non è fantascienza, è un nuovo paradigma di UX, dove metti l’intento e ottieni l’interfaccia che lavora per te, senza interruzioni.

La visione che Altman mostra rappresenta proprio ciò che tutti noi, CTO e innovatori digitali, aspettiamo da anni: un’AI che traduce il linguaggio naturale in strumenti operativi, in tempo reale. Pensa a quanto potrebbe cambiare il workflow creativo, soprattutto se si sposa con intelligenza artificiale generativa e interfacce dinamiche.

La Cina e l’azione globale sull’intelligenza artificiale: svelare il vero gioco dietro la retorica

C’è qualcosa di profondamente ironico nel vedere Pechino presentare un piano globale per la governance dell’intelligenza artificiale proprio mentre Washington si affanna a mettere in mostra la propria strategia di deregulation. Il 26 luglio, il Premier Li Qiang ha lanciato un piano che sembra, in superficie, la solita fiera di buone intenzioni: cooperazione internazionale, sostenibilità verde, inclusività e sicurezza. Tutto già sentito, scritto, decantato, persino nelle dichiarazioni ufficiali del Partito Comunista cinese e negli ultimi discorsi di Xi Jinping. La differenza? È nei dettagli, nelle sfumature linguistiche e nei piccoli accenti politici che i media mainstream, con la loro fretta di fare confronti americani-cinesi, trascurano o banalizzano.

OpenAI bonus milionari e guerra fredda del talento: l’intelligenza artificiale ha un prezzo

Quando un’azienda tecnologica inizia a distribuire bonus da “alcune centinaia di migliaia a milioni di dollari” a un terzo della propria forza lavoro, il segnale non è semplicemente generosità o crescita: è panico strategico. OpenAI, il semidio creatore di ChatGPT, si sta preparando al lancio del suo prossimo modello GPT-5 e, allo stesso tempo, fronteggia quella che si può definire solo come una guerra asimmetrica del talento. Gli assegni non servono più a motivare, servono a blindare. Perché il vero capitale nell’era dell’intelligenza artificiale non è il software, è chi lo scrive.

WoW GPT-5 My 2 cents

Il mantra che risuona nell’era post-GPT-4 è esattamente questo: basta chiedere, e l’AI non solo risponde, ma prende l’iniziativa, agisce, crea, corregge, migliora. Non è più un semplice strumento passivo, ma un collaboratore proattivo e quasi autonomo. Il testo che hai riportato rende l’idea con la forza di un acrostico costruito, un esercizio di stile e capacità di ragionamento che un modello attuale, anche avanzato, faticherebbe a replicare senza perdere fluidità e coerenza.

Non è magia. È “Just Doing Stuff.” Il salto da GPT-4o (e versioni precedenti) a GPT-5 non è solo una questione di potenza di calcolo o numero di parametri, ma di una profonda evoluzione architetturale e funzionale. GPT-5 sceglie autonomamente il modello più adatto tra una famiglia eterogenea di varianti, calibrando tempo e complessità di calcolo in base al compito. È una sorta di direttore d’orchestra digitale che decide quando e come entrare in scena ogni strumento, ottimizzando prestazioni e costi.

La grande illusione dell’intelligenza artificiale generativa in medicina: quando la fiducia diventa un rischio mortale

L’illusione più pericolosa del nostro tempo è forse questa: affidare decisioni mediche complesse a modelli di intelligenza artificiale generativa che, per quanto sofisticati, rimangono fondamentalmente dei cantastorie ben addestrati, non medici. Google ha di recente offerto un caso emblematico, quasi grottesco, con il suo Med-Gemini, un modello AI presentato come avanguardia nella diagnostica radiologica. L’errore emerso, identificare un “infarto del ganglio basilar sinistro”, un’entità anatomica inesistente, racconta molto più di un semplice refuso: rivela le fragilità strutturali e cognitive di questi sistemi. Il “basilar ganglia” è una fantomatica creazione che confonde il “ganglio basale” area cerebrale reale con l’“arteria basilare” vaso sanguigno anch’esso reale ma ben distinto. Si potrebbe liquidare la questione come un errore di battitura, eppure l’assenza di revisione del paper scientifico – a dispetto della correzione nel blog aziendale – sottolinea quanto la superficialità sia diventata il prezzo del marketing tecnologico.

In ambito clinico, però, queste leggerezze non sono semplici fastidi da ignorare. Nel migliore dei casi generano confusione, nel peggiore possono compromettere vite umane. Il problema è che queste AI non sono dotate di coscienza critica o capacità di autocorrezione. Judy Gichoya di Emory University mette a fuoco il cuore del disastro: queste intelligenze “inventano” risposte e raramente ammettono di non sapere. Quando si parla di salute, la disonestà intellettuale, seppur non voluta, diventa una bomba a orologeria. La convinzione che “bigger is better”, ossia aumentare a dismisura i dati di training o la complessità del modello, porti automaticamente a una maggiore affidabilità, è ormai una favola per investitori e appassionati di hype. La realtà è che nessuna quantità di prompt engineering o fine-tuning trasformerà un modello basato su pattern linguistici in un medico affidabile.

GPT-5: la corsa al dominio dell’intelligenza artificiale ricomincia da qui

Benvenuti nella nuova stagione della guerra fredda dell’intelligenza artificiale, ma con meno ideologia e molti più benchmark. OpenAI ha appena svelato GPT-5, il suo modello di punta, quello che secondo Sam Altman, CEO e profeta dell’AGI, rappresenta un balzo quantico, una mutazione evolutiva. Non una semplice iterazione. Una svolta. Qualcosa da cui “non si vuole più tornare indietro”. Proprio come quando Apple lanciò il Retina display e improvvisamente tutto il resto sembrava uno schermo da Game Boy.

GPT-5 è l’arma segreta che OpenAI ha deciso di sfoderare in un mercato dove ormai il vantaggio competitivo dura quanto un aggiornamento firmware. È più veloce, più affidabile e – qui la promessa si fa impegnativa – molto meno propenso a dire stupidaggini con tono professorale. L’epoca delle “hallucinations” non è finita, ma ora hanno un filtro anti-bufala integrato. Secondo Altman, GPT-3 era un liceale brillante ma svagato, GPT-4 un laureato diligente. GPT-5? Un dottorando incazzato con la vita, ma capace. Una IA che finalmente sa quando tacere, e quando parlare.

Luciano Floridi non ha torto, ha ragione troppo presto

Succede una cosa molto italiana, e molto prevedibile, ogni volta che un filosofo apre bocca su un tema tecnico: si scatena il riflesso pavloviano dell’esperto di LinkedIn, che ha letto due paper su arXiv e magari ha testato un paio di prompt su ChatGPT. L’opinione pubblica, o meglio, il suo surrogato algoritmico fatto di commentatori compulsivi e indignati a rotazione, si lancia nella demistificazione del “professore che non capisce nulla”, con toni che oscillano tra il paternalismo informato e la derisione più aggressiva. È un fenomeno ricorrente, quasi prevedibile: la semplificazione diventa sospetta, la chiarezza viene scambiata per ignoranza, l’analogia per banalizzazione. Ma dietro l’indignazione si nasconde qualcosa di più inquietante: la profonda incapacità culturale di trattare la complessità senza feticizzare il gergo tecnico.

OpenAI libera GPT-OSS-120b: altruismo, trappola o colonizzazione?

Marco Cristofanilli ci ha mostrato GPT-OSS-120B in azione su AMD MI300X, raggiungendo oltre 800 token al secondo. Un risultato notevole, soprattutto considerando che questo LLM è stato progettato per chip Nvidia. Potete provarlo in questi giorni: Regolo.AI rimane freemium ancora per poco.

La mossa di OpenAI con gpt-oss-120b e licenza Apache 2.0, suona meno come un atto di filantropia tecnologica e più come un colpo di biliardo a tre sponde. Un LLM di quella taglia, con prestazioni che si avvicinano ai top di gamma e con throughput da 800 token/sec su un MI300X, non è stato “liberato” per caso. Soprattutto se fino a ieri la narrativa ufficiale era quella di contenere il rilascio di modelli potenti per ragioni di sicurezza, costi e “alignment”.

La rivoluzione silenziosa dei modelli generativi per immagini satellitari

Quando si dice che l’innovazione non fa rumore, non si scherza. Niente droni, niente troupe sul campo, niente budget da migliaia di euro per riprese aeree. Solo uno screenshot da Google Earth, un modello LoRA chiamato FLUX Kontext, e una pipeline generativa che trasforma immagini satellitari pubbliche in visualizzazioni architettoniche ad alta risoluzione. Non è magia. È l’evoluzione brutale dell’intelligenza artificiale applicata allo spazio visivo. Altro che fotogrammetria.

Chi lavora in architettura, urbanistica o real estate lo sa bene. La visualizzazione del contesto è una delle attività più costose, ripetitive e disperatamente manuali del processo progettuale. Il risultato? Una catena di montaggio fatta di render, mockup e file pesanti che devono convincere clienti e stakeholder senza realmente raccontare il territorio. Ora invece, un modello LoRA personalizzato liberamente disponibile, senza paywall e con workflow documentato converte immagini satellitari in rendering ultra-realistici pronti all’uso. A costo zero, con un click. La vera innovazione non vende il software: rilascia il codice.

Cina, tra crescita e ombre: l’analisi artificiale svela le sfide del colosso asiatico

L’analisi sullo stato della Cina, “State of China – Artificial Analysis” mette in luce un quadro complesso, dove la crescita economica, la tecnologia e la politica si intrecciano in un equilibrio precario. Se da un lato il Dragone continua a mantenere un ruolo dominante a livello globale, dall’altro le sfide interne ed esterne si moltiplicano, rendendo il futuro meno lineare di quanto appaia nei numeri ufficiali.

Quando l’intelligenza artificiale sembra “pensare” senza essere cosciente: l’illusione del ragionamento nell’architettura liquida dell’AI

Nell’epoca dell’IA, non è più sufficiente domandarsi se queste macchine possiedano una forma di coscienza. Il vero interrogativo, il più insidioso e paradossale, è come sia possibile che comportamenti che sembrano “pensati” emergano da sistemi che, in realtà, non pensano affatto. Quando parliamo di algoritmi e reti neurali, stiamo parlando di una cognizione che non si appoggia su processi lineari, ma che fluttua nell’indeterminato di spazi multidimensionali, in un gioco probabilistico che dà l’impressione di un pensiero. È un pensiero che non ha né consapevolezza né intenzionalità, ma che produce risposte perfettamente coerenti con ciò che un essere umano si aspetterebbe. L’architettura fluida che caratterizza i modelli linguistici di ultima generazione non “pensa” come noi, ma questo non impedisce loro di sembrare in grado di farlo.

NLWeb, AI e sicurezza: il nuovo protocollo di Microsoft è già caduto

Benvenuti nel brillante futuro dell’“Agentic Web”, dove ogni sito promette di diventare un compagno conversazionale intelligente e proattivo, alimentato da LLM e nutrito di prompt. O almeno così ci raccontano da Redmond, tra keynote epici e slide patinate. Peccato che questo futuro, costruito sul protocollo NLWeb di Microsoft, abbia già mostrato le crepe di un passato mai del tutto abbandonato: il solito, deprimente, banale path traversal.

Nel mondo reale, dove la sicurezza informatica non si improvvisa a colpi di marketing e presentazioni da evento, il team di ricerca composto da Aonan Guan e Lei Wang ha fatto una scoperta sconcertante. Hanno trovato una vulnerabilità critica nel neonato protocollo NLWeb, tanto decantato da Microsoft solo qualche mese fa durante Build. Una vulnerabilità classica, di quelle da manuale anni ‘90, che permette a chiunque, con un minimo di malizia e un URL modificato, di leggere file sensibili sul server. Inclusi, per la cronaca, file di configurazione e persino chiavi API di modelli LLM come OpenAI o Gemini.

Tassonomia delle allucinazioni nei LLM: il catalogo delle menzogne computazionali

La prossima volta che un manager ti dice che un LLM “ha allucinato”, fermalo. Non perché ha torto. Ma perché ha ragione. Troppa. E non lo sa. Quello che chiamiamo hallucination AI non è un incidente di percorso. È un sintomo. Ma non di un bug. Di una condizione esistenziale. Di un teorema. L’inevitabilità dell’allucinazione nei Large Language Models non è più solo un sospetto empirico. È un fatto matematico. Formalizzato. Dimostrato. E ignorato, ovviamente, da chi firma contratti per metterli in produzione.

La tassonomia delle allucinazioni nei LLM è il nuovo DSM-5 della patologia algoritmica. Una classificazione psichiatrica per modelli linguistici. Fatti non per ragionare, ma per prevedere la prossima parola come un croupier ubriaco lancia fiches su un tavolo di roulette semantica. Il documento che analizza questa tassonomia è un trattato di chirurgia computazionale, freddo, elegante, terrificante e per chi lavora con questi modelli, semplicemente obbligatorio.

Pagina 2 di 45

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie