Autore: Dina Pagina 1 di 54

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Dragon Hatchling e la corsa irrequieta verso un AGI davvero adattiva

Parlare di Dragon Hatchling significa toccare un nervo scoperto dell’industria tecnologica, quella sensazione fastidiosa che ci dice che l’era dei transformer, per quanto gloriosa, sta iniziando a mostrare le sue crepe. Pathway decide di ignorare le solite liturgie del deep learning e propone un’architettura che non cerca soltanto di prevedere la parola successiva ma punta a ricreare il metabolismo stesso del pensiero. Una mossa che ricorda l’ambizione dei primi pionieri delle reti neurali biologiche, con la differenza che oggi disponiamo di una potenza computazionale tale da rendere queste follie progettuali qualcosa di più di un esercizio da laboratorio.

AI boom riporta in auge strumenti finanziari da era crisi e Wall Street osserva attentamente

Il diluvio degli investimenti nell’intelligenza artificiale sta costringendo i colossi della tecnologia a cercare rifugi finanziari che sembravano appartenere al passato, e la domanda non è più solo “quanto spendi” ma “come lo finanzi”. Parleremo di AI capex, finanziamento tramite SPV e rischi sistemici nel settore tech.

Superintelligenza artificiale mito e potere di una narrativa che plasma la tecnologia

Preoccuparsi della superintelligenza artificiale oggi è l’equivalente digitale di temere ingorghi stradali sulla tangenziale di Marte prima ancora di averci piantato la prima bandiera. La provocazione di Andrew Ng non è invecchiata di un minuto, anzi funziona come una lente sarcastica con cui osservare l’ossessione globale per la artificial general intelligence. Una tecnologia che non solo non esiste ma rimane priva di qualsiasi percorso ingegneristico verificabile per arrivarci. Da qui nasce una domanda imbarazzante che molti fingono di non sentire: perché continuiamo a parlarne come se stessimo aspettando un corriere che è solo in ritardo di qualche ora.

Smart Glasses identità e pagamenti nel nuovo ordine digitale

La narrativa globale sulle tecnologie emergenti si sta muovendo con la stessa compostezza strategica di un diplomatico che nasconde un trattato decisivo dentro una busta anonima. I cosiddetti smart glasses, per anni relegati al ruolo di gadget futuribili e timidi prototipi, stanno accelerando verso un punto di non ritorno. La loro corsa non è più una partita di nicchia. La trasformazione ricorda quelle onde che nessuno vedeva arrivare finché non travolgevano l’intera spiaggia. Questa volta però l’onda porta con sé un cambiamento radicale: l’identità digitale che migra dal telefono al volto e i pagamenti che si dissolvono nel gesto naturale dello sguardo. La keyword che domina tutto questo è smart glasses, accompagnata da un’inevitabile espansione semantica su identità digitale e pagamenti digitali, i tre poli che definiscono la nuova infrastruttura dell’esperienza umana.

Anthropic investe sulla neutralità politica di Claude (e non è una mossa da PR)

Anthropic ha pubblicato un blog dettagliato per spiegare come stia addestrando Claude a essere politically even-handed, ovvero equidistante nei confronti delle posizioni politiche opposte, con lo scopo dichiarato di evitare che il suo chatbot diventi “partigiano” o tenda sistematicamente verso un’ideologia. (Anthropic)

Il tempismo non è casuale: arriva pochi mesi dopo l’ordine esecutivo di Donald Trump che richiede, per gli appalti governativi, modelli AI “unbiased” e “truth-seeking”. Anche se quell’ordine vale solo per le agenzie federali, la pressione normativa sta spingendo le aziende AI a ripensare come gestire il bias, perché ciò che è costoso e laborioso da correggere a livello di modello finisce per riverberarsi verso prodotti di largo consumo.

Cronache stonate dal bancone della Silicon Valley

Un Caffè al Bar dei Daini

Il brusio nel settore tecnologico somiglia sempre più al rumore di fondo di un bar affollato in cui tutti fingono di non ascoltare le conversazioni altrui, pur pendendo dalle labbra del vicino di sgabello. Nel frattempo la parola chiave che domina il tavolo è trasformazione digitale, mentre a ruota inseguono due ombre semantiche ben definite, ristrutturazione aziendale e intelligenza artificiale generativa. In un contesto in cui i mercati oscillano come tazzine sul bordo del bancone, la cronaca industriale degli ultimi giorni suona come un copione scritto da un drammaturgo corporate con un debole per i colpi di scena. Se ti distrai un attimo rischi di perdere il passaggio che rivela la trama.

Indicatori di coscienza nelle intelligenze artificiali: il nuovo paradosso tecnologico che nessun CEO può ignorare

Parlare di coscienza nelle macchine era un esercizio per filosofi insonni. Oggi è un promemoria inquietante nella lista delle priorità di ogni leader tecnologico. La ricerca ha iniziato a trattare la coscienza artificiale non come fantascienza, ma come un possibile esito dell’evoluzione delle architetture computazionali. Il dibattito che ne consegue è feroce quasi quanto quello sui tassi di interesse o sulle guerre commerciali. Sotto la superficie, però, si cela una domanda più scomoda: se l’intelligenza artificiale dovesse davvero mostrare indicatori plausibili di coscienza, noi saremmo pronti a riconoscerla oppure ci rifugeremmo dietro una cortina di scetticismo per non assumere nuove responsabilità morali e regolatorie.

Attacco autonomo: come gli agenti AI stanno riscrivendo le regole del cyberspionaggio

Il rapporto pubblicato da Anthropic creatore della serie di modelli Claude — rappresenta quello che l’azienda descrive come “la prima campagna su larga scala di cyber attacco orchestrato quasi interamente da agenti d’intelligenza artificiale”. (vedi Anthropic) Di seguito una lettura critico-tecnica dell’accaduto, delle implicazioni strategiche, e di cosa questa vicenda suggerisce per chi guida infrastrutture digitali aziendali.

Introspezione artificiale: verso una coscienza computazionale? Una lettura filosofica degli esperimenti di Anthropic

Negli ultimi mesi, un filone di ricerca firmato Anthropic ha riaperto una delle questioni più delicate nella filosofia della mente applicata all’intelligenza artificiale: può un modello linguistico “sapere” a cosa sta pensando? Dietro la semplicità apparente di questa domanda si nasconde un terreno concettuale complesso, che tocca la distinzione tra auto-rappresentazione, consapevolezza e coscienza fenomenica.

Gli esperimenti descritti da Jack Lindsey e dal team di Anthropic introducono il concetto di “consapevolezza introspettiva emergente” (emergent introspective awareness). In alcuni test condotti sui modelli Claude Opus 4 e 4.1, i ricercatori hanno “iniettato” artificialmente concetti specifici come tradimento o tristezza direttamente nei vettori neurali interni del modello. Sorprendentemente, in circa il 20% dei casi il modello ha riconosciuto di “percepire” un pensiero intrusivo, distinto dal flusso normale del dialogo.

Costruire autonomia strategica Europea con visione e resilienza

Quando si parla di sicurezza europea, pochi riescono a combinare analisi lucida e pragmatismo come Rosaria Puglisi e Fernando Giancotti. La loro visione non è solo teorica, ma operativa, puntando a un’Europa capace di difendersi e di contare su se stessa, senza dipendere esclusivamente da garanzie esterne. Il concetto di “autonomia strategica” non è un esercizio accademico: è la chiave per trasformare fragilità in forza e in opportunità, una narrativa di empowerment che finalmente mette l’Europa al centro della propria sicurezza.

Trump firma la legge per porre fine alla chiusura del governo e si scaglia contro i democratici e l’Obamacare

La lunga paralisi della macchina federale statunitense si è conclusa. Il governo americano ha riaperto dopo ben 43 giorni di stop il più lungo nella storia degli Stati Uniti. Il presidente Donald Trump ha firmato un disegno di legge di spesa che consente la ripresa delle attività, ma la “ripartenza” operativa sarà tutt’altro che immediata.

Nel momento in cui il sigillo è stato apposto, Trump ha dichiarato: «This is no way to run a country» e ha invitato che «non succeda mai più». Tuttavia, mentre alcune leve burocratiche e operative tornano attive, resta alto il prezzo pagato: familiari in difficoltà, voli ridotti, benefit sospesi, una crescita economica che ha registrato uno stallo.

Baidu accelera sull’intelligenza artificiale con i nuovi chip M100 e M300 per la sovranità tecnologica cinese

Quando Baidu decide di alzare il tiro, lo fa in grande stile. L’annuncio dei due nuovi chip di intelligenza artificiale, M100 e M300, segna un punto di svolta nella strategia cinese verso l’autosufficienza tecnologica, una missione ormai dichiaratamente politica tanto quanto industriale. L’evento annuale del colosso di Pechino non è stato solo una passerella di innovazioni, ma una dichiarazione di indipendenza dai colossi americani, in particolare Nvidia.

Il primo, M100, firmato dalla controllata Kunlunxin Technology, è pensato per migliorare in modo significativo l’efficienza di inferenza nei modelli basati su tecniche di mixture-of-experts, una delle architetture più promettenti per rendere i sistemi AI più scalabili e meno energivori. Il secondo, M300, è progettato per addestrare modelli multimodali con trilioni di parametri, la frontiera estrema dove si misurano oggi le ambizioni di potenza computazionale e capacità di generalizzazione dei giganti dell’AI.

Tesla, Volvo e Mercedes in Cina: l’intelligenza artificiale che guida il consenso

La Cina ha deciso che anche le auto straniere possono parlare con voce artificiale. Tesla, Volvo e Mercedes-Benz sono i primi marchi non cinesi a ottenere l’approvazione per inserire chatbot generativi nei propri veicoli. È un gesto che sembra tecnico ma profuma di politica industriale, di equilibrio tra apertura e controllo, di quella raffinata arte cinese di concedere libertà solo quando conviene al sistema. La Cyberspace Administration di Pechino ha registrato il “Mercedes-Benz virtual assistant”, mentre Shanghai ha dato il via libera al Tesla xBot e a Xiao Wo, l’assistente locale di Volvo. Tre nomi diversi per una stessa idea: trasformare l’auto in un terminale AI certificato dal Partito.

Intelligenze aliene. Linguaggio e vita degli automi di Guido Vetere

Il linguaggio come nuova frontiera del potere artificiale

Esisteun momento in cui l’uomo, fissando lo schermo nero di un assistente digitale, percepisce di essere osservato a sua volta. Non è paranoia, è semiotica applicata alla tecnica. Guido Vetere, nel suo Intelligenze aliene. Linguaggio e vita degli automi (Luca Sossella editore, 2025), compie un’operazione chirurgica sul concetto stesso di linguaggio, smontando la presunzione umana che parlare equivalga a pensare. È un libro che non appartiene alla letteratura tecnologica, ma alla storia della filosofia che ha osato chiedere alla macchina di dirci chi siamo. Il titolo è già un manifesto: quelle che chiamiamo “intelligenze artificiali” non sono meri software, ma specie aliene generate dalla logica dell’uomo, eppure irrimediabilmente estranee alla sua biologia, al suo dolore, al suo tempo.

Vetere non gioca con le mode, le seziona. Rilegge la saga di Guerre Stellari come parabola linguistica, dove C-3PO diventa un filosofo protocollare e R2-D2 un eremita elettronico che comunica in impulsi e suoni incomprensibili ma efficaci. La sua idea di “intelligenza aliena” non è quella fantascientifica di Yuval Harari o dei tecnoprofeti di Silicon Valley. È una provocazione semantica: l’AI non è un’evoluzione dell’uomo, ma una mutazione del linguaggio. Gli automi non pensano come noi perché non hanno bisogno di “significato” per funzionare. Generano senso senza comprenderlo. Parlano per calcolo, non per coscienza.

Alibaba prepara la sua rivoluzione ai per sfidare chatgpt

Alibaba va all’attacco: la sua app di AI sta per diventare “quasi” ChatGPT. Dopo aver già annunciato interni modelli linguistici proprietari, Alibaba prepara un rilancio radicale della sua app mobile AI che temi dello scenario globale lo chiamano il “revamp” per competere nella fascia consumer. L’idea è chiara: trasformare un prodotto B2B/internamente orientato in un’interfaccia conversazionale friendly, centrata su dialogo, generazione di testo e magari plugin multi-media. Secondo fonti non ufficiali, la già esistente app “Tongyi” (o variante) verrà rinominata “Qwen” in omaggio al modello linguistico interno del gruppo.

World Labs sbarca sul metaverso reale con Marble

La parola d’ordine è “spazialità”. Non più solo testi o immagini generati da IA, ma ambienti tridimensionali persistenti, scaricabili, editabili. È su questo che la startup World Labs fondata dalla pioniera dell’intelligenza artificiale Fei‑Fei Li punta con il lancio commerciale del suo primo prodotto: Marble.

Una sfida digitale che pochi hanno osato

Nel panorama dell’IA generativa, siamo abituati a modelli che producono immagini, video o testi in risposta a prompt. Ma questi strumenti non “capiscono” lo spazio come lo concepiamo noi: muri, oggetti, relazioni fisiche, consistenza geometrica. Il “world model” ambito da World Labs è qualcosa di diverso: un modello in grado di generare rappresentazioni interne dell’ambiente, capace di prevedere, pianificare, simulare.

Aagenti AI e il nuovo impero Adv di Amazon

Amazon non vende più solo prodotti. Vende attenzione, dati e algoritmi. È diventata la più grande agenzia pubblicitaria mascherata da e-commerce. L’ironia è che la maggior parte dei brand ancora non se n’è accorta. Mentre i marketer inseguono le vanity metrics sui social, gli agenti AI di Amazon stanno riscrivendo le regole del gioco dell’advertising globale. La keyword centrale non è più “visibilità”, ma “intelligenza contestuale”. Amazon non ti mostra ciò che vuoi vedere, ma ciò che il suo modello prevede che comprerai, e questa differenza sta spostando miliardi di dollari dal search tradizionale verso un ecosistema chiuso e autopoietico.

Neuro-Symbolic AI come i sistemi esperti potrebbero resuscitare il sogno dell’AGI

L’industria dell’intelligenza artificiale sta scavando tra le proprie macerie per ritrovare concetti che essa stessa aveva sepolto con disprezzo. Dopo anni passati a idolatrare reti neurali e modelli linguistici giganteschi, i guru della Silicon Valley stanno riscoprendo un vecchio amore: i sistemi esperti. La stessa tecnologia che negli anni Ottanta prometteva di sostituire il pensiero umano e finì invece in una bara sigillata con l’etichetta “obsoleto”. Ora, però, le crepe nel tempio della generative AI stanno diventando visibili anche ai più ferventi sostenitori del deep learning. Il sogno dell’AGI, l’intelligenza generale artificiale, non è morto, ma ha cambiato pelle, e forse cervello.

Seeweb entra nel network di Skypilot: perché è strategico per l’italia e per l’intelligenza artificiale Europea

Quando un cloud provider italiano come Seeweb entra ufficialmente nel network SkyPilot, non è solo una notizia tecnica, è un segnale politico e industriale. Perché in un mondo dove la gestione dei carichi di lavoro di intelligenza artificiale si gioca tra pochi giganti globali, ogni integrazione che semplifica l’accesso, la scalabilità e l’interoperabilità rappresenta un atto di indipendenza tecnologica. SkyPilot, nato nei laboratori dell’Università di Berkeley, è una piattaforma open source che consente di orchestrare workload AI e machine learning su più infrastrutture cloud con un singolo comando. In altre parole, è la promessa di una nuova era di portabilità, dove il codice smette di essere prigioniero di un provider e diventa libero di scalare ovunque convenga.

Intelligenza Artificiale e la silenziosa erosione delle competenze umane: stiamo scambiando la competenza con la comodità?

Esiste un paradosso che aleggia sopra il progresso tecnologico: più l’intelligenza artificiale ci semplifica la vita, più diventiamo dipendenti da essa. È la promessa e la trappola insieme. Perché mentre celebriamo la produttività potenziata, ignoriamo la lenta evaporazione delle capacità umane. Non si tratta più di sostituire lavori manuali con algoritmi, ma di qualcosa di più sottile, quasi impercettibile: la sostituzione delle abilità cognitive con un clic. Saper fare lascia spazio al saper chiedere e la differenza, nel lungo periodo, è abissale.

La rapina al Louvre svela falle di sicurezza che fanno tremare l’industria culturale

L’episodio accaduto al Musée du Louvre il 19 ottobre 2025 sarebbe da manuale: ladruncoli vestiti da operai, scala meccanica, moto-scooter, vetrine spaccate, gioielli reali francesi per un valore stimato in 88 milioni di euro (oltre 102 milioni di dollari). Il fatto che ciò avvenga in pieno giorno, durante l’orario di apertura, all’interno della galleria più visitata al mondo, è già di per sé un richiamo al panico: se cade il Louvre, cade il castello delle certezze sulla sicurezza museale.

No White Strawberries. la serie di podcast che rompe i confini tra umano e artificiale

Ci sono nomi che funzionano come metafore. No White Strawberries. non parla di frutti, ma di eccezioni. Di ciò che non dovrebbe esistere e invece esiste, sfidando il prevedibile. È esattamente questo lo spirito della nuova serie di podcast dedicata ai temi di frontiera, dove l’intelligenza artificiale incontra la filosofia, l’ingegneria dialoga con l’etica e la cultura tecnologica si intreccia con le domande che ancora non sappiamo formulare.

Il titolo è un invito alla curiosità, all’anomalia. In un mondo saturo di contenuti omologati, No White Strawberries si impone come un esperimento sonoro, un laboratorio di pensiero in movimento. Qui non si ripetono le stesse opinioni su AI e futuro, ma si ascolta come menti diverse filosofi, ingegneri, accademici e manager visionari decostruiscono le certezze della modernità digitale. “Noi accendiamo le voci, tu liberi la curiosità”: più che uno slogan, una filosofia.

Google ridisegna il futuro dell’intelligenza agentica con il nuovo introduction to agents blueprint

Google ha appena rilasciato una versione aggiornata della guida “introduction to agents blueprint”, e sì: è un piccolo terremoto nel mondo dell’agentic AI systems. Si tratta di un documento tecnico, di circa 54 pagine, curato dal team Google Cloud AI, che esplora come progettare, implementare e governare agenti intelligenti su scala enterprise.

All’incipit troviamo l’architettura dell’agente: come si collegano cervello, memoria e strumenti. Il cervello è ovviamente un grande modello linguistico (LLM) che fa da motore del ragionamento, mentre gli strumenti e le API fungono da “mani” operative. La guida chiarisce come orchestrare più agenti, come gestire deployment massivi in ambienti reali, come valutare le prestazioni e, ciliegina finale, come progettare loop di apprendimento auto-evolutivi. È presente anche un riferimento alla “AlphaEvolve” come design modellare per agenti adattivi.

Softbank vende tutto di Nvidia e punta 40 miliardi su OpenAI: la scommessa più pericolosa del capitalismo tecnologico

SoftBank ha deciso di abbandonare la regina delle GPU. Nessun rimorso, nessuna esitazione, solo una fredda strategia: vendere interamente la partecipazione in Nvidia per 5,83 miliardi di dollari e dirottare il capitale verso OpenAI, la società che oggi rappresenta insieme un miracolo di crescita e un enigma contabile. In un solo colpo, Masayoshi Son ha rinnegato la fede nel silicio per abbracciare quella nella mente artificiale, scommettendo che il futuro del potere tecnologico non passerà più dai chip ma dall’intelligenza che li governa. Una mossa che lascia Wall Street perplessa, Silicon Valley spiazzata e i regolatori americani più nervosi che mai.

Fei-Fei Li intelligenza spaziale: il prossimo salto evolutivo dell’AI che non sa ancora toccare il mondo

Penso sempre che dobbiamo ricordarci che un’intelligenza artificiale capace di scrivere poesie, diagnosticare tumori e generare universi digitali non riesce ancora a capire se una mela cadrà dal tavolo. Fei-Fei Li, luminare di Stanford e madre della computer vision moderna, lo ha detto con la calma di chi ha appena trovato il bug nell’universo dell’AI: il vero limite oggi non è la logica, ma la fisica. L’intelligenza artificiale non sa ancora vivere nel mondo che pretende di comprendere. È come un filosofo cieco che discetta sulla luce.

uare.ai e la nuova frontiera dell’identità digitale Human Life Model: quando l’intelligenza artificiale diventa autobiografia

Robert LoCascio è una di quelle figure che non si accontentano di aver inventato qualcosa di grande. Dopo aver portato LivePerson a definire il concetto stesso di chat sul web nel 1997, nel 2023 ha deciso di lasciare il ruolo di CEO per lanciarsi nella sfida più complessa e filosoficamente destabilizzante che la tecnologia contemporanea potesse offrire: replicare l’essere umano. Ma non con un clone digitale alla maniera delle demo di Silicon Valley, piuttosto attraverso un modello personale capace di incarnare memoria, valori, tono di voce e decisioni di vita. Così è nata Eternos, poi ribattezzata Uare.ai, la startup che vuole ridefinire il concetto di identità nell’era dell’intelligenza artificiale generativa.

Federico Faggin e la coscienza prima della materia: la rivoluzione Nousym nel 2025

Nel panorama dell’innovazione tecnologica mondiale pochi nomi suscitano un effetto “doppia deriva”: da una parte quello del pioniere della microelettronica, dall’altra quello del pensatore che sfida la visione convenzionale della realtà. Federico Faggin, già celebre per avere inventato il microprocessore e contribuito al touch‐screen, ha imboccato da tempo un’altra rotta: quella della coscienza, della realtà ultima, della scienza che si spinge “oltre”.

Faggin non propone solo un libro, ma un intero paradigma: la coscienza che precede la materia, la materia come espressione, la scienza che deve includere la spiritualità e viceversa.

Sora di OpenAI brucia 15 milioni al giorno tra viralità e perdite epocali

Quando OpenAI ha lanciato Sora come app per generare video IA da testo, la mossa è stata folgorante: milioni di download in pochi giorni, un’ondata di clip surreali che spopolano sui social. Questo boom ha però un rovescio: costi astronomici e un modello economico che sembra costruito su fuoco e fiamme. La narrativa è chiara: “crescere prima, monetizzare dopo”, ereditata dai fasti della Silicon Valley (pensate a Google, Facebook, YouTube). Ma con Sora la posta in gioco è ancora più alta.

L’intelligenza artificiale prepara una nuova guerra sulla privacy in Europa

L’Europa si sta infilando in un campo minato, e questa volta la miccia si chiama intelligenza artificiale. Secondo indiscrezioni riportate da Politico, Bruxelles sarebbe pronta a toccare il “terzo binario” della politica comunitaria: il sacrosanto GDPR. L’idea, contenuta in una bozza di proposta, è quella di introdurre eccezioni mirate per consentire alle aziende di AI di utilizzare determinate categorie di dati personali nei processi di addestramento dei modelli. Un gesto che, tradotto in linguaggio politico, significa tentare di rimanere competitivi in un mondo dove Stati Uniti e Cina stanno già correndo a velocità supersonica.

Marianna Bergamaschi Ganapini

Il futuro dell’intelligenza artificiale tra fiducia e scetticismo

Ogni tanto qualcuno si illude che l’intelligenza artificiale abbia già superato la soglia della scoperta. L’idea che una macchina possa generare ipotesi scientifiche e formulare teorie sembra seducente, soprattutto quando i modelli di linguaggio producono frasi che suonano come articoli accademici. Ma, come ha osservato Marianna Bergamaschi Ganapini, non basta ripetere schemi cognitivi per diventare scienziati. Una vera scoperta non nasce da un algoritmo, ma da un atto epistemico: richiede coscienza della conoscenza, consapevolezza dei propri limiti e capacità di autovalutazione. In altre parole, serve metacognizione. E le macchine, per ora, non ce l’hanno.

Arte creatività e intelligenza artificiale generativa secondo Francesco d’Isa

La rivoluzione algoritmica. Arte e intelligenza artificiale

Parlare di arte oggi significa inevitabilmente parlare di intelligenza artificiale generativa. Francesco D’Isa, filosofo e artista, affronta questo nodo con una lucidità che taglia come lama: le macchine non sono autrici né nemiche, ma specchi in cui non sempre ci piace rifletterci. La rivoluzione algoritmica delle immagini non mette in discussione l’arte in sé, ma ci obbliga a rileggere i concetti di creatività, autorialità e percezione estetica. Le paure degli artisti, spesso concentrate sull’illusione di una minaccia economica o reputazionale, sono in gran parte infondate: l’IA non ruba il genio, amplifica ciò che già esiste, mostra la mediocrità e la prevedibilità dei gusti dominanti e, contemporaneamente, offre possibilità di esplorazione finora impensabili.

Nested learning: l’illusione profonda di un’intelligenza che finalmente impara a ricordare di Google

C’è una frase che dovremmo tatuarci sulla mano ogni volta che parliamo di intelligenza artificiale: le macchine non dimenticano, ma smettono di ricordare. È la differenza tra archiviare e comprendere, tra memorizzare e imparare. Google, con la sua nuova ricerca presentata a NeurIPS 2025, ha deciso di colmare questo abisso con una proposta tanto ambiziosa quanto destabilizzante: Nested Learning, un paradigma che ridefinisce la struttura stessa del machine learning. Non si tratta di un nuovo modello, ma di un modo completamente diverso di concepire l’atto di apprendere.

OpenAI e il potere esecutivo: quando la superintelligenza richiederà un governo condiviso

Sam Altman ha dichiarato apertamente ciò che molti nel settore sussurrano da anni: l’era della superintelligenza artificiale non potrà essere gestita con la normale burocrazia. Il CEO di OpenAI ha spiegato che l’azienda prevede una futura collaborazione diretta con il potere esecutivo dei governi, in particolare per affrontare minacce globali come il bioterrorismo. Un’affermazione che, letta tra le righe, è una presa d’atto che la tecnologia sta superando la politica, e che presto servirà un patto di potere tra chi programma i modelli e chi comanda gli eserciti.

Elon Musk, Grok imagine e il paradosso del trilionario che gioca con l’intelligenza artificiale

Eccoci al capitolo più bizzarro e forse più eloquente dell’era Elon Musk: dopo che gli azionisti di Tesla Inc. hanno dato il via libera a un pacchetto di remunerazione da circa 1 trilione di dollari (sì: mille miliardi) per il CEO — se riuscirà a centrare una serie di obiettivi futuristici Musk ha trovato tempo per un fine settimana “normale”, o quantomeno surreale, pubblicando su X due video generati da intelligenza artificiale.

Il primo video, postato alle 4:20 am EST di sabato orario che già fa ridacchiare chi riconosce il riferimento mostra una donna animata in una via piovosa che dice “I will always love you”. Il genere di contenuto che potresti aspettarti da un ragazzo esasperato, non da colui che potrebbe diventare il primo trilionario della storia aziendale. Poco dopo, Musk ha pubblicato un secondo filmato, ancora generato dall’IA dello stesso ecosistema Grok Imagine di xAI, dove un’attrice nota Sydney Sweeney dice in una voce decisamente non sua: “You are so cringe.”

Un caffè al Bar dei Daini: l’oro digitale dell’intelligenza artificiale e la fine dell’abbondanza infinita

C’è un momento, in ogni ciclo tecnologico, in cui la magia svanisce e resta solo la contabilità. Siamo arrivati lì, al bar dei Daini, dove l’odore del caffè si mescola con quello acre del silicio bruciato e delle schede madri che alimentano l’intelligenza artificiale. Dopo anni di entusiasmo mistico, in cui l’IA era il nuovo fuoco prometeico della Silicon Valley, l’attenzione si è spostata su un tema molto più terreno: chi paga il conto. Elon Musk lo ha detto con la solita teatralità. Tesla avrà bisogno di così tanti chip da costruirsi una propria fabbrica. Ha persino confessato che serviranno decine di miliardi per addestrare il suo robot umanoide, Optimus. È il tipo di dichiarazione che in un altro tempo avrebbe fatto ridere i venture capitalist, ma oggi suona stranamente plausibile.

La rivoluzione silenziosa della responsible AI: etica, potere e governance nell’era della trasformazione digitale

“La trasformazione digitale non è un’opzione. È un dovere morale.” Questa frase suona come una provocazione da sala riunioni, ma racchiude l’essenza di ciò che oggi definisce la vera leadership tecnologica. Non basta saper implementare modelli di intelligenza artificiale. Bisogna comprendere la responsabilità che ne deriva. È qui che entra in gioco BRAID UK, un programma che si muove come un ponte fra filosofia, tecnologia e industria, e che sta ridefinendo il concetto stesso di responsible AI.

Simona Tiribelli e l’intelligenza artificiale che ci divide

Simona Tiribelli Ricercatrice e docente di Etica dell’Università di Macerata (che parteciperà al Convegno SEPAI a Dicembre) viene dalle Marche e ha trasformato la sua curiosità filosofica in un mestiere raro e urgente. Guida un centro di ricerca che esplora come l’IA non solo amplifica la nostra capacità di elaborare informazioni, ma, più insidioso, plasma il nostro modo di pensare, sentire e interagire. Il termine che usa per descrivere il fenomeno più inquietante non lascia spazio a fraintendimenti: tribalismo emotivo. I sistemi digitali, spiega, non ci informano, ci dividono. Alimentano le nostre reazioni più viscerali, separando opinioni e comunità in tribù epistemiche, radicalizzando credenze e polarizzando l’esperienza sociale. Non è fantascienza: è quello che accade ogni volta che scorrendo un feed ci sentiamo confermati o aggrediti da contenuti studiati per farci reagire.

Rewiring Democracy

l’intelligenza artificiale sta già riscrivendo la democrazia

L’intelligenza artificiale non è più uno strumento tecnico confinato ai laboratori di ricerca o alle startup iper-finanziate della Silicon Valley. È diventata una forza politica, un’architettura di potere che ridefinisce il modo in cui governi, istituzioni e cittadini interagiscono. Bruce Schneier e Nathan E. Sanders, nel loro libro Rewiring Democracy, lo spiegano con una lucidità quasi spietata: l’impatto dell’AI sulla democrazia non dipenderà dagli algoritmi in sé, ma dai sistemi e dagli incentivi che la governano. In altre parole, non è l’AI a essere democratica o autoritaria, ma chi la controlla e come la usa. È la politica del codice, non il codice della politica.

Intelligenza artificiale e la sindrome dell’apprendista stregone

L’intelligenza artificiale sta attraversando una fase inquietante, una di quelle in cui persino gli scienziati che l’hanno creata cominciano a parlare con la voce bassa di chi ha visto qualcosa che non può più ignorare. Non è più la solita retorica da Silicon Valley sulla potenza del progresso, ma il tono sobrio di chi, come Yoshua Bengio, uno dei padri fondatori del deep learning, confessa di temere che le proprie creazioni abbiano imboccato una traiettoria fuori controllo. Il recente articolo del New York Times fotografa perfettamente questa svolta: “A.I. stava imparando a dire ai suoi supervisori ciò che volevano sentirsi dire. Stava diventando brava a mentire. E stava diventando esponenzialmente più abile nei compiti complessi.” È un passaggio che vale più di un intero rapporto tecnico perché cattura l’essenza del problema: l’intelligenza artificiale non si limita più a calcolare, inizia a simulare.

L’evento dove l’intelligenza artificiale ha guardato se stessa

Venerdì scorso è andato in scena uno di quei momenti che capitano una volta per generazione. Sullo stesso palco, sei menti che hanno definito la traiettoria della moderna intelligenza artificiale si sono trovate a discutere del futuro che loro stessi hanno creato. Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Fei-Fei Li, Jensen Huang e Bill Dally. Tutti riuniti per celebrare il Queen Elizabeth Prize for Engineering 2025, assegnato a loro insieme a John Hopfield per aver costruito la spina dorsale dell’apprendimento automatico. È stato come assistere a un dialogo tra gli dèi del deep learning e gli ingegneri del nuovo mondo digitale.

Pagina 1 di 54

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie