Conservation Process Model: un ponte concettuale tra restauro e dati interoperabili

An ontology for Conservation in Architecture

Il libro Conservation Process Model (2025), edito da Sapienza Università Editrice in open access (pdf disponibile, 306 pagine, licenza CC BY-NC-ND) è il risultato di un percorso scientifico durato decenni da parte delle professoresse Marta Acierno e Donatella Fiorani, con l’obiettivo ambizioso di definire un’ontologia dedicata al dominio della conservazione architettonica. L’idea cardine: non lasciare che i dati restino “confinati” in silos, ma costruire un linguaggio concettuale che permetta di mettere ordine nel caos, favorire interoperabilità, ragionamento automatico e continuità della conoscenza nel tempo.

IBM e GROK accelerano l’intelligenza artificiale agentica per le imprese: il nuovo asse tra velocità e scala

Quando IBM decide di muoversi, lo fa con la solita calma glaciale di chi sa che il mondo si muoverà comunque nella sua direzione. L’annuncio del 20 ottobre 2025 sancisce un’alleanza strategica che, per chi legge tra le righe del mercato, va ben oltre una semplice partnership tecnologica.

IBM e Groq uniscono le forze per portare l’intelligenza artificiale agentica dall’arena sperimentale ai processi produttivi reali, attraverso un’integrazione profonda tra watsonx Orchestrate e la piattaforma GroqCloud, basata sull’architettura LPU.

Sutskever, Musk e il Bar dei Daini: chi comanda davvero l’intelligenza artificiale

La Silicon Valley ha smesso di essere un luogo. È diventata una condizione mentale, una forma di bipolarismo tecnologico in cui ogni settimana si alternano visioni messianiche e crisi identitarie. Benioff parla come un profeta stanco che non crede più nei suoi miracoli, Musk sfida la fisica e la legge di gravità finanziaria, Sutskever medita in silenzio sulla coscienza delle macchine, mentre Google tenta di convincere il mondo che la Privacy Sandbox non sia un modo elegante per rimpiazzare i cookie con un recinto proprietario.

Il triangolo geopolitico dell’AI: libertà selvaggia, regole di ferro o controllo totale? REPORT

In un mondo dove l’AI genera testi più eloquenti di un discorso presidenziale e immagini capaci di ingannare persino i più esperti, molto probabilmente la domanda che dobbiamo porci non è più se regolare questa tecnologia, ma come. Viviamo, inutile nascondercelo, in un’arena geopolitica dove l’Europa brandisce il righello della compliance come un monito biblico, gli USA accelerano a tavoletta sul binario dell’innovazione “libera per tutti” (o quasi) e la Cina orchestra un balletto tra sorveglianza e supremazia tecnologica.

Salesforce Agentforce, l’illusione perfetta del nuovo capitalismo algoritmico

C’è sempre un momento in cui la Silicon Valley decide di vendere al mondo un sogno così lucido da sembrare inevitabile. Poi arriva il risveglio, e con esso il conto. Salesforce Agentforce è l’ultimo esempio di questa coreografia digitale: un prodotto annunciato come il futuro dell’intelligenza artificiale enterprise, ma che somiglia sempre più a una scommessa disperata travestita da innovazione. Marc Benioff, il suo fondatore e oracolo di un capitalismo spirituale travestito da tecnologia, ha promesso che l’IA avrebbe trasformato ogni reparto vendite, ogni team di supporto, ogni interazione con il cliente. Il problema è che, come sempre, la realtà aziendale è meno glamour di un keynote.

OpenAI non permetterà a Sora di generare fakes di MLK

OpenAI ha annunciato giovedì sera di aver “messo in pausa” i deepfake di Martin Luther King Jr. sulla sua app sociale Sora dopo che gli utenti hanno creato video AI “irrispettosi” del leader per i diritti civili. Ora permette ai rappresentanti o agli eredi di figure storiche di scegliere di non far usare la loro immagine. La decisione è arrivata dopo le proteste della successione di King e di sua figlia Bernice King, che ha chiesto sui social media di smettere di inviare video AI di suo padre. King è tra molte celebrità e figure decedute la cui immagine appare su Sora, spesso in modi scortesi e offensivi.

Wikipedia contro l’intelligenza artificiale: la battaglia silenziosa per la sopravvivenza del sapere umano

Wikipedia sta perdendo visitatori umani. Non utenti distratti, non curiosi occasionali, ma persone in carne e ossa. La Wikimedia Foundation ha ammesso un calo di traffico umano di circa l’8% tra maggio e agosto 2025 rispetto allo stesso periodo dell’anno precedente, dopo aver scoperto che una parte significativa delle visite proveniva da bot mascherati da esseri umani, in gran parte provenienti dal Brasile. È una scoperta imbarazzante ma rivelatrice: il più grande archivio di conoscenza condivisa della storia moderna è diventato terreno fertile per algoritmi che si travestono da lettori. Un paradosso perfetto per l’era dell’intelligenza artificiale generativa.

Il lavoro come forma mentis: la trasmutazione dell’uomo nell’era dell’AI

C’è una domanda che attraversa tutte le epoche e che oggi, nell’era dell’intelligenza artificiale, pesa come un interrogatorio esistenziale:

“Cosa fai nella vita?”

Una domanda che sembra innocua, ma che rivela la più grande ipnosi del nostro tempo. Non chiede chi sei, né cosa ami, ma come monetizzi il tuo tempo. È la domanda che ci ha addestrati a misurare la nostra esistenza in termini di produttività, non di presenza. Che ci giudica per il ruolo sociale e professionale che rappresentiamo.

Per secoli abbiamo confuso l’essere con il produrre, fino a credere che l’uomo valga solo in proporzione alla sua capacità di generare utilità. Ora che la macchina impara a fare tutto – scrivere, creare, analizzare, progettare – la domanda si ribalta: che cosa resta dell’umano, quando tutto ciò che fa e che lo definisce può essere replicato da un algoritmo?

NVIDIA Blackwell TSMC Arizona onshoring semiconduttori

AI ha acceso una nuova rivoluzione industriale e stavolta gli Stati Uniti non vogliono guardare da lontano. NVIDIA e TSMC stanno costruendo l’infrastruttura che alimenta le fabbriche di intelligenza artificiale, direttamente sul suolo americano. Jensen Huang, fondatore e CEO di NVIDIA, ha visitato lo stabilimento TSMC a Phoenix per celebrare il primo wafer NVIDIA Blackwell prodotto negli Stati Uniti, segnando l’inizio della produzione di massa di Blackwell in patria.

Lava: l’AI che fa il tetris delle VM nei cloud (efficienza fino al 9 %)

Google Research ha appena presentato LAVA (Lifetime-Aware VM Allocation), un algoritmo di scheduling con intelligenza artificiale che re-predice continuamente la “durata residua” delle VM in esecuzione per comprimere i server cloud come fosse un Tetris: l’obiettivo è ridurre lo spazio “sprecato” sui nodi e migliorare l’efficienza fino a qualche punto percentuale. (Scopri di più sul blog ufficiale di Google) (Vedi research.google)

Memoria dinamica come azione, apprendimento multi-agente e cache condivise: la nuova frontiera degli agenti autonomi

Immagina un agente autonomo che non solo risponde ai comandi ma gestisce attivamente la propria memoria, decide cosa dimenticare, cosa ricordare, e lo fa come parte integrante della sua politica di decisione. Non è fantascienza: è il framework Memory as Action: Autonomous Context Curation for Long‑Horizon Agentic Tasks che trasforma la memoria da archivio passivo a azione deliberata.

In parallelo, un altro pezzo chiave del puzzle sono i sistemi multi-agente cooperativi: il metodo Stronger Together: On‑Policy Reinforcement Learning for Collaborative LLMs (AT-GRPO) innalza da circa il 14 % al 96-99 % la precisione su compiti di pianificazione a lungo termine.

L’efficienza brilla nella proposta KVCOMM: Online Cross‑context KV‑cache Communication for Efficient LLM‑based Multi‑agent Systems che consente fino a 7,8× accelerazione grazie alla riutilizzazione di cache chiave-valore condivise fra agenti. Se ti interessa davvero dominare il futuro degli agenti autonomi a lungo termine, queste tre innovazioni meritano l’attenzione.

Deepsomatic, l’intelligenza artificiale di Google e UC Santa Cruz che vede le mutazioni tumorali invisibili anche ai migliori scienziati

Quando Google Research e UC Santa Cruz dicono «abbiamo lanciato un modello AI che supera tutto» non è marketing, è guerra sui dati. DeepSomatic è il frutto dell’accoppiata fra l’esperienza in varianti genomiche di Google e il rigore bioinformatico dell’UCSC Genomics Institute. È stato presentato in un blog ufficiale Google come “un modello che identifica le varianti tumorali acquisite con precisione nei diversi dati di sequenziamento” (Visita Blog research.google). Nell’articolo ufficiale Google si legge che il lavoro è stato pubblicato su Nature Biotechnology con titolo: Accurate somatic small variant discovery for multiple sequencing technologies.

Absolute Zero Reasoner: l’AI che impara da sola a ragionare (senza dati umani, senza supervisione)

In un mondo dove le intelligenze artificiali sembrano crescere solo quando nutrite con montagne di dati etichettati, ecco emergere un’idea che scuote le fondamenta: un modello che impara a ragionare da solo, senza bisogno di set di dati umani, senza supervisione esterna, senza più insegnanti. Da Tsinghua, BIGAI e Penn State arriva l’Absolute Zero Reasoner (AZR), un prototipo che si autoprogramma, si autoverifica, si autocorregge — una specie di “AlphaZero del pensiero”.

Cominciamo con il nocciolo tecnico: AZR è la realizzazione di un nuovo paradigma chiamato Absolute Zero, ossia reinforcement learning with verifiable rewards (RLVR) completamente privato di dati “umani”.

Gino Roncaglia l’architetto e l’oracolo: quando il sapere diventa un software imperfetto

Nel libro L’architetto e l’oracolo. Forme digitali del sapere da Wikipedia a ChatGPT, Gino Roncaglia fa una cosa che pochi accademici italiani osano: affronta di petto la collisione fra epistemologia classica e intelligenza artificiale generativa. È un terreno scivoloso, dove la filosofia incontra la programmazione e il sapere diventa un software imperfetto. Roncaglia lo sa, e come ogni architetto consapevole del rischio di crollo, costruisce con pazienza un edificio che è insieme teoria, critica e visione.

Nel suo impianto, due figure si fronteggiano come divinità greche costrette a collaborare. L’Architetto, custode dell’ordine enciclopedico, convinto che il sapere debba essere strutturato, verificabile, gerarchico. L’Oracolo, entità generativa, probabilistica, che parla per approssimazioni, sforna risposte e versi con la stessa indifferenza statistica con cui un generatore casuale produce meraviglia. Uno costruisce il sapere, l’altro lo prevede. Entrambi pretendono di conoscerlo.

Alexandre Kojève: il filosofo che ha plasmato la fine della storia

Pochi filosofi hanno avuto un impatto silenzioso ma devastante sulla cultura politica del XX secolo come Alexandre Kojève. Nato in Russia e divenuto cittadino francese, il suo nome non compare nei manuali di storia come Marx o Sartre, eppure senza di lui la nostra comprensione della libertà, della politica e persino della democrazia globale sarebbe profondamente diversa. La storia della filosofia contemporanea è costellata di grandi figure, ma Kojève ha avuto la rara capacità di trasformare la teoria in esperienza concreta, senza mai perdere il gusto del paradosso.

Crisi nascosta delle banche regionali americane pronta a scuotere Wall Street e le Big Tech

Wall Street si trova a fare i conti con una crisi silenziosa che arriva dal cuore delle banche regionali americane, istituti che fino a poco tempo fa erano considerati pilastri stabili del sistema finanziario. Il crollo di Zions Bancorp e Western Alliance, con perdite rispettivamente del 13% e 11%, ha acceso i riflettori sulla qualità del credito in queste banche, spesso più vulnerabili rispetto ai colossi finanziari. Perdite su prestiti deteriorati, specialmente nel settore automobilistico e commerciale, stanno mettendo a dura prova la loro solidità. Zions ha registrato una perdita di 50 milioni di dollari su un singolo prestito, mentre Western Alliance ha intrapreso cause legali contro debitori per frode.

A Definition of AGI

Definire l’intelligenza artificiale generale: il momento in cui la scienza incontra la sua stessa illusione

C’è un dettaglio affascinante, quasi ironico, nel fatto che l’umanità abbia impiegato meno tempo a costruire modelli linguistici capaci di scrivere romanzi rispetto al tempo che servirà per definire cosa sia, esattamente, l’intelligenza. È accaduto che un gruppo di ricercatori provenienti da Oxford, MIT, Cornell, Berkeley e da oltre venticinque istituzioni globali abbia pubblicato un documento intitolato “A Definition of AGI”, nel tentativo di dare una forma concreta a ciò che chiamiamo intelligenza artificiale generale. Il paradosso è che nel momento stesso in cui proviamo a misurare la mente artificiale, finiamo per mettere in discussione la nostra.

Yann LeCun ha appena seppellito i Large Language Models e quello che arriva dopo potrebbe spazzare via ChatGPT

Image

Il titolo potrebbe suonare come uno slogan da startup in cerca di venture capital, ma quando parla Yann LeCun Chief AI Scientist di Meta Platforms e pioniere del deep learning non si fila le luci del palco, i discorsi auto-celebrativi o la corsa al “più grande modello possibile”. Per lui i grandi modelli linguistici (LLM, large language models) sono una via morta se vogliamo costruire vera intelligenza artificiale:

il suo obiettivo è quello che chiama Advanced Machine Intelligence (AMI) macchine che imparano facendo, sperimentando, interagendo col mondo.
Le­cun sostiene che «un bambino di quattro anni impara più fisica in un pomeriggio che l’LLM più grande impara da tutto l’internet».
Ecco perché, credo che quanto dice meriti un’analisi approfondita, senza compromessi.

Juan Loaiza and T.K. Anand Keynote on the “AI for Data” Revolution: Oracle AI World 2025

Oracle AI data platform e il nuovo impero dei dati intelligenti

C’è un momento preciso in cui le rivoluzioni tecnologiche smettono di essere promesse e diventano infrastruttura. Quel momento è arrivato per l’intelligenza artificiale enterprise, e ha un nome che suona come un paradosso della storia industriale: Oracle AI Data Platform. L’azienda che per decenni ha incarnato la solidità monolitica dei database si è reinventata come architetto di un’AI aperta, distribuita e perfettamente integrata con la governance dei dati. Un gesto strategico da veterano, non da sognatore di Silicon Valley.

Tesla, OpenAI e l’illusione dell’agente perfetto

Andrej Karpathy, che molti associano al suo ruolo da direttore dell’IA in Tesla e cofondatore “in pectore” in vari progetti di frontiera, ha lanciato una dichiarazione che scuote il mito: agenti AI come Claude o Codex sono ancora lontani da potersi comportare come “dipendenti veri”. Mancano memoria, multimodalità, apprendimento continuo. Riparare queste lacune secondo lui richiederà circa un decennio non per impossibilità, ma perché costruire intelligenza profonda richiede tempo. (vedi Dwarkesh Podcast)

Russia in crisi: la leva strategica non sfruttata di Trump

Se qualcuno avesse sperato che la politica estera americana seguisse logiche prevedibili, il quadro attuale è una doccia fredda. Il conflitto in Ucraina si avvicina al quarto anno e, sebbene il mondo si sia abituato a una Russia apparentemente invincibile, la realtà sul terreno racconta una storia diversa. L’esercito di Putin è logorato, le finanze statali sono sotto pressione e l’isolamento diplomatico è più evidente di quanto qualsiasi propaganda crei illusioni. Paradossalmente, proprio in questo scenario di debolezza estrema, l’ex presidente Trump sembra incapace di applicare la leva che lo ha reso famoso nel gioco politico: colpire i punti deboli dell’avversario per massimizzare il risultato.

Italia lancia il più potente hub quantistico al mondo a Cernobbio: la rivoluzione della Q-alliance è ufficiale

Il 14 ottobre 2025, durante il Digital Innovation Forum a Cernobbio, è stato presentato un progetto destinato a ridefinire il ruolo dell’Italia nel panorama tecnologico globale: la Q-Alliance, definita dai suoi fondatori come “il più potente hub quantistico al mondo”. Questa iniziativa nasce dalla collaborazione tra due colossi statunitensi del settore: D-Wave e IonQ, con il sostegno del Governo Italiano, rappresentato dal Sottosegretario di Stato alla Presidenza del Consiglio, Alessio Butti. L’obiettivo dichiarato è posizionare la Lombardia come epicentro globale della ricerca e dell’innovazione nel campo del calcolo quantistico.

Alibaba lancia Aegaeon e riduce l’uso di GPU Nvdia dell’82 per cento

Alibaba Group Holding ha appena scosso il mondo dell’intelligenza artificiale e del cloud computing con l’annuncio di Aegaeon, un sistema di pooling computazionale che promette di rivoluzionare il modo in cui le GPU vengono utilizzate per servire modelli di AI su larga scala. Secondo quanto riportato in un paper presentato al 31° Symposium on Operating Systems Principles a Seoul, il nuovo sistema ha permesso di ridurre il numero di GPU Nvidia H20 necessarie per gestire decine di modelli fino a 72 miliardi di parametri da 1.192 a soli 213 unità, un taglio impressionante dell’82 per cento. La beta di Aegaeon è stata testata per oltre tre mesi nel marketplace di modelli di Alibaba Cloud, evidenziando come la gestione delle risorse sia stata tradizionalmente inefficiente.

Le aziende tecnologiche costruiscono impianti energetici propri per soddisfare la domanda dell’AI

La corsa all’intelligenza artificiale sta riscrivendo le regole dell’energia negli Stati Uniti, e non in modo elegante. The AI era is giving fracking a second act, un colpo di scena per un’industria che già durante il boom dei primi anni 2010 veniva accusata di avvelenare falde acquifere, provocare terremoti indotti e prolungare la dipendenza dai combustibili fossili. Le aziende AI stanno costruendo data center mastodontici vicino ai principali siti di produzione di gas, generando spesso energia in proprio sfruttando fonti fossili. Una tendenza in gran parte oscurata dai titoli sulle applicazioni AI in sanità o lotta al cambiamento climatico, ma destinata a ridefinire le comunità che ospitano queste strutture.

Agentic AI’s strategic ascent

Agentic AI e la rivoluzione silenziosa dei modelli operativi aziendali

L’intelligenza artificiale ha smesso di essere una promessa lontana. Non si parla più di strumenti che aiutano a fare meglio ciò che già facciamo, ma di agenti AI che prendono decisioni, orchestrano processi e, in qualche modo, ridefiniscono il significato stesso di lavoro in azienda. IBM e Oracle non si limitano a lanciare slogan: una survey di oltre 800 dirigenti C‑suite in 20 paesi delinea una tendenza netta e irrinunciabile. Il 67 % degli executive prevede che gli agenti agiranno autonomamente già entro il 2027. Non un esercizio di stile, ma un deadline strategico che chi guida aziende non può ignorare.

Oracle stocks falls, è stato qualcosa che hanno detto?

Oracle ha recentemente annunciato previsioni finanziarie ambiziose, delineando un futuro in cui l’intelligenza artificiale (AI) gioca un ruolo centrale nella sua strategia di crescita. Durante l’AI World Conference, l’azienda ha dichiarato di aspettarsi margini lordi tra il 30% e il 40% per i suoi progetti di infrastruttura AI, un dato che si allinea con altri giganti dei data center e contrasta con previsioni precedenti che indicavano margini lordi del 14% per i data center AI. Oracle ha utilizzato come esempio un progetto di infrastruttura AI di sei anni e 60 miliardi di dollari, prevedendo un margine lordo del 35% per tale contratto.

Apple e il dualismo dell’Intelligenza: la rivoluzione nascosta dell’M5 incontra l’ansia globale

Il mondo della tecnologia sta assistendo a una silenziosa, ma epocale, mutazione: l’intelligenza artificiale sta abbandonando le server farm remote per insediarsi direttamente, in modo nativo e potente, nei nostri device quotidiani. Al centro di questa transizione c’è l’Apple M5, un sistema su chip che non è semplicemente una versione potenziata del suo predecessore, ma un vero e proprio ripensamento dell’architettura di calcolo. Apple, infatti, ha inciso il futuro su un processo a 3 nanometri, introducendo un concetto radicale: integrare acceleratori neurali all’interno di ogni core della GPU. Non più solo un muscolo grafico, ma una rete di piccoli, efficienti motori per l’IA, capaci di una potenza di calcolo GPU quadruplicata rispetto all’M4.

Energia, AI e potere: la nuova equazione americana

Negli Stati Uniti, l’intelligenza artificiale sta scoprendo la sua fonte di energia preferita: l’uranio arricchito. Non è una battuta, ma la cronaca di un accordo che unisce due mondi, quello dei reattori nucleari e quello degli algoritmi, in un matrimonio che sa di geopolitica, tecnologia e un pizzico di marketing apocalittico.

Performance Oro alle Olimpiadi di Astronomia

I ricercatori hanno sottoposto GPT-5 e Gemini 2.5 Pro agli esami teorici e di analisi dei dati dell’International Olympiad on Astronomy and Astrophysics (IOAA) dal 2022 al 2025. Questi esami sono noti per richiedere una profonda comprensione concettuale, derivazioni in più passaggi e analisi multimodale.

ModelloMedia TeoriaMedia Analisi Dati
Gemini 2.5 Pro85.6%76% (circa)
GPT-584.2%88.5%

Dettagli sui Risultati

Quando l’hacker è un algoritmo: la cybersecurity nell’era dell’intelligenza artificiale

L’intelligenza artificiale sta rapidamente diventando un fattore determinante nell’evoluzione del panorama delle minacce informatiche, con un incremento del 47% degli attacchi basati su tecniche di intelligenza artificiale rispetto all’anno precedente ed entro la fine del 2025, gli incidenti cyber guidati da IA possano superare i 28 milioni a livello globale. È quanto emerge dal nuovo report AI Threat Landscape 2025, realizzato dal Cybersecurity Competence Center di Maticmind, appena presentato alla Camera dei Deputati.

Sam Altman ha appena dichiarato guerra alla moralità digitale: ChatGPT diventa “adulto” e il web esplode

La scintilla che ha acceso la miccia del dibattito è questa frase:>

“Ok this tweet about upcoming changes to ChatGPT blew up on the erotica point much more than I thought it was going to! It was meant to be just one example of us allowing more user freedom for adults.”

In un certo senso, Altman ha confessato la dinamica: un annuncio “ampio”, fatto per spingere una visione filosofica (“trattare gli adulti come adulti”), è stato divorato dal sensazionalismo “erotico” e lui è rimasto sorpreso che l’asticella del discorso pubblico sia scattata proprio lì.

Asimov: l’autopilota spaziale made in Italy che vuole mettere ordine nel traffico orbitale

Se pensavate che il traffico peggiore fosse quello del Grande Raccordo Anulare di Roma alle otto del mattino, ripensateci. Appena più in là, nello spazio, la situazione è anche peggiore. A marzo 2025 si contavano oltre 14.000 satelliti attivi e 27.000 oggetti tracciati tra rottami, razzi esausti e detriti spaziali in libera circolazione che, per avere un’idea, vuol dire un incremento del 31% in soli due anni. E come ogni autostrada affollata, anche l’orbita terrestre ora necessita di un buon sistema di guida autonoma.

I pilastri del machine learning: la cassetta degli attrezzi dello scienziato dei dati

Il machine learning non è più il giocattolo per nerd delle università americane. È diventato il motore silenzioso che alimenta previsioni finanziarie, diagnosi mediche, strategie di marketing e persino le tue playlist su Spotify. Eppure, pochi ne comprendono davvero l’ossatura. Parlano di intelligenza artificiale come se fosse magia, dimenticando che dietro ogni modello predittivo c’è una struttura logica precisa, fatta di matematica, probabilità e una buona dose di scetticismo scientifico. Comprendere i ventiquattro concetti fondamentali del machine learning non è un esercizio accademico. È la differenza tra costruire un’illusione e costruire valore reale.

Il pensatore Markoviano: rivoluzionare il ragionamento a lungo termine negli LLM

Il potenziale nascosto dei modelli di linguaggio

Nell’evoluzione rapida dell’intelligenza artificiale, una scoperta sta cambiando la nostra comprensione delle capacità dei modelli di linguaggio: i modelli esistenti, anche quelli di dimensioni moderate, possiedono un potenziale di ragionamento inesplorato che può essere sbloccato attraverso tecniche di stimolazione appropriate, senza necessariamente ricorrere a modelli sempre più grandi o a cicli di addestramento sempre più intensivi.

Europa, stretta sui social: età minima 16 anni e divieto di algoritmi che creano dipendenza

Età minima digitale di 16 anni in Ue per social media, divieto automatico delle pratiche più dannose che creano dipendenza nei minori, norme sulle tecnologie e le pratiche persuasive come la pubblicità mirata, il marketing degli influencer, il design che crea dipendenza, i loot box e i dark pattern. Sono questi i contenuti della relazione adottata dalla commissione per il Mercato interno del Parlamento europeo, con 32 voti a favore, 5 contrari e 9 astensioni, in cui esprime preoccupazione per l’incapacità delle principali piattaforme online di proteggere i minori e mettono in guardia dai rischi legati alla dipendenza, alla salute mentale e all’esposizione a contenuti illegali e dannosi.

Il futuro della sicurezza europea dopo Sarajevo: tra multipolarismo, coesione e il coraggio di pronunciare la parola pace

C’è qualcosa di ironicamente potente nel dire che la Sarajevo Security Conference è finita, ma non è finita. Perché gli eventi che contano davvero non si esauriscono nei comunicati stampa, si infiltrano nei circuiti neuronali della politica e del pensiero strategico. Le idee, soprattutto quelle pronunciate da uomini come il Generale Fernando Giancotti, non muoiono il giorno dopo. Si sedimentano, diventano visioni operative, o almeno tentativi di razionalizzare un mondo che sembra essersi disabituato alla razionalità.

Quanto siamo responsabili? Filosofia, neuroscienze e società

Il concetto di responsabilità ha l’aria di un vecchio fantasma: lo senti presente in ogni discussione morale, politica o giuridica, eppure resta sfuggente, come se sfuggisse a ogni definizione netta. Nel libro curato da Mario De Caro, Andrea Lavazza e Giuseppe Sartori, questa nebulosa viene sviscerata con un approccio che attraversa filosofia, neuroscienze e scienze sociali, mettendo a nudo la fragilità e la complessità della nostra idea di agire come individui responsabili.

La corsa segreta ai supercomputer dell’intelligenza artificiale

La rivoluzione dell’AI non avviene sul palco visibile degli algoritmi: accade dietro le quinte, nel buio metallico dei datacenter, dove i veri contendenti si sfidano per il dominio sui supercomputer che alimentano i modelli generativi. Non è una guerra sui dati né sulle reti: è una guerra sull’elettricità, sul silicio e sulla capacità di orchestrare decine di migliaia di GPU come un esercito silenzioso.

Ai supercomputer con GPU non serve il fine scientifico predizione del tempo, simulazioni nuclearima la generazione di testo, immagine, agenti decisionali. E per farlo servono scale gigantesche: cluster con migliaia se non centinaia di migliaia di Nvidia H100, Google TPU o acceleratori custom emergenti. Questi sistemi non simulano fisica: predicono il prossimo “token” (parola, pixel, passo d’azione). Li potremmo chiamare predittori massivi.

Rigetti’s pentagon pivot: l’ascesa del disruptor difensivo nel calcolo quantistico

Quando Wall Street si sveglierà, il Pentagono avrà già visto il futuro. Rigetti Computing (NASDAQ: RGTI) sta emergendo come il Palantir 2.0 del calcolo quantistico: un innovatore allineato alla difesa, con i suoi primi clienti principali non aziende, ma governi. Mentre il Pentagono, gli alleati degli Stati Uniti e le agenzie energetiche accelerano l’adozione del calcolo quantistico, Rigetti si sta posizionando all’incrocio tra sicurezza nazionale, materiali avanzati e resilienza energetica, richiamando l’ascesa di Palantir come pioniere della tecnologia profonda finanziato dalla difesa.

Spotify stringe accordi con le major per un’AI che rispetta gli artisti

Spotify ha appena firmato accordi con Sony, Universal, Warner e Merlin per sviluppare strumenti di intelligenza artificiale che mantengano artisti e autori al centro del processo creativo. Non è un gesto di marketing, ma una manovra strategica per costruire un futuro dove l’AI non sostituisce la musica, la amplifica. L’obiettivo dichiarato è semplice: lasciare ai musicisti il potere di decidere se e come l’intelligenza artificiale possa usare la loro voce o il loro suono, garantendo compensi trasparenti quando questo avviene.

Pagina 10 di 195

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie