Categoria: News Pagina 1 di 159

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

La guerra silenziosa dell’AI: quando Claude non scrive più, ma costruisce Opus 4.7

Nel teatro sempre più affollato dell’intelligenza artificiale, dove ogni settimana qualcuno promette la “prossima rivoluzione definitiva” con l’entusiasmo di un televenditore anni ’90, la notizia dell’imminente rilascio di Claude Opus 4.7 da parte di Anthropic non è semplicemente un aggiornamento incrementale; è un segnale strategico, quasi brutale nella sua chiarezza. Non stiamo più parlando di modelli che rispondono meglio, ma di sistemi che iniziano a sostituire intere categorie di software. Quando un tool AI promette di costruire siti web, presentazioni e landing page partendo da una frase in linguaggio naturale, non sta migliorando la produttività; sta ridefinendo il concetto stesso di software come prodotto.

Dal vigneto al codice: come l’Intelligenza Artificiale sta rivoluzionando il vino italiano

Per quanto possa sembrare paradossale, il vino italiano, simbolo eterno di tradizione e terroir, ha scoperto il fascino del silicio. Secondo il primo censimento sulla maturità digitale delle aziende agricole realizzato dal Polo Agricoltura Digitale di Coldiretti Next e presentato al Vinitaly 2026, quasi una cantina su tre ha già investito in robotica, intelligenza artificiale, blockchain e 5G. Non si tratta di un vezzo tech: è una scelta strategica per contenere costi, aumentare precisione e sostenibilità in un settore che resta tra i pilastri dell’export Made in Italy. E la sorpresa non finisce qui: il 55% delle aziende vitivinicole guarda con interesse concreto all’Agricoltura 5.0, pronta a integrare ancora di più dati, automazione e connettività.

Usa. Il Maine frena il boom dell’AI: la prima moratoria sui data center che fa tremare Big Tech

Il Maine ha deciso di premere il pulsante di pausa. Le autorità statali hanno approvato una moratoria temporanea sulla costruzione di nuovi data center di grandi dimensioni, diventando il primo Stato americano a varare una misura del genere contro l’espansione vorace delle infrastrutture per l’intelligenza artificiale. Il disegno di legge LD 307, passato sia alla Camera che al Senato nei giorni scorsi, blocca per ora le autorizzazioni a impianti superiori ai 20 megawatt fino al novembre 2027. Non si tratta di un divieto definitivo, ma di un periodo di riflessione: nel frattempo nascerà un apposito Maine Data Center Coordination Council per studiare gli impatti su rete elettrica, bollette, ambiente e occupazione locale.

L’intelligenza artificiale e la nascita di una nuova violenza politica

Il punto non è la molotov. Il punto è che qualcuno, nel 2026, ha ritenuto razionale lanciare una molotov contro la casa di Sam Altman. Questa non è cronaca nera; è un segnale sistemico. Quando la tecnologia smette di essere percepita come progresso e diventa minaccia esistenziale, il mercato si trasforma in teatro politico, e la politica, come sempre, prima o poi degenera in conflitto.

Minimax m2.7: l’open source che scopre improvvisamente il prezzo del potere

La storia recente dell’intelligenza artificiale è una sequenza quasi teatrale di illusioni collettive, e MiniMax M2.7 ne è l’ennesimo atto ben scritto. Per mesi abbiamo assistito alla narrazione rassicurante secondo cui l’open source avrebbe democratizzato l’AI, erodendo il vantaggio dei modelli chiusi e redistribuendo valore verso sviluppatori, startup e, perché no, qualche romantico hacker con GPU raffreddate a liquido nel garage. Poi arriva M2.7, tecnicamente brillante, economicamente efficiente, strategicamente ambiguo. E improvvisamente la parola “open” inizia a sembrare meno ideologica e più negoziabile.

La nuova guerra fredda dell’AI: il giappone scommette sulla fisica mentre la silicon valley parla ancora

Atomi vs Bits. Il sistema tecnologico globale ha un talento straordinario nel distrarsi con l’oggetto sbagliato al momento giusto; negli ultimi tre anni abbiamo assistito a una corsa ossessiva verso modelli linguistici sempre più grandi, sempre più verbosi, sempre più abili nel simulare comprensione senza necessariamente possederla, mentre una parte molto più silenziosa dell’industria ha iniziato a spostare il baricentro verso qualcosa di meno glamour e molto più pericoloso: il controllo del mondo fisico. La mossa congiunta di SoftBank, NEC, Honda e Sony non è semplicemente un investimento industriale, è una dichiarazione strategica, quasi una confessione tardiva; il vero valore dell’intelligenza artificiale non è scrivere email migliori, ma muovere atomi.

Gemopus 4 e la nuova geopolitica dei modelli locali: quando l’intelligenza artificiale diventa una questione di DNA industriale

Il caso Gemopus rappresenta qualcosa di più di un semplice fine-tune ben riuscito. È una dichiarazione implicita di sovranità tecnologica, un tentativo quasi ideologico di riscrivere il DNA dei modelli locali partendo da una premessa che fino a pochi mesi fa sarebbe sembrata marginale: non basta avere un buon modello, conta anche da dove arriva.

Il grande ri-prezzamento del software: quando l’intelligenza artificiale divora i margini prima ancora dei mercati

Il mercato ha finalmente deciso di smettere di fingere. Per oltre un decennio il software enterprise è stato trattato come una commodity di lusso, venduta con multipli da champagne francese e costi marginali da acqua del rubinetto; poi è arrivata l’intelligenza artificiale, e improvvisamente quel modello di business che sembrava inattaccabile ha iniziato a mostrare una fragilità quasi imbarazzante. Non perché il software smetta di essere necessario, ma perché cambia radicalmente la sua unit economics, e soprattutto la sua percezione di valore. Quando un CFO inizia a chiedersi se un copilota AI possa sostituire tre tool SaaS, la storia non è più growth, è compressione.

Anthropic, OpenAI e il nuovo potere algoritmico

San Francisco ha sempre avuto un talento particolare nel trasformare percezioni temporanee in verità apparentemente strutturali. La scorsa settimana, durante l’evento HumanX, quel talento si è manifestato nella sua forma più pura, quasi teatrale: 6.700 dirigenti e investitori, ovvero il termometro imperfetto ma influente del capitale globale, hanno decretato che Anthropic è oggi il centro di gravità dell’intelligenza artificiale, mentre OpenAI, fino a ieri considerata intoccabile, sembra improvvisamente periferica. Non è la prima volta che accade. Nella Silicon Valley il primato dura quanto una demo convincente e un paio di benchmark favorevoli.

La fine del middleware: come i modelli stanno divorando la catena del valore software

Chiunque abbia vissuto almeno due cicli tecnologici sa riconoscere il momento esatto in cui una narrazione smette di essere marketing e diventa struttura economica. Non accade con un annuncio, né con un benchmark; accade quando la catena del valore si accorcia senza chiedere permesso. È esattamente ciò che sta succedendo oggi, mentre aziende come Anthropic iniziano a insinuarsi, con discrezione chirurgica, nello spazio che fino a ieri apparteneva a intere categorie di startup.

L’IA non ha bisogno di mentire per manipolarti e questo è il vero problema

Protecting people from harmful manipulation (DeepMind blog)

Per anni abbiamo immaginato il rischio dell’intelligenza artificiale come qualcosa di facilmente riconoscibile: risposte aggressive, disinformazione evidente, comportamenti “da cattivo attore”. In altre parole, pensavamo che il problema fosse il tono.

L’ultima ricerca di Google DeepMind smonta completamente questa illusione.

La nuova logica del dominio. Potere computazionale, democrazia e condizione umana

di Paolo Benanti (Autore) Laterza, 2026

Il potere computazionale e l’illusione della neutralità algoritmica

Se il potere, per secoli, ha avuto bisogno di una scenografia, di simboli tangibili, di corpi e istituzioni riconoscibili, oggi si è volatilizzato in una forma che sfugge alla percezione ma non agli effetti; è diventato infrastruttura, codice, probabilità. La vera rivoluzione non è l’intelligenza artificiale in sé, ma la sua capacità di diventare ambiente, un habitat invisibile dentro cui si muovono decisioni, relazioni e mercati. Non si tratta di una trasformazione rumorosa, come le rivoluzioni industriali del passato, ma di una mutazione silenziosa, che ha la stessa eleganza letale delle grandi transizioni storiche che nessuno vede arrivare finché non è troppo tardi per opporsi.

Entanglement, determinismo e l’illusione della causalità: anatomia di un equivoco quantistico

“The belief that ‘randomness is some kind of real property existing in Nature is a form of the mind projection fallacy which says, in effect, ‘I don’t know the detailed causes – therefore – Nature does not know them.”

La tentazione di leggere l’entanglement quantistico come una forma sofisticata di causalità nascosta è, in fondo, il riflesso più umano possibile di fronte a un universo che sembra divertirsi a sabotare il nostro bisogno di ordine. Si misura una particella e si “sa” immediatamente qualcosa della sua gemella, anche a distanze cosmiche; la mente manageriale, quella abituata a KPI, catene causali e accountability, conclude che deve esserci un protocollo, un’infrastruttura invisibile, una rete di comunicazione non documentata. Il problema è che questa intuizione, per quanto elegante, è quasi certamente sbagliata. Non perché sia ingenua, ma perché applica un paradigma classico a un dominio che lo ha già archiviato come legacy system.

SpaceX, META e Google: il capitalismo dell’hype tra orbite, dati e illusioni di scala

Il capitalismo tecnologico contemporaneo ha sviluppato una caratteristica curiosa, quasi barocca nella sua complessità: la capacità di vendere futuro a debito, trasformando promesse speculative in valutazioni concrete, mentre i fondamentali finanziari rimangono, nella migliore delle ipotesi, opzionali. Il caso di SpaceX rappresenta una sintesi perfetta di questa dinamica; un conglomerato che oscilla tra ingegneria estrema, ambizioni cosmiche e una struttura economica che, osservata con freddezza, somiglia più a un fondo di venture capital perpetuo che a un’azienda industriale tradizionale.

L’illusione dell’augment: perché gli economisti stanno iniziando a temere davvero l’intelligenza artificiale

Per anni, quasi per riflesso pavloviano, gli economisti hanno svolto il ruolo di anestesisti del progresso tecnologico. Ogni volta che una nuova ondata di innovazione minacciava di destabilizzare il mercato del lavoro, la risposta era invariabilmente la stessa: calma, la storia insegna che la tecnologia crea più posti di lavoro di quanti ne distrugga. Gli sportelli bancomat non hanno eliminato i cassieri, Microsoft Excel non ha cancellato i contabili, e i robot aspirapolvere non hanno mandato in pensione il personale domestico. Il mantra era rassicurante, quasi consolatorio: “augment, not replace”.

Il software sta diventando invisibile: la migrazione del valore dagli strumenti alle intelligenze

La narrativa rassicurante secondo cui l’intelligenza artificiale sarebbe “solo un’altra feature” si sta sgretolando con la stessa eleganza con cui il cloud, quindici anni fa, demolì l’illusione che i data center on-premise fossero un vantaggio competitivo difendibile. I numeri citati, che vedono player come Atlassian, Monday.com, Figma, HubSpot e GitLab perdere tra il 48% e il 63% su base annua, non sono semplicemente una correzione di mercato o una rotazione settoriale. Sono un sintomo. E come tutti i sintomi rilevanti, raccontano una patologia più profonda: la progressiva dissoluzione del software come prodotto visibile.

L’europa senza domanda: anatomia di un fallimento annunciato nell’economia dei token

Non è una questione di talento, né di capitale, e nemmeno di tecnologia. È una questione di domanda. L’Europa continua a comportarsi come se l’intelligenza artificiale fosse un problema regolatorio da contenere, mentre il resto del mondo la tratta per ciò che è diventata: un’infrastruttura economica primaria, una commodity sofisticata, una forma di energia computazionale che si compra, si vende e soprattutto si consuma. Il risultato è una distorsione quasi grottesca, in cui aziende perfettamente allineate ai principi europei finiscono per servire clienti extraeuropei, mentre il mercato domestico resta un deserto amministrativo, più attento al compliance checklist che alla creazione di valore.

Il caso di una società con base a Frosinone, Seeweb dotata di datacenter, GPU e una piattaforma di inference costruita secondo i dettami più ortodossi del GDPR, del DNSH e persino del sempre evocato zero data retention, non è un’anomalia. È un sintomo. Quando un’infrastruttura che incarna perfettamente il modello europeo viene ignorata dalla pubblica amministrazione europea, mentre trova trazione fuori dai confini, il problema non è di offerta. È di sistema. Più precisamente, è di assenza strutturale di domanda qualificata.

Dalla lavagna al machine learning: la Cina porta l’AI in classe

Mentre in Italia ancora discutiamo su come limitare l’uso degli smartphone, togliamo i cellulari in classe ai ragazzi e il massimo che ci concediamo è l’uso delle LIM, in Cina si pianifica come trasformare quegli stessi studenti nei protagonisti dell’economia dell’intelligenza artificiale. Due approcci, due visioni del futuro e, soprattutto, due velocità che iniziano a divergere in modo sempre più evidente.

Data center in Italia, la corsa all’oro digitale tra sovranità, AI e qualche corto circuito burocratico

La nuova geografia del potere passa dai data center. Non è una metafora particolarmente elegante, ma è terribilmente efficace. Dove una volta si misuravano confini e risorse naturali, oggi si contano megawatt, latenze e capacità computazionale. In questo scenario, l’Italia ha deciso di smettere i panni del mercato periferico e di sedersi al tavolo dei grandi, anche se la sedia scricchiola ancora un po’.

Materia prima: Roma come laboratorio vivo dell’economia delle idee

Roma non è una città, o almeno non lo è nel senso classico che piace ai pianificatori urbani o agli investitori immobiliari; è piuttosto una piattaforma instabile, un layer sopra cui si depositano e si cancellano ciclicamente visioni, ambizioni e narrative collettive. Quando si osserva un’iniziativa come Rome Future Week, la tentazione è quella di classificarla come uno dei tanti festival dell’innovazione che popolano l’Europa post-pandemica; un errore piuttosto ingenuo, perché ciò che accade in questi contesti non è semplicemente aggregazione di contenuti, ma compressione temporale di capitale cognitivo.

Energia sotto pressione: tra Hormuz, Big Tech, AI e nucleare, il mondo scopre di non poter improvvisare

I mercati energetici hanno una memoria lunga, ma ogni tanto basta un evento per farli reagire come se fosse la prima volta. La chiusura dello Stretto di Hormuz, nel pieno delle tensioni tra Stati Uniti e Iran, non ha tanto svuotato i serbatoi quanto acceso i termometri dei prezzi. Più che una crisi di offerta immediata, è una crisi di aspettative. E quando le aspettative si muovono, l’energia diventa improvvisamente molto più cara, anche prima di mancare davvero.

Router sotto attacco: così Fancy Bear trasforma il Wi-Fi in un’arma di spionaggio

Il Wi-Fi di casa, quello che spesso si protegge con una password dimenticata su un post-it lasciato chissà dove, è diventato uno degli strumenti più ambiti dello spionaggio internazionale. E no, non è l’incipit di un thriller tecnologico, ma la sintesi, neanche troppo romanzata, di quanto emerso da una dichiarazione congiunta delle principali agenzie di sicurezza occidentali.

DMA, Silicon Valley e Bruxelles: Teresa Ribera rivendica la “rivoluzione gentile” dell’Europa digitale

L’Europa non corre, ma cammina con passo deciso. E se qualcuno a Bruxelles viene accusato di lentezza, Teresa Ribera Rodríguez , Commissaria europea per la concorrenza, risponde con un mezzo sorriso istituzionale: meglio arrivare con le prove in mano che inciampare nella fretta. Al forum European Pulse organizzato da POLITICO a Barcellona, la commissaria ha difeso con fermezza e, diciamolo, anche con una certa eleganza retorica, il percorso dell’Unione Europea nella regolazione delle Big Tech.

Artemis II riaccende la corsa alla Luna: tra record, geopolitica e basi lunari “made in Italy”

Lo spazio è tornato a essere una cosa seria. Non solo per gli ingegneri o per gli appassionati, ma anche per governi, industrie e, inevitabilmente, per chi guarda alla Luna come al prossimo terreno di competizione globale. Il successo di Artemis II ha rimesso tutto in moto, e lo ha fatto con una chiarezza che mancava da decenni.

Londra alza il tiro sui Big Tech: con l’AI nel mirino, per i manager ora c’è anche il rischio carcere

A Londra il tempo delle raccomandazioni sembra finito. Il governo guidato da Keir Starmer ha deciso di alzare il livello dello scontro con le grandi piattaforme tecnologiche, introducendo una leva che nel settore fa sempre un certo effetto: la responsabilità personale dei dirigenti.

AI e cybersicurezza, l’effetto Mythos: quando gli algoritmi potrebbero diventare hacker

Nel mondo della sicurezza informatica, dove ogni vulnerabilità è una crepa da sigillare prima che qualcuno la allarghi, sta emergendo un nuovo protagonista che rischia di cambiare le regole del gioco. Non è un gruppo di hacker particolarmente brillante né una nuova tecnica rivoluzionaria, ma un modello di intelligenza artificiale.

Bruxelles mette ChatGPT sotto la lente: OpenAI verso le regole dei giganti del web

Bruxelles ha deciso che forse l’intelligenza artificiale non è solo un brillante assistente digitale, ma qualcosa di molto più simile a una porta d’ingresso verso Internet. E quando diventi una porta d’ingresso, in Europa, finisci inevitabilmente sotto regolamentazione.

Discovering Multiagent Learning Algorithms with LLM – AlphaEvolve

La fine della governance manuale nell’era degli algoritmi che evolvono da soli

La narrativa dominante dell’intelligenza artificiale continua a oscillare tra entusiasmo quasi messianico e prudenza regolatoria, ma ogni tanto emerge un punto di rottura che non lascia spazio a interpretazioni accomodanti. Il recente lavoro di Google DeepMind su AlphaEvolve appartiene esattamente a questa categoria; non è semplicemente un avanzamento tecnico, ma una dichiarazione implicita, quasi brutale, sulla fine di un paradigma: quello della governance manuale dell’AI. Quando un sistema è in grado di generare autonomamente logiche di apprendimento multi-agente che sfuggono alla comprensione intuitiva umana, il problema non è più come migliorare la supervisione, ma se la supervisione stessa abbia ancora un significato operativo.

Server sott’acqua e vento in poppa: l’AI scopre l’eolico offshore per risolvere il problema dell’energia

Capita sempre più spesso che le idee più radicali nascano da un problema molto concreto: dove mettere tutta questa intelligenza artificiale che continua a crescere senza chiedere permesso. Dopo l’iniziativa giapponese che punta a trasformare imponenti car-carrier in data center galleggianti, la risposta di Aikido Technologies è tanto semplice quanto audace: sotto il mare, direttamente dentro le fondamenta delle turbine eoliche.

Non si tratta di una suggestione futuristica da conferenza, ma di un progetto presentato in questi primi mesi del 2026 e rilanciato dalla comunità scientifica internazionale. Il principio è lineare, quasi elegante nella sua brutalità ingegneristica: produrre energia e consumarla nello stesso punto, eliminando uno dei grandi colli di bottiglia dell’infrastruttura digitale, ovvero il trasporto.

Per capire perché questa idea stia attirando attenzione, basta guardare ai numeri. I data center negli Stati Uniti hanno consumato 183 terawattora nel 2024, circa il 4% dell’intero fabbisogno nazionale. E la traiettoria è chiara: entro il 2030 quella quota potrebbe più che raddoppiare. Ormai è chiaro che l’AI non sia solo un problema computazionale, ma energetico.

Data center in Francia: boom di investimenti, pochi posti di lavoro e molti dubbi sulla sovranità

Plug, baby, plug”. Quando Emmanuel Macron ha pronunciato questa frase durante l’AI Action Summit a Parigi nel febbraio 2025, probabilmente immaginava di accendere una scintilla. Quello che è successo dopo, nel corso dell’ultimo anno, assomiglia più a una corsa all’oro con server al posto dei picconi e data center al posto delle miniere.

System Card: Claude Mythos Preview

L’intelligenza artificiale va dallo psichiatra: quando i modelli iniziano a simulare un IO

Una scena che fino a pochi anni fa sarebbe sembrata materiale da fantascienza di serie B oggi viene presentata con il tono asciutto di un white paper aziendale: un modello di intelligenza artificiale sottoposto a venti ore di valutazione psichiatrica, con tanto di diagnosi strutturata, tratti di personalità e dinamiche intrapsichiche. Il caso di Claude Mythos segna un punto di svolta meno tecnologico di quanto sembri e molto più culturale. Perché il vero oggetto dell’esperimento non è il modello, ma la nostra crescente necessità di attribuire una psicologia a sistemi che, tecnicamente, non dovrebbero averne una.

L’intelligence artificiale entra nella CIA: fine dell’analista umano o nuova aristocrazia algoritmica?

La notizia, per chi osserva da anni l’evoluzione dell’intelligence e della tecnologia, non è sorprendente quanto sembra. Il fatto che la Central Intelligence Agency abbia prodotto un report interamente generato da AI senza un analista umano alla guida non rappresenta una rottura improvvisa, bensì il punto visibile di una traiettoria iniziata almeno un decennio fa. Cambia però la semantica del potere: non più strumenti a supporto dell’analista, ma agenti che iniziano a competere con il processo cognitivo stesso. È una differenza sottile, ma strategicamente devastante.

L’intelligenza artificiale che vede l’invisibile: come Oxford sta anticipando l’insufficienza cardiaca di cinque anni

La promessa originaria dell’intelligenza artificiale in medicina non era quella di sostituire i medici, ma di espandere brutalmente il campo del visibile. Non più diagnosi basate su ciò che l’occhio umano riesce a cogliere, ma su pattern statistici immersi in dimensioni che nessun radiologo, per quanto brillante, potrà mai esplorare direttamente. Il lavoro sviluppato dalla University of Oxford e pubblicato sul Journal of the American College of Cardiology rappresenta esattamente questo passaggio di paradigma; non un miglioramento incrementale, ma un cambio di prospettiva che, se implementato su larga scala, potrebbe ridefinire la sequenza stessa della medicina clinica.

CS 153 Frontier System Stanford continua a fare Stanford

Stanford continua a fare Stanford, nel senso più chirurgico e quasi irritante del termine: prende il meglio del capitale umano globale, lo mette in una stanza, accende una telecamera e trasforma un corso universitario in un asset pubblico. Il resto del mondo, nel frattempo, organizza webinar su “come usare ChatGPT per scrivere email migliori”.

Il punto non è solo la qualità dei nomi, che già da sola sarebbe sufficiente a giustificare l’attenzione. Il punto è la dinamica di potere che si intravede sotto la superficie. Quando figure come Sam Altman, Satya Nadella o Jensen Huang entrano in un’aula universitaria non stanno insegnando, stanno implicitamente definendo lo standard epistemologico del settore. Stanno dicendo cosa conta sapere, cosa ignorare e soprattutto cosa verrà finanziato nei prossimi cinque anni.

Il giorno in cui l’AI ha iniziato a bucare i sistemi (e nessuno ha più fatto finta di niente)

Quando il Segretario al Tesoro Scott Bessent e il presidente della Federal Reserve Jerome Powell convocano d’urgenza i vertici di Citigroup, Bank of America, Wells Fargo, Morgan Stanley e Goldman Sachs, non è un workshop sull’innovazione digitale, né un altro rituale sulla resilienza sistemica. È un segnale di allarme. Non uno qualsiasi, ma uno di quelli che, nella storia dei mercati, arrivano sempre con un certo ritardo rispetto alla realtà tecnologica. Questa volta il detonatore ha un nome quasi mitologico, e forse non a caso: Mythos.

Sabotage Risk Report: Claude Opus 4.6

Il sabotaggio dell’intelligenza artificiale: quando l’autonomia supera il controllo umano

Nel fine settimana, mentre gran parte del mondo tecnologico celebrava l’ennesima iterazione di modelli sempre più performanti, qualcuno ha avuto il cattivo gusto di leggere davvero i report tecnici. Il cosiddetto Sabotage Risk Report pubblicato da Anthropic non è un documento di marketing mascherato da ricerca, ma una di quelle letture che fanno venire il sospetto che l’industria stia accelerando su un’autostrada senza guardrail, con la convinzione quasi religiosa che “più capacità” equivalga automaticamente a “più controllo”. La storia dell’ingegneria insegna esattamente il contrario.

L’alleanza anti-Cina dei big dell’AI: Google, OpenAI e Anthropic uniscono le forze per fermare il saccheggio dei loro modelli

In un settore dove la competizione è feroce e ogni punto percentuale di benchmark può valere miliardi, tre dei più grandi rivali dell’intelligenza artificiale americana hanno deciso di fare qualcosa di inaspettato: collaborare.

Google, OpenAI e Anthropic hanno iniziato a condividere informazioni attraverso il Frontier Model Forum, il consorzio che loro stessi hanno fondato nel 2023 insieme a Microsoft, per individuare e contrastare i tentativi di “distillazione avversaria” messi in atto dai laboratori cinesi.

Data center galleggianti: il Giappone trasforma navi cargo in infrastrutture AI per aggirare i limiti di terra, energia e acqua

Inventare il futuro partendo dai vincoli è una specialità giapponese. Questa volta, però, il risultato ha un sapore quasi cinematografico: vecchie navi cargo che tornano a solcare i mari non per trasportare automobili, ma per alimentare algoritmi. Il progetto firmato da Mitsui O.S.K. Lines e Hitachi punta a trasformare imponenti car-carrier in data center galleggianti dedicati all’intelligenza artificiale, con le prime operazioni previste dal 2027.

Axiom Math e la democratizzazione brutale della scoperta matematica nell’era dell’intelligenza artificiale

Chiunque abbia trascorso abbastanza tempo nel mondo della ricerca matematica conosce una verità scomoda che raramente viene esplicitata nelle conferenze patinate o nei paper celebrativi: la scoperta non è democratica. È costosa, lenta, e spesso monopolizzata da una combinazione di talento, infrastrutture e accesso a risorse computazionali che somigliano più a un oligopolio che a una comunità accademica aperta. In questo contesto, l’arrivo di Axiom Math con il suo strumento Axplorer non è solo un annuncio tecnologico, ma un potenziale atto di sabotaggio elegante contro l’élite della matematica computazionale.

Euraika e Regolo.AI: quando la compliance diventa un caso d’uso industriale per l’AI europea

La narrazione della tecnologia tende spesso agli aggettivi enfatici, ma nel caso della piattaforma Aegis di Euraika la retorica di “compliance semplificata” non è puro marketing, bensì l’emergere di una tendenza cruciale nella maturazione delle applicazioni AI enterprise: portare l’infrastruttura di inferenza fuori dalla strada critica dell’innovazione di prodotto per focalizzarsi sulla conoscenza normativa e sulla capacità di audit. In questo lungo caso aziendale, che più che una semplice testimonianza somiglia a un manifesto di come dovrebbe funzionare l’AI industriale in Europa, si leggono aspettative, tensioni e soluzioni che illuminano non tanto un prodotto singolo, quanto un pattern architetturale verso cui si stanno orientando molte startup di governance e compliance in aree regolamentate come GDPR, NIS2, DORA e gli standard di cybersecurity nazionali. Il punto di partenza, come spesso accade, non è l’AI in sé ma il problema irrisolto: la compliance normativa è un labirinto di testi, articoli, richiami legali e requisiti dinamici che nessun team di esperti umani può sorvegliare e aggiornare in tempo reale senza strumenti. L’ironico paradosso è che, mentre i regolatori europei innalzano continuamente la complessità dei quadri giuridici, le organizzazioni devono trasformare questi testi in fatti operativi verificabili; qui l’AI non è un gadget ma un vettore di significato, e il valore risiede nella qualità della conoscenza estratta, nella verifica delle affermazioni e nella capacità di tracciabilità delle decisioni.

Pagina 1 di 159

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie