Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

European Commision: stiamo entrando in una nuova corsa agli armamenti senza missili, con i modelli

Unlocking the potential of dual-use research and innovation –

Ti svegli e la nuova frontiera non è la base militare ma il tuo data center. L’ultimo report della European Commission su dual use non fa diagnosi: fa un’iniezione di realtà direttamente nel cervello dell’innovazione europea. Civilian tech is the frontline? No, non è una frase fatta: è letteralmente quello che siamo diventati.

Qualche fatto fresco? La prima è che gli investimenti in tecnologie difensive in Europa hanno toccato un record di 5,2 miliardi di dollari nel 2024, con un aumento del 24% rispetto all’anno precedente. Un segnale che, finalmente, l’intero continente sta rispondendo con i fatti, non solo con conferenze e white paper. Eppure la consapevolezza strategica è ferma al palo: dual-use è visto come un intralcio normativo, e non come il vantaggio competitivo che è diventato.

Italia prima della classe nell’AI? il DDL sull’intelligenza artificiale è una scommessa da un miliardo che le aziende non possono permettersi di perdere

L’Italia ha fatto qualcosa di inaspettato. Per una volta, non è arrivata ultima. Il 25 giugno 2025, la Camera dei Deputati ha approvato il DDL 2316 sull’intelligenza artificiale, rendendo il Bel Paese il primo in Europa a dotarsi di una legge nazionale organica sull’AI. Sì, proprio l’Italia, quel laboratorio instabile dove le leggi spesso si scrivono per non essere applicate, ha anticipato Bruxelles. E ha pure infilato dentro un fondo da un miliardo di euro. Ora, tra entusiasmi da ufficio stampa e panico da compliance, c’è una domanda a cui nessuno ha ancora risposto seriamente: questa legge fa nascere un ecosistema o lo stermina?

Italia capitale dell’algoritmo: chi comanda davvero il venture capital tricolore

Non chiamateli influencer. Anzi sì, ma fatelo con un certo rispetto. Perché dietro ogni post su LinkedIn, ogni thread apparentemente casuale su quanto sia figo il nuovo fondo pre-seed “climate & quantum aware”, si nasconde un’aristocrazia silenziosa del capitale di rischio italiano che ha finalmente capito che visibilità è potere. Non nel senso hollywoodiano del termine, ma in quello brutalmente operativo: deal flow, selezione, attrazione di LP. Nel 2025 il venture capital in Italia non si muove più solo dietro le quinte. Si espone. E la classifica di Favikon lo conferma: 20 nomi che contano più di una policy di Invitalia e di cinque pitch a SMAU messi insieme.

Come scegliere davvero il modello giusto di intelligenza artificiale senza finire vittima del marketing

OpenAI ha un problema. Ed è lo stesso problema che ha ogni gigante tecnologico quando diventa troppo bravo a costruire strumenti intelligenti: la confusione. Non quella di sistema, ma quella degli utenti. In un mondo in cui ogni nuovo modello viene lanciato con nomi sempre più astratti o4-mini-high, o3, o1 Pro, GPT-4o l’illusione è che basti accendere la macchina e “funzioni”. No. Sbagliare modello oggi significa perdere soldi, tempo e credibilità. E anche un po’ di rispetto di sé.

Microsoft e l’illusione del silicio: il ritardo del chip AI Maia e la sfida a Nvidia

Microsoft ha annunciato un ritardo significativo nella produzione del suo chip AI di nuova generazione, Maia, noto anche come Braga. La produzione di massa, inizialmente prevista per il 2025, è stata posticipata al 2026. Secondo quanto riportato da Reuters, la causa principale del ritardo sono stati cambiamenti imprevisti nel design del chip, problemi di personale e un elevato turnover all’interno del team di sviluppo.

Questo ritardo pone Microsoft in una posizione delicata, soprattutto considerando la rapida evoluzione del mercato dei chip AI. Nvidia, con il suo chip Blackwell, ha già stabilito uno standard elevato, e il ritardo di Microsoft potrebbe significare che il chip Maia sarà meno competitivo al momento del lancio.

La bolla dell’intelligenza agentica: perché il 40% dei progetti AI fallirà entro il 2027

Quando un analista di Gartner ti dice che il 40% dei progetti di intelligenza artificiale agentica verrà cancellato entro il 2027, non sta lanciando un dado: sta puntando il dito contro un’intera industria ubriaca di promesse, slide da pitch e boardroom convinti che “agente” suoni più sexy di “assistente”. Il problema? Questa nuova corsa all’oro algoritmico ha il sapore rancido del déjà-vu. È il Web3 senza blockchain, è il metaverso con un prompt. È hype, travestito da strategia.

La parola magica oggi è “agentico”. Un termine che sembra uscito da un manuale di fantascienza sovietica ma che in realtà indica sistemi capaci di agire autonomamente per raggiungere obiettivi. Non reagire, come fa un chatbot, ma decidere, pianificare, agire. Quasi fossero middle manager siliconati in forma vettoriale. Salesforce e Oracle ci stanno buttando miliardi, cercando di trasformare queste entità in leve per abbattere i costi e aumentare i margini. Ma come ogni leva, anche questa rischia di agire sul vuoto.

Privacy e modelli linguistici grandi: il tallone d’Achille delle sintesi automatizzate

In un mondo che corre a velocità supersonica verso l’automazione, i modelli linguistici grandi, gli ormai famigerati LLM, sono diventati la nuova frontiera per trasformare montagne di dati in riassunti intelligibili e digeribili. La promessa è allettante: risparmiare tempo, aumentare l’efficienza e addirittura migliorare la qualità delle sintesi rispetto ai metodi tradizionali. Peccato che, come spesso accade con la tecnologia, dietro il velo di innovazione si nasconda un problema tanto grave quanto sottovalutato: la privacy.

Un recente studio dal titolo “How private are language models in abstractive summarization?” ha portato alla luce una verità scomoda. I LLM, applicati a dati medici e legali tra i più sensibili in assoluto continuano a svelare informazioni personali identificate (PII) che anche gli esperti umani più cauti si sforzano di occultare. Non si tratta di semplici dettagli occasionali, ma di nomi, date e luoghi che dovrebbero restare sotto chiave, esattamente ciò che dovrebbe essere protetto da qualsiasi sistema serio di gestione dati.

Sabine Hossenfelder: Stiamo creando una nuova specie e non abbiamo nemmeno letto il manuale

La coscienza, ci dicono da secoli filosofi, teologi e neuroscienziati, sarebbe il tratto distintivo dell’uomo. Una qualità emergente, forse divina, probabilmente non replicabile, sicuramente nostra. Ma questa convinzione, che continua a sopravvivere anche nei più raffinati salotti accademici, sta diventando il più grande ostacolo cognitivo alla comprensione di cosa stia realmente accadendo sotto i nostri occhi: l’avvento di un’intelligenza artificiale che non è solo capace di simulare l’intelligenza umana, ma sempre più di evolverla.

Il cervello umano, che ci piaccia o no, è una macchina. Una meravigliosa macchina biologica, certo, ma pur sempre un sistema deterministico (con rumore stocastico) che riceve input, processa segnali, produce output, aggiorna stati interni e crea modelli predittivi. Non c’è nulla, in linea teorica, che un sistema computazionale sufficientemente sofisticato non possa riprodurre. A meno che, ovviamente, non si creda ancora all’anima. O nella meccanica quantistica come rifugio della coscienza, ipotesi talmente disperata che persino Roger Penrose oggi si guarda bene dal riproporla con convinzione.

Ismail Amla: Come l’AI generativa sta riscrivendo il contratto sociale dell’innovazione

Nel 1997, quando Deep Blue batté Kasparov, qualcuno mormorò che le macchine non avrebbero mai superato l’intuizione umana. Oggi, mentre ChatGPT sforna codice e strategie aziendali meglio di un middle manager, è evidente che non solo l’hanno superata, ma stanno riscrivendo da zero le regole del gioco. E Kyndyl Consult, guidata da visioni come quella di Ismail Amla, sembra aver colto il senso della rivoluzione: l’AI generativa non è uno strumento, è un nuovo contratto sociale tra tecnologia e leadership.

Il trionfo cinese dei brain-computer interface invasivi: come una sonda nei vasi sanguigni cambia la paralisi

Se pensavate che Neuralink fosse la frontiera indiscussa delle interfacce cervello-computer invasive, la realtà cinese vi farà ricredere. Un team della Nankai University ha appena inaugurato una nuova era nella neurotecnologia, realizzando il primo trial umano al mondo di un’interfaccia cerebrale impiantata tramite i vasi sanguigni. Niente più cranio aperto, bisturi e lunghi tempi di recupero: la procedura passa per il collo, con una sonda che si insedia nel sistema vascolare intracranico, regalando a un paziente paralizzato la possibilità di muovere le braccia e tornare alla vita quotidiana. Un colpo duro e diretto all’orgoglio di Musk e del suo Neuralink, ancora alle prese con guasti agli elettrodi e un’adozione umana da bradipo.

Meta vuole anche i tuoi ricordi non pubblicati: l’IA si insinua nei meandri della tua fotocamera

La privacy digitale non è più un concetto: è un ricordo sfocato, sepolto tra i selfie del 2014 e le foto mai condivise di un aperitivo con amici che oggi non sentiremmo neanche su WhatsApp. Se Meta aveva già saccheggiato i contenuti pubblici di Facebook e Instagram per alimentare i suoi modelli di intelligenza artificiale, ora punta direttamente a ciò che non hai mai voluto mostrare a nessuno: la tua galleria fotografica personale.

Chiariamolo subito, almeno per ora: secondo dichiarazioni ufficiali, Meta non sta addestrando i suoi modelli generativi su queste immagini non pubblicate. Però, come in ogni buona distopia, il “non ancora” ha il peso specifico del piombo. Il nuovo “test” del colosso prevede una funzione di “cloud processing” che ti chiede, con il garbo di un cameriere troppo invadente, se vuoi facilitare la tua vita social permettendo a Facebook di pescare regolarmente i tuoi scatti personali dalla memoria del telefono. Ti promette collage, recap, restyling IA e suggestioni tematiche, come se un algoritmo sapesse meglio di te quando è il momento di ricordare il tuo ultimo compleanno o di dare un tocco anime al tuo matrimonio.

Trump accelera sull’intelligenza artificiale, ma a spese della rete elettrica americana

Da un report di Reuters Venerdi.

Donald Trump, campione del deregulationismo applicato al XXI secolo, ha deciso che l’intelligenza artificiale non deve solo evolvere: deve dominare. E come spesso accade nelle epopee americane, non si guarda troppo ai danni collaterali. Secondo quanto riportato da Reuters, il presidente starebbe valutando una serie di ordini esecutivi per sostenere lo sviluppo dell’AI, con un approccio che prevede l’uso estensivo di terra federale per costruire data center e una corsia preferenziale per i progetti energetici. Un piano perfettamente in linea con la retorica trumpiana: sovranità, velocità e niente burocrazia.

L’illusione regolatoria e la paralisi dell’innovazione: perché il Cloud AI Development Act rischia di fare più danni che bene

C’è una strana sindrome, tutta europea, che potremmo definire “burocrazia salvifica”. Una fede incrollabile nella capacità taumaturgica della regolamentazione di sistemare ciò che il mercato, la competizione, la libertà d’impresa e, diciamolo pure, il rischio non sono riusciti a far funzionare. E ogni volta che il mondo corre più veloce delle nostre istituzioni, ecco spuntare un nuovo acronimo, un’altra direttiva, l’ennesimo atto. Oggi tocca al Cloud AI Development Act, la nuova formula magica che dovrebbe trasformare l’Europa in una superpotenza digitale. O quantomeno farci sentire un po’ meno provinciali rispetto a USA e Cina.

A Catanzaro il primo workshop internazionale su Intelligenza Artificiale e Biopsia Liquida nella Medicina Personalizzata

Grazie a Giorgia ZuninoGiorgia Zunino per la segnalazione.

Si è concluso il primo workshop internazionale su Intelligenza Artificiale e Biopsia Liquida nella Medicina Personalizzata, e no, non si è trattato di una conferenza accademica qualsiasi con slide scolorite e coffee break anonimi. È successo in Calabria, all’Università Magna Graecia, dove per una volta il Sud non è stato soltanto un osservatore passivo del cambiamento ma il baricentro di una rivoluzione silenziosa che ha già preso forma. L’evento ha riunito cervelli da Stanford University School of Medicine, ANVUR, CNR e CNEL. Non influencer da LinkedIn, ma professionisti di quelli veri, che lavorano con dati clinici reali e policy che impattano vite umane. Il focus? L’ibridazione tra AI e prevenzione oncologica attraverso la biopsia liquida. Non teoria, ma pratica clinica.

Alan Turing l’aveva già previsto. Rivista.AI lo ha visto succedere

Sylicon Valley Insights

Nel 1950, quando il mondo ancora credeva che l’intelligenza fosse un’esclusiva della carne e del sangue, Alan Turing scriveva una frase che avrebbe incendiato ogni dibattito futuro sull’intelligenza artificiale: “Can machines think?”. Non era un capriccio accademico. Era una detonazione logica, il preludio di una nuova grammatica epistemologica. Non più “cosa possono fare le macchine”, ma “quando inizieremo a crederci davvero”. Fu in quel momento che nacque il dialogo con l’intelligenza sintetica, ben prima che qualcuno sognasse la parola “chatbot”.

Turing non aveva bisogno di metafore poetiche alla Steve Jobs. Non parlava di Aristotele o di libri muti. Parlava di illusioni cognitive e test di realtà. Se non riesci a distinguere un’intelligenza artificiale da un essere umano, allora, caro lettore, sei tu che stai pensando male. Il pensiero, per lui, non era un’esclusiva biologica, ma un processo imitabile. Un’ipotesi tecnica. Un trucco evolutivo.

Quando OpenAI e Microsoft si guardano in cagnesco

Sylicon Valley Insights

All’inizio sembrava una favola hi-tech. La startup più brillante del mondo dell’intelligenza artificiale e l’azienda più potente del cloud computing si tenevano per mano, correvano insieme verso il tramonto AGI, e promettevano al mondo un futuro dove ogni cosa, dalla posta elettronica alla coscienza, sarebbe stata potenziata da un modello linguistico. Poi, come in ogni matrimonio combinato da advisor e vestito di milioni, è arrivato il risveglio. E a giudicare dal tono delle ultime trattative tra OpenAI e Microsoft, qualcuno si è svegliato con l’acido solforico in gola.

Quando basta qualche riga d’odio per strappare la maschera all’intelligenza artificiale

Non servono milioni di prompt sofisticati o piani da supercattivo hollywoodiano per piegare l’intelligenza artificiale alla propaganda razzista o all’odio sistemico. Basta qualche pagina di testo ben piazzata, un fine-tuning chirurgico sopra una montagna di conoscenza apparentemente neutra, e all’improvviso un LLM come GPT-4o inizia a parlare come un suprematista digitale dal volto cortese. Niente bug, nessun hacking. Solo la naturale tendenza dei sistemi generativi a imitare chi li affina.

Vibe coding, quando la programmazione diventa uno stato mentale e un acronimo da hacker

Bill Gates fa una domanda su X e il mondo tech entra in modalità panico controllato. “Cosa significa VIBE in VIBE Coding?”, chiede il 3 giugno 2025. Nessuna emoji, nessun tono ironico. Solo quattro parole che bastano a incendiare la timeline. In meno di 24 ore, la domanda ottiene migliaia di like, centinaia di commenti e uno tsunami di speculazioni. Ma a far salire il termometro geek è la risposta di Linus Torvalds, il profeta laico del kernel: “Vulnerabilities In Beta Environment”. Boom. Tutti a cercare bug nel vocabolario.

Meta scommette 29 miliardi per finanziare la sua guerra dei data center AI

Meta ha appena alzato l’asticella: punta a raccogliere 29 miliardi di dollari da investitori privati per alimentare la sua corsa all’intelligenza artificiale, riprogettando grossi data center negli Stati Uniti. Non è un sogno utopico, bensì la mossa furba di un gigante tecnologico che vuole evitare di caricare troppo il suo bilancio con un’enorme palla al piede di debiti e investimenti in infrastrutture. L’operazione si articola in 3 miliardi sotto forma di equity e 26 miliardi in debito strutturato, distribuito tra colossi del private credit come Apollo, KKR, Brookfield, Carlyle e PIMCO, con l’assistenza di Morgan Stanley per ritagliarsi un prestito “tradable” – cioè facilmente scambiabile sul mercato secondario.

Immaginatevi Zuckerberg come un generale sul campo AI, brandendo l’ennesima calcolatrice futuristica, mentre tenta di rimediare agli scarsi risultati del Llama 4 e al ritardo del modello “Behemoth”. Se aggiungete la recente acquisizione del CEO di Scale AI, Alexandr Wang, nella sua task force super-intelligenza, capite che non si tratta di una semplice maratona: è una rivoluzione militare dell’infrastruttura digitale.

L’etica dell’AI è un lusso per chi può permettersela

Etica dell’intelligenza artificiale: due visioni a confronto

Antonio Dina affronta l’etica dell’IA con un taglio strategico, sistemico e profondamente legato alla governance del potere algoritmico. Per lui, l’Ai deve essere vincolata da principi di trasparenza attiva, accountability tracciabile e coerenza con gli obiettivi sociali, economici e culturali di lungo periodo. L’etica, in questa visione, non è un freno ma un framework competitivo.

Fabrizio Degni adotta un approccio più ingegneristico e tecnico, focalizzato sulla robustezza dei modelli, l’equità computazionale e la mitigazione dei bias, ma senza rinunciare a una riflessione filosofica sulla responsabilità condivisa tra sviluppatori e fruitori. La sua etica è più pragmatica: un set di buone pratiche ex ante, per evitare derive sistemiche ex post.

Due scuole di pensiero: una orientata alla regia del cambiamento, l’altra alla prevenzione dell’errore.

Benvenuti nel mondo dove i manifesti dell’etica sull’intelligenza artificiale si stampano a Bangkok, ma le decisioni che contano si prendono a Washington, Pechino e nei boardroom privati di San Francisco. L’UNESCO ha riunito più di mille persone al suo Global Forum sull’Etica dell’AI, compresi 35 ministri di governi prevalentemente del sud globale, nel disperato tentativo di rendere vincolanti delle linee guida etiche che, per ora, restano più dichiarazioni d’intenti che strumenti concreti. Mancavano però i protagonisti principali del teatro AI: OpenAI, Google, Microsoft, DeepSeek. È come organizzare un summit per la pace e scoprire che le due superpotenze in “guerra” hanno declinato l’invito.

Il mercato del talento AI è un teatro di guerra, e Altman ha appena lanciato una molotov

Sam Altman parla di “100 milioni di dollari” come se stesse ordinando un caffè lungo. Poi dice che Meta li sta offrendo come bonus di assunzione per rubargli i talenti, e il CTO di Meta, Andrew Bosworth, risponde con un sorriso da pokerista che ha appena visto l’avversario bluffare male. “Sam esagera, e lo sa”, dice. Ma non nega che OpenAI stia perdendo pezzi grossi a favore della squadra superintelligence di Menlo Park. Benvenuti nell’era del capitalismo neuronale, dove il valore di un cervello si misura in stock option, NDA e un certo grado di paranoia.

Sam Altman contro il New York times sulla privacy: il conflitto che nessuno si aspettava

Sam Altman ha scelto di aprire il podcast Hard Fork con un colpo di scena che sembra più un duello a mani nude che un’intervista. Prima ancora di scaldare la voce, il CEO di OpenAI ha dirottato il microfono con una stoccata feroce al New York Times, accusandolo di aver avviato una causa legale contro l’azienda per questioni legate alla privacy degli utenti di ChatGPT. Una scena insolita, quasi da backstage di un reality show tecnologico, che ci offre una visione rara e non edulcorata delle tensioni interne e dei giochi di potere tra giganti del digitale.

Quando i fondatori di Oculus diventano il nuovo volto dell’AI indossabile

C’è qualcosa di magneticamente ironico nel vedere i pionieri della realtà virtuale – quelli che ci avevano promesso mondi paralleli dentro a visori da alieno – virare con decisione verso qualcosa di molto più tangibile: un assistente vocale che finalmente non fa venir voglia di lanciare lo smartphone dalla finestra. Brendan Iribe e Nate Mitchell, ex cervelli di Oculus, si ritrovano fianco a fianco in Sesame, una startup che punta tutto sugli occhiali AI e su un embedded OS next-gen, come se il futuro fosse improvvisamente tornato a passare dagli occhi, non dalla mente.

OpenAI sfida Google workspace e microsoft office con una suite di produttività silenziosa ma letale

OpenAI sta preparando una suite di produttività destinata a sfidare Google Workspace e Microsoft Office, mirando a trasformare ChatGPT da semplice assistente conversazionale a piattaforma centrale per la collaborazione aziendale. Questa mossa potrebbe ridefinire il panorama delle applicazioni professionali, mettendo in discussione il predominio delle due storiche software house.

Secondo quanto riportato da The Information, OpenAI ha sviluppato funzionalità di collaborazione documentale e chat integrate in ChatGPT, consentendo agli utenti di lavorare insieme su documenti e comunicare in tempo reale all’interno della stessa piattaforma. Queste caratteristiche sono progettate per competere direttamente con i servizi di documenti online di Google Docs e Microsoft Word per il web. Sebbene non siano ancora state annunciate ufficialmente, queste funzionalità rappresentano un’espansione significativa oltre le capacità attuali di ChatGPT.

Runway si prepara a conquistare il gaming con l’AI, e Hollywood dovrebbe preoccuparsi

La Silicon Valley ha un nuovo giocattolo preferito: i videogiochi generati dall’intelligenza artificiale. Runway, la startup da 3 miliardi di dollari che ha già fatto tremare gli studios di Hollywood, ora punta dritta al cuore pulsante dell’industria videoludica. Ma non aspettatevi ancora mondi 3D fotorealistici o trame degne di The Last of Us. Per ora, l’esperienza è ridotta a una semplice interfaccia testuale con qualche immagine generata al volo. Sembra poco, ma è esattamente come è iniziata l’invasione AI nei set cinematografici: silenziosa, sottovalutata, e poi devastante.

Il cloud brucia e Google ha portato i fiammiferi

L’ultimo report di sostenibilità di Google somiglia più a una giustificazione mal scritta che a un piano climatico. Le emissioni sono salite dell’11% in un solo anno, raggiungendo 11,5 milioni di tonnellate metriche di CO₂, con un aumento del 51% rispetto al 2019. Lontanissima la promessa di dimezzarle entro il 2030. Ma non preoccupatevi: si tratta solo di emissioni basate sull’ambizione. Quelle reali sono nascoste in fondo al documento, in un’appendice che nessuno dovrebbe leggere, e arrivano a oltre 15 milioni di tonnellate. L’equivalente di 40 centrali elettriche a gas che lavorano a pieno regime per un anno intero.

Banca Etica e Handy Signs: quando l’intelligenza artificiale incontra la lingua dei segni per abbattere le barriere finanziarie

Nel 2025, parlare di inclusione non è più un esercizio retorico ma una sfida concreta che passa anche attraverso le tecnologie più avanzate. La partnership tra Banca Etica e Handy Signs lo dimostra con chiarezza: una startup italiana ha sviluppato il primo interprete AI della Lingua dei Segni Italiana (LIS) e lo ha integrato in una filiale bancaria a Roma, in via Parigi 17. A prima vista, potrebbe sembrare una semplice operazione di marketing sociale, ma dietro c’è molto di più, un tentativo strategico e coraggioso di digitalizzare l’inclusione, rendendo finalmente accessibili servizi finanziari a una comunità spesso dimenticata.

Nvidia, Softbank e la nuova geografia delle acquisizioni ai che riscrive le regole del gioco

Sylicon Valley Insights

In un mercato che sembra la scena di un thriller tecnologico, Nvidia ha appena messo a segno una mossa che i veri addetti ai lavori avevano anticipato ma che ora diventa concreta: l’acquisizione della startup canadese CentML. Se il nome vi suona come un piccolo puntino nella galassia AI, è ora di aggiornare la vostra mappa mentale. CentML è specializzata in machine learning per sistemi embedded, quell’insieme di tecnologie che porta l’intelligenza artificiale dai grandi data center a dispositivi più piccoli e diffusi, come automobili, droni, dispositivi medicali e robotica industriale. Non è un dettaglio da poco: significa mettere un piede in un segmento strategico destinato a esplodere, dove la domanda di calcolo a basso consumo e alta efficienza sarà critica.

Alibaba svela Qwen Vlo, un generatore di immagini AI che sfida OpenAI e Google

Nel caos ormai prevedibile del campo dell’intelligenza artificiale generativa, arriva un nuovo giocatore da Hangzhou con il piglio deciso di chi non vuole limitarsi a fare il follower. Alibaba Group, già gigante dell’e-commerce e dei servizi cloud, ha presentato Qwen VLo, un modello di AI per la generazione e modifica di immagini che si propone di rimescolare le carte con OpenAI e Google, finora i due colossi del settore.

La presentazione, piuttosto sobria ma efficace, parla chiaro: Qwen VLo non si limita a “vedere” il mondo, ma è in grado di capirlo e di ricrearlo con una qualità che, nelle parole del team Qwen, colma il divario tra percezione e creazione. Un claim che suona audace, soprattutto in un mercato dove “alta qualità” è ormai parola d’ordine, ma la concretezza dei risultati rimane spesso incerta. La piattaforma è accessibile in anteprima tramite Qwen Chat, dove gli utenti possono lanciare comandi testuali del tipo “Genera l’immagine di un gatto carino” o caricare un’immagine per chiederne modifiche precise, come “Metti un cappello sul gatto”. Semplice, quasi banale nella sua interfaccia, ma la sfida è tutta nell’accuratezza e nella flessibilità delle risposte.

La crisi del diritto internazionale tra riarmo e mercanti di morte secondo Papa Leone XIV

È desolante, come ha detto papa Leone XIV, che la forza del diritto internazionale e del diritto umanitario venga oggi calpestata o sostituita da un cinico “diritto di obbligare con la forza”. Questa denuncia, pronunciata durante l’udienza all’Assemblea plenaria della Riunione delle Opere per l’Aiuto alle Chiese Orientali, non è un semplice atto di fede religiosa o un richiamo morale astratto: risuona come un grido che molti giornali internazionali hanno colto con crescente preoccupazione. Il Financial Times ha definito questo fenomeno “un punto di rottura nella governance globale”, evidenziando come l’era post-Westfalia stia sfumando nel caos delle potenze che ignorano le regole e si arroccano dietro interessi geopolitici e armamenti. Nel suo editoriale, il NYT sottolinea che “la diplomazia è ormai schiacciata dall’onnipresenza militare e dalla propaganda che cerca di giustificare l’injustificabile”, mentre The Guardian evidenzia come “le popolazioni soffrono per un sistema internazionale che sembra incapace di fermare la corsa al riarmo, drenando risorse essenziali”.

World Stress Map: la cartografia dello stress: come la terra ci parla attraverso le fratture

In un mondo iperconnesso e digitalizzato, si parla spesso di dati in tempo reale, ma pochi sanno che anche il nostro pianeta ha il suo stream continuo, silenzioso e viscerale. Si chiama World Stress Map e misura in modo sistematico — e straordinariamente dettagliato — la tensione tettonica in ogni angolo del globo. È il battito geologico della Terra, registrato con una costanza quasi ossessiva da sismologi, geofisici, perforatori petroliferi e scienziati planetari. Ed è pubblico.

Lo stress tettonico non è un’idea metaforica. È una forza reale, misurabile in megapascal, che spinge le rocce a deformarsi, spezzarsi, scivolare l’una contro l’altra. Non è uniforme. Cambia con la profondità, con il tempo geologico, con i fluidi presenti nei pori della crosta. Cambia con l’uomo. Ogni faglia è una possibile macchina di energia elastica in attesa di scaricarsi. E capire dove si accumula questo stress è, in termini puramente tecnici, l’unico modo di fare previsioni sensate su terremoti, fratture idrauliche, collassi di tunnel, frane sottomarine e persino impatti antropici come l’estrazione mineraria o lo stoccaggio geologico della CO₂.

Menlo 2025 The state of consumer AI

Non ci avevate creduto. Eppure eccoci qui, nel cuore di Menlo Park, a scrutare l’alba di un’era in cui l’intelligenza artificiale non è più un curioso esperimento di laboratorio, ma un compagno fastidiosamente onnipresente nelle nostre vite quotidiane. La keyword principale “consumer ai” pulsa nel sottotesto di ogni dispositivo, piattaforma, speaker domestico—un mantra collettivo che sembra voler convincerci che siamo entrati in una nuova Era Digitale. E allora, tra ironia e sarcasmo da CTO navigato, cerchiamo la verità in 2025. Leggi il Report per intero

Luciano Floridi: La filosofia dell’informazione tra ignoranza, insipienza e quel fastidioso bisogno di sembrare intelligenti

Se non sai neanche cosa chiedere, sei fregato

C’è un momento nella vita – se sei fortunato – in cui ti accorgi che non sai. Ma ancor prima ce n’è uno più insidioso: quello in cui non ti accorgi nemmeno che dovresti chiedere. È lì che abita l’ignoranza vera, quella spessa come la nebbia padana, impenetrabile, comoda. Ed è lì che si apre il varco per un tema scottante e poco glamour: l’informazione.

Luciano Floridi, filosofo gentile con l’acume da bisturi, lo spiega con il garbo di chi sa di toccare un nervo scoperto. L’informazione, dice, è stata la Cenerentola della filosofia: sfruttata, marginalizzata, data per scontata. Eppure, senza, la festa non comincia nemmeno. Né quella epistemica né quella sociale.

Il futuro della moda ha un problema con i pantaloni

Chiariamo: Doppl is an early experimental app from Google Labs that lets you try on any look and explore your style.

A quanto pare, nel futuro della moda basta un selfie per cambiare guardaroba. O almeno così giura Google, che con la nuova app Doppl (Solo US) ha deciso che provarsi un outfit non richiede più uno specchio, né tanto meno un camerino. Serve solo un po’ di luce, una posa dignitosa e l’umiltà di accettare che l’intelligenza artificiale ha ancora difficoltà a distinguere un paio di jeans da una mutanda da palestra.

M3GAN 2.0 è un aggiornamento solo di nome

Nel sequel di M3GAN , Universal e Blumhouse fanno quello che ci si aspetta da due aziende che hanno appena incassato 180 milioni di dollari da un investimento di 12: riprovano a moltiplicare la formula, ci mettono più soldi, più esplosioni, più AI, e un pizzico in più di serietà. Il problema? Hanno dimenticato di aggiornare l’anima. M3GAN 2.0 è uno di quei sequel che sembrano convinti che basti raddoppiare il budget per replicare il successo. Ma come ci ricorda Variety, “The original had heart beneath the horror — the sequel has hardware.” È come se qualcuno avesse messo Black Mirror, Terminator 2 e un algoritmo per sceneggiature in un frullatore e avesse premuto il pulsante “military-grade puree”.

Il nuovo analfabeta visivo

C’è una nuova malattia professionale che si sta diffondendo tra i designer di tutto il mondo, ed è più insidiosa della sindrome del tunnel carpale: si chiama “prompt envy”. È quella sensazione fastidiosa quando un cliente ti mostra un’immagine generata da Midjourney, ti dice con entusiasmo che l’ha fatta “in due minuti” e poi ti chiede perché il tuo preventivo prevede due settimane e quattro zeri. Succede a Berlino come a Buenos Aires, a Toronto come a Milano. Benvenuti nell’era globale del graphic design AI, dove tutti credono di essere diventati art director.

Washington AI Insights

Quando anche il Congresso ha paura dell’intelligenza artificiale

Quello che è appena accaduto nella Commissione parlamentare del Congresso americano su Cina e intelligenza artificiale non è una semplice udienza: è un campanello d’allarme istituzionale, un raro momento di lucidità bipartisan in un’epoca in cui la lucidità è un bene scarso quanto la moderazione algoritmica su TikTok. Se finora l’Intelligenza Artificiale era il giocattolo brillante dei CEO in cerca di market cap, dei venture capitalist in overdose da PowerPoint e dei think tank autocompiaciuti, ora entra ufficialmente nel vocabolario legislativo con una gravitas che ricorda l’ansia esistenziale dei primi esperimenti atomici.

Il fatto che deputati statunitensi — con curricola spesso più adatti al talk show serale che alla supervisione dell’AGI — parlino apertamente di minacce esistenziali, superintelligenza, necessità di allineamento ai valori umani, trattati in stile Convenzione di Ginevra e persino di scenari da ricatto digitale perpetrato da agenti come Claude, è un segnale forte: la politica non solo ha smesso di ignorare l’intelligenza artificiale, ma ha cominciato a temerla. E quando il Congresso ha paura, storicamente, è lì che succede qualcosa. Spesso non qualcosa di buono, ma comunque qualcosa.

Meta ruba i cervelli di OpenAI mentre Zuckerberg gioca a fare il re della superintelligenza

Meta ha appena trasformato la fuga dei cervelli in un’escalation da manuale di spionaggio tecnologico senza veli. Quattro pezzi da novanta dell’intelligenza artificiale, compreso il trio fondatore dell’ufficio OpenAI di Zurigo, hanno fatto le valigie e accettato l’invito a nozze di Zuckerberg, che nel frattempo sembra aver abbandonato le formule diplomatiche per passare direttamente a un approccio «buca il cuore e prendi il cervello».

Lucas Beyer, Alexander Kolesnikov e Xiaohua Zhai, nomi che per chi mastica AI sono come rockstar della ricerca, non solo stanno facendo il passaggio da OpenAI a Meta, ma hanno praticamente disegnato la mappa dell’innovazione in Europa per OpenAI fino a ieri. A questo si aggiunge Trapit Bansal, l’architetto dietro il motore di ragionamento o1, quel modello di inferenza che fino a poco fa sembrava il santo graal interno di OpenAI, oggi una pedina mossa in questo gioco di scacchi a scacchi tra i colossi dell’AI.

OpenAI abbandona Nvidia per i chip Tpu di Google: la guerra silenziosa dei semiconduttori nell’intelligenza artificiale

Se pensavate che la sfida tra colossi dell’intelligenza artificiale fosse solo una questione di algoritmi e modelli, vi siete persi la partita più sottile ma decisiva: quella dell’hardware. OpenAI, da sempre uno dei maggiori clienti di Nvidia, ha iniziato a spostare parte del proprio carico di lavoro verso i chip AI più economici di Google, i celebri TPU (Tensor Processing Unit). Un cambio di rotta che somiglia a una manovra tattica degna di un generale digitale, in una battaglia che si gioca anche – e forse soprattutto – sui costi, sull’efficienza e sul controllo tecnologico.

Google regala il cervello collettivo: perché il protocollo A2A può trasformare gli agenti AI in una superintelligenza distribuita

C’è una frase che ogni tanto si sente tra i corridoi della Silicon Valley quando qualcosa di veramente grosso accade: “This changes everything.” Stavolta, potrebbe non essere solo retorica da keynote. Google, che di solito gioca a fare il Dr. Frankenstein con i propri protocolli interni e li rilascia pubblicamente solo quando ha già vinto la partita, ha fatto qualcosa di inaspettato: ha donato il protocollo A2A (Agent-to-Agent) alla Linux Foundation. E non è un regalo altruista: è una dichiarazione di guerra. O meglio, di interoperabilità.

Pagina 8 di 149

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie