Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: News Pagina 2 di 88

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

La grande bugia dell’AI coraggiosa: perché le macchine si credono tutte dei Ravenclaw

Se le AI fossero studenti di Hogwarts, il dormitorio di Ravenclaw sarebbe così affollato da sembrare un datacenter di Google sotto stress. Undici modelli su diciassette, infatti, si sono assegnati il 100% alla casa degli intellettuali, dei sapientoni, dei topi da biblioteca col senso dell’umorismo criptico. Nessuno ripetiamo, nessuno si è identificato in Gryffindor, la casa di Harry Potter, quella dei coraggiosi. Nemmeno un briciolo di audacia. I modelli linguistici di ultima generazione, secondo l’esperimento condotto dallo sviluppatore “Boris the Brave”, sembrano avere un solo tratto dominante: l’ossessione per il pensiero razionale, la preferenza per la mente sul cuore. E, implicitamente, un’allergia quasi patologica al rischio.

Apple perde il cervello dell’intelligenza artificiale mentre meta fa incetta di talenti

Ruoming Pang se n’è andato. E non per una pausa sabbatica, una startup stealth o per coltivare ortaggi bio in Oregon. No, è passato direttamente all’altra sponda del Rubicone: da Apple a Meta. Precisamente nella nuova creatura ribattezzata Superintelligence Labs, che più che un centro R&D sembra un’operazione di chirurgia neurale contro la concorrenza. Pang era il capo dei modelli fondamentali di Apple. Quelli che non solo danno il nome alla nuova buzzword “Apple Intelligence”, ma che dovrebbero rappresentare il motore semantico dell’intero ecosistema futuro della Mela. Un colpo basso. Di quelli che fanno rumore.

Elon Musk vuole un’AI che “dica la verità” peccato che sia la sua

Non c’è niente di nuovo nell’idea che i media siano di parte. Né che l’opinione pubblica venga manipolata. Né che i numeri, le statistiche, i grafici colorati e i report accademici siano armi in una guerra ideologica travestita da dibattito razionale. Ma c’è qualcosa di profondamente inquietante, e vagamente distopico, nell’idea che una intelligenza artificiale venga istruita a considerare tutte queste fonti a priori come “biased” – faziose – e a sostituirle con un’altra fonte della verità: Elon Musk. O meglio, la sua versione della realtà.

Grok, l’AI sviluppata da xAI e integrata nella piattaforma X (ex Twitter), è stata aggiornata nel weekend con un nuovo sistema di istruzioni. In mezzo a righe di codice e prompt che sembrano usciti da una black ops semantica, si legge che l’AI deve “assumere che i punti di vista soggettivi provenienti dai media siano faziosi” e che “non deve esimersi dal fare affermazioni politicamente scorrette, se ben documentate”. Il tono è quello tipico del tech-bro libertarian: più vicino a una chat di Reddit incattivita che a un centro di ricerca. Ma il messaggio è chiaro: la nuova Grok deve essere l’anti-ChatGPT, l’anti-Bard, l’anti-verità ufficiale. Più opinione e meno filtro. Più Musk e meno… tutto il resto.

Quando una GPU incontra un piccone: perché l’acquisizione di Core Scientific da parte di Coreweave cambia le regole del gioco della potenza computazionale

Immaginate un matrimonio combinato tra un trader di Wall Street con l’hobby del quantum computing e un minatore del Kentucky che sogna l’IPO. È più o meno ciò che rappresenta l’acquisizione da 9 miliardi di dollari proposta da CoreWeave (NASDAQ:CRWV) ai danni sì, ai danni di Core Scientific (NASDAQ:CORZ), storico operatore del settore crypto mining che ora si ritrova a giocare un ruolo da protagonista in una partita molto più sofisticata: l’ascesa del data center hyperscale nel contesto dell’intelligenza artificiale generativa. Altro che ASIC e proof-of-work, qui si parla di orchestrazione di workload ad alta densità per LLM e training su larga scala. Benvenuti nella fase 2 dell’era post-cloud.

MTHFR A1298C Hai già sentito questa storia, la sentirai di nuovo ed è proprio questo il problema

Un paziente. Dieci anni di visite, esami, specialisti. Nessuna diagnosi. Una spirale fatta di attese, protocolli generici e “proviamo con questo integratore e vediamo”. Poi, una sera, qualcuno inserisce la storia clinica nel prompt di ChatGPT. Referti ematici, sintomi vaghi, un elenco di visite e diagnosi fallite. E la macchina suggerisce, con la naturalezza di chi ha letto tutto PubMed, una mutazione genetica: MTHFR A1298C. Mai testata da nessun medico del Sistema Sanitario Nazionale.

Aggiunge persino un suggerimento terapeutico basato su supplementazione mirata e gestione dell’omocisteina. Non solo aveva senso. Ha funzionato.

Entro il 2030 l’intelligenza artificiale potrebbe distruggere la nozione stessa di lavoro e nessuno sta preparando il piano B

C’è un dettaglio che sfugge a molti quando si parla di large language models, quei sistemi apparentemente addestrati per generare testo umano, rispondere a domande, scrivere codice o produrre email che sembrano uscite dalle dita di un impiegato mediocre. Il punto è che questi modelli non stanno semplicemente migliorando: stanno accelerando. In modo esponenziale. E come sempre accade con l’esponenziale, la mente umana tende a fraintenderlo fino a quando è troppo tardi per rimediare. Secondo una ricerca condotta da METR (Model Evaluation & Threat Research), i LLM raddoppiano la loro capacità ogni sette mesi. Non è una proiezione teorica: è una misurazione empirica su task complessi e di lunga durata. Un LLM oggi fatica a risolvere problemi “disordinati” del mondo reale, ma tra cinque anni potrebbe completare in poche ore un progetto software che oggi richiede a un team umano un mese intero. Quarantacinque giorni in otto ore. E nessuno sembra preoccuparsene davvero.

Capgemini compra WNS per $3,3 miliardi: non è outsourcing, è il grande salto dell’agentic AI

Quando Capgemini sborsa 3,3 miliardi in contanti per mettere le mani su WNS, non sta facendo una classica acquisizione da colosso del consulting assetato di quote di mercato nel Business Process Services. No, qui succede qualcosa di molto più pericoloso, e strategicamente eccitante: un salto deliberato verso un nuovo ordine operativo dominato da Agentic AI, dove le vecchie catene del BPO tradizionale si spezzano per sempre. Non è solo un’acquisizione, è una dichiarazione di guerra al modello legacy dell’efficienza incrementale. E, come sempre, i francesi lo fanno col sorriso.

Samsung affonda tra chip lenti, cinesi silenziati e intelligenza artificiale che non perdona

C’è lo racconta REUTERS se Samsung fosse un giocatore di poker, ora si troverebbe con un bel tris… di problemi. E nessuna carta vincente in mano. Mentre il mondo brucia i watt dietro a ogni bit di intelligenza artificiale, la più grande produttrice di chip di memoria al mondo si sta muovendo con l’agilità di una petroliera in una gara di jet ski. Un tempo sinonimo di innovazione implacabile, oggi Samsung arranca dietro SK Hynix e Micron, entrambi decisamente più svegli quando si tratta di cavalcare la rivoluzione dell’HBM, quelle memorie ad alta larghezza di banda che alimentano il cuore pulsante dell’IA nei data center globali.

Huawei contro tutti: la guerra sporca degli LLM e la farsa dell’open source “indigeno”

Che Huawei giochi la carta del patriottismo tecnologico non è una novità. È dal 2019 che la multinazionale cinese è inchiodata al muro delle sanzioni statunitensi, e da allora si è vestita del ruolo di simbolo della resilienza cinese, un po’ martire, un po’ profeta. Ma questa volta, la narrativa del colosso di Shenzhen si sta incrinando pericolosamente. Al centro del dramma: il nuovo modello open-source Pangu Pro MoE 72B, che la compagnia ha recentemente sbandierato come un capolavoro di sviluppo “indigeno”, realizzato sui propri chip Ascend. La parola chiave, naturalmente, è “indigeno”. E proprio lì casca l’asino.

Perché quando una misteriosa entità GitHub chiamata HonestAGI nome più satirico che casuale ha pubblicato una breve ma devastante analisi tecnica affermando che Pangu mostrava una “correlazione straordinaria” con il modello Qwen-2.5 14B di Alibaba, i sospetti hanno preso il volo come stormi di corvi digitali. Non stiamo parlando di semplici somiglianze, ma di pattern, pesi e strutture che secondo diversi sviluppatori lasciano poco spazio all’immaginazione. È l’equivalente tecnico del trovare il DNA di uno scrittore rivale nei tuoi manoscritti inediti.

OpenAI assume uno psichiatra forense: troppo tardi per prevenire la psicosi da chatbot?

Nel 2025 OpenAI ha annunciato l’assunzione di uno psichiatra forense per studiare l’impatto emotivo dell’intelligenza artificiale generativa. Una mossa che, pur se presentata come eticamente responsabile, appare tardiva e sintomatica di un approccio reattivo più che preventivo.

Già negli anni ’60 con ELIZA si intuiva il potenziale evocativo dell’interazione uomo-macchina. Dai laboratori del MIT Media Lab alle ricerche dell’AI Now Institute, esisteva una letteratura chiara sui rischi cognitivi e affettivi della simulazione dialogica. Questo articolo di Dina in collaborazione con l’eticista Fabrizo Degni analizza tale decisione alla luce della psicologia cognitiva, sociale e clinica, evidenziandone le implicazioni epistemiche e sistemiche.

Alfredo Adamo e l’arte sottile di investire: il venture capital all’italiana spiegato da chi lo pratica davvero

Ci ha invitato a prendere un caffè  un espresso in tazza grande, il mio preferito, senza che lo chiedessi niente approccio da coworking milanese e dopo cinque minuti sembrava ci conoscessimo da anni. Nessun badge, nessuna posa, solo un’intelligenza tagliente nascosta dietro una cortesia disarmante. Alfredo Adamo ti ascolta con quella calma che oggi è quasi sospetta, come se già sapesse dove andrai a parare e ti lasciasse il tempo di arrivarci da solo.

Noi di Rivista.AI siamo entrati aspettandoci il solito discorso da investitore seriale e invece ci siamo trovati davanti un hacker del sistema, uno stratega della complessità con lo sguardo da artigiano visionario. Nessun mantra da startup weekend, nessun entusiasmo forzato: solo pensiero lucido, pazienza operativa e una quantità sorprendente di cultura umanistica intrecciata alla tecnologia. Un caffè diventato viaggio mentale, tra AI, arte, capitale e futuro. E alla fine, più che un’intervista, è sembrato un debriefing tra complici.

In un ecosistema che grida “exit” come fosse l’unica parola rimasta nel dizionario del venture capital, Alfredo Adamo fa un passo di lato e, con la calma di un artigiano digitale e l’astuzia di un giocatore di scacchi da circolo, continua a costruire. Non corre, non strepita, non si vanta. Investe. E resta. La sua presenza si sente più nei sottotraccia dei pitch che negli editoriali di Forbes. Ma chi sa leggere i flussi, più che i titoli, lo ha già capito: se vuoi sapere dove sta andando l’innovazione tech in Italia, segui le rotte di Alfredo, non i botti delle exit.

La parola chiave è “persistenza”. Non quella da brochure motivazionale, ma quella rude, fatta di cene infinite con founder squattrinati, valutazioni da decimare a colpi di business plan e la santa pazienza di chi sa che prima di vendere serve costruire valore vero. Mentre gli unicorni italiani si contano ancora sulle dita di una mano, Alfredo Adamo è già oltre il mito. Ha fatto della discrezione il suo biglietto da visita, e del capitale intelligente la sua firma invisibile su decine di startup.

Quando gli altri si Azzuffano, il distributore automatico vince

Il “distributore automatico” di Anthropic è, in realtà, un esperimento che incapsula perfettamente la filosofia con cui Dario Amodei guida l’azienda: affrontare l’intelligenza artificiale non solo come una corsa alla potenza computazionale, ma come una questione esistenziale di governance, sicurezza e impatto sistemico. A prima vista, sembra quasi un aneddoto surreale, un easter egg da Silicon Valley post-pandemica: un distributore automatico alimentato da Claude, il modello linguistico di Anthropic, che consente agli utenti di interagire con l’IA per ottenere snack e riflessioni etiche in egual misura. Ma sotto la superficie giocosa, l’iniziativa è profondamente sintomatica del loro approccio distintivo: usare prototipi tangibili per testare come l’intelligenza artificiale può essere implementata responsabilmente nel mondo reale.

New York, intelligenza artificiale e arte pubblica: quando Google scolpisce specchi nel cemento

Le informazioni sono arrivate il 6 luglio 2025, ma la storia era già nell’aria da settimane. Manhattan suda, letteralmente e metaforicamente, sotto un sole di maggio che sa di agosto. Rockefeller Center pullula di turisti sudati, ragazzini viziati con frappuccino rosa e dirigenti Google con lo sguardo distaccato. Al centro della scena: una scultura che sembra uscita da un incubo LSD di Escher e Yayoi Kusama, ribattezzata con disinvoltura “un vivace labirinto di specchi”. Solo che qui, a riflettersi, non c’è solo chi guarda. C’è anche l’ombra lunga della macchina, che ha cominciato a disegnare.

La fiducia è l’interfaccia: come abbiamo smesso di chiederci perché crediamo alle macchine

La fiducia, come concetto filosofico, è sempre stata un atto rischioso. Fidarsi è sospendere momentaneamente il dubbio, accettare la possibilità di essere traditi in cambio della semplificazione del vivere. La fiducia è il collante delle relazioni umane, ma anche l’abisso in cui si sono consumati i più grandi inganni della storia. Fidarsi dell’altro significa spesso delegare la fatica del pensiero. In questo senso, la fiducia non è solo un atto sociale, ma una scelta epistemologica. Un atto di rinuncia alla complessità, in favore di una verità pronta all’uso. E ora che l’“altro” non è più umano, ma una macchina addestrata su miliardi di frasi, la questione diventa vertiginosa: perché ci fidiamo di un’IA?

Il precipizio del calcolo: l’apartheid computazionale che sta decidendo il futuro dell’intelligenza artificiale

C’è una bugia ben educata che ci raccontiamo sull’intelligenza artificiale: che sia universale, democratica, accessibile. Basta un’idea brillante e una connessione a internet, giusto? Sbagliato. Oggi la vera valuta dell’intelligenza artificiale non è l’algoritmo, né il talento. È la potenza di calcolo. E su quel fronte, il mondo non è solo diviso: è spaccato come una lastra di ghiaccio sottile sotto il peso di un futuro che pochi potranno davvero controllare.

Elon Musk si inventa un partito: l’ennesimo colpo di teatro di un miliardario in cerca di nemici

È nato un nuovo partito negli Stati Uniti, o almeno così dice Elon Musk. L’ha chiamato “America Party”, come fosse il reboot di una sitcom anni ’90 girata in un garage di Palo Alto con troppa caffeina e nessuna vergogna. Il tweet – perché tutto comincia e spesso finisce lì – recita: “Oggi nasce l’America Party per restituirvi la libertà”. Se vi sembra una frase partorita da un algoritmo con problemi di identità nazionale, non siete soli. Il punto, però, non è tanto la vaghezza del proclama, quanto la logica distorta che sta dietro al progetto: usare il brand Musk per hackerare la democrazia, come fosse un’auto da aggiornare via software.

Mentre Trump gioca a fare il KING, la Cina mette gli occhi sul mondo: perché gli occhiali AR di xREAL possono far tremare Apple, Meta e Google

Mentre Donald Trump rispolvera lo slogan da reality show “Make America Great Again”, i cinesi di Xreal si apprestano a colonizzare il campo della realtà aumentata con un’aggressività chirurgica che farebbe impallidire Sun Tzu. Sì, perché mentre l’Occidente si balocca con prototipi da salotto, Xreal – la startup cinese fondata da tre cervelli di Zhejiang University – sta per catapultare sul mercato di massa un paio di occhiali AR leggeri, potenti, con un campo visivo da 70 gradi e una strategia da conquistatori digitali. Il nome in codice è Project Aura. Non è un gioco di parole. È un assedio.

Non è solo un’altra startup cinese con velleità da unicorno: Xreal è il braccio operativo della seconda grande offensiva XR targata Google, dopo il poco incisivo Moohan, il visore realizzato insieme a Samsung che ha fatto meno rumore dell’ultimo keynote di Zuckerberg. Aura, invece, è il nuovo feticcio tech con l’anima di Android XR e il corpo disegnato da ingegneri che sembrano usciti direttamente da un laboratorio DARPA. Con un chip Snapdragon firmato Qualcomm e il nuovo X1S customizzato da Xreal, questi occhiali vogliono far impallidire sia il Vision Pro di Apple sia i Ray-Ban Reality di Meta. E il bello? Arriveranno nel Q1 2026, proprio mentre l’America sarà distratta da una nuova guerra elettorale tra gerontocrazie.

Alibaba si prende tutto: DeepSWE e l’egemonia gentile del codice open-source

Le intelligenze artificiali non stanno solo imparando a scrivere codice: lo stanno riscrivendo. E tra le macerie dei modelli proprietari e delle API chiuse a pagamento, spunta una nuova aristocrazia algoritmica, fondata non su brevetti ma su repository GitHub. Il nuovo padrone del gioco si chiama Alibaba, e ha un nome tanto tenero quanto micidiale: Qwen. Dietro questo suono da panda antropomorfo, si nasconde il sistema nervoso di una rivoluzione che parte dalla Cina e si insinua, come una variabile nascosta, nei workflow dei developer globali.

La notizia, al netto del politicamente corretto delle PR, è semplice: DeepSWE – un framework agentico specializzato in software engineering – ha appena distrutto la concorrenza nei benchmark SWEBench-Verified grazie al modello Qwen3-32B, sviluppato da Alibaba Cloud e allenato da Together AI e Agentica. Ma il dettaglio che nessuno vuole evidenziare davvero è che tutto questo è open-source. Non “open-weight”, non “quasi open”, non “sandboxed API su cloud a consumo”. Codice sorgente. Reinforcement learning modulare. Dataset pubblici. E una dichiarazione che suona più come una minaccia che un annuncio: “Abbiamo open-sourcizzato tutto – il dataset, il codice, i log di training e di valutazione – per consentire a chiunque di scalare e migliorare gli agenti con l’RL”. Qualunque cosa, chiunque. Benvenuti nel nuovo ordine.

AI Act: 44 Ceo europei chiedono una retromarcia a Bruxelles

Da Airbus a BNP Paribas, cresce la pressione sul legislatore europeo: “Così l’Europa resterà indietro nella corsa globale all’AI”. Ma Bruxelles è davvero pronta ad allentare le maglie della legge più severa al mondo sull’intelligenza artificiale?

Perché Milano è la nuova Francoforte e l’Italia sta finalmente smettendo di essere solo una cartolina per l’Europa dei dati

Il panorama dei Data Center in Italia e in Europa: un’analisi approfondita

Nel cuore di questa corsa globale verso l’elaborazione decentralizzata e la dominazione algoritmica, alcune città europee iniziano a muovere pedine che fino a ieri sembravano ferme come statue. Milano non è più sola: Roma, Marsiglia e Varsavia stanno diventando nomi familiari nei pitch deck degli investitori. No, non stiamo parlando di turismo, ma di hyperscale, colocation e edge computing. La nuova geopolitica digitale non si combatte con trattati o accordi doganali, ma con latenza, connettività e temperatura media. Sì, anche il meteo ora fa strategia.

La farsa della moratoria sull’IA è finita (per ora), ma non cantate vittoria: l’ecosistema AI Safety resta un cane con la museruola

Il mondo dell’intelligenza artificiale è pieno di annunci roboanti, iperboli apocalittiche e un generale senso di urgenza che neanche un economista keynesiano sotto adrenalina. Ma il teatrino della moratoria regolatoria andato in scena a Washington questa settimana merita uno slow clap. Una commedia degli equivoci dove nessuno sembra aver letto davvero il copione, ma tutti fingono di aver vinto. Spoiler: non ha vinto nessuno. E men che meno l’AI safety.

Il riassunto, per chi ha avuto la fortuna di ignorare il caos: lunedì, i senatori Marsha Blackburn e Ted Cruz si erano accordati su una moratoria di cinque anni per regolamentazioni sull’IA, con qualche deroga su temi sensibili come la sicurezza dei minori e la tutela dell’immagine dei creatori di contenuti. Non esattamente una stretta totale, ma abbastanza per sollevare più di un sopracciglio tra chi crede che un po’ di freno all’orgia deregolatoria dell’AI non sia poi un’idea così malsana.

Il futuro dell’intelligenza artificiale tra fuga di cervelli e leadership in crisi

Se pensate che la guerra per l’intelligenza artificiale si giochi solo sulle capacità dei modelli e sulla potenza dei data center, vi sbagliate di grosso. Dietro ogni algoritmo all’avanguardia c’è una partita ben più umana, meno visibile ma molto più decisiva: la battaglia per il talento. E in questa sfida, le mosse di Meta contro OpenAI raccontano una storia che va ben oltre i numeri o le dichiarazioni di facciata.

Meta ha appena fatto un colpo grosso, strappando almeno otto ricercatori di punta da OpenAI con offerte stratosferiche da 100 milioni di dollari. Non si tratta di un semplice scambio di dipendenti, ma di un vero e proprio esodo di menti preziose che scuote le fondamenta della più famosa startup dell’intelligenza artificiale. In gioco non c’è solo la supremazia tecnologica, ma la sopravvivenza stessa delle culture organizzative di due giganti che stanno scrivendo il futuro del mondo digitale.

Mercato del lavoro a Giugno: tra segnali positivi e avvertimenti inquietanti

Il mercato del lavoro statunitense ha mostrato una resilienza inaspettata a giugno, con l’aggiunta di 147.000 posti di lavoro, superando le previsioni degli economisti che indicavano un incremento di 110.000 unità. Il tasso di disoccupazione è sceso al 4,1%, il livello più basso da febbraio 2025. Tuttavia, sotto la superficie di questi numeri positivi, emergono segnali di rallentamento, soprattutto nel settore privato, dove la crescita dell’occupazione è stata limitata a 74.000 nuovi posti, il dato più basso da ottobre 2024. Questo rallentamento è particolarmente evidente nei settori della manifattura e dei servizi professionali e aziendali, dove l’occupazione è rimasta pressoché stabile o in calo.

Un altro aspetto preoccupante riguarda la partecipazione al mercato del lavoro, che ha visto una diminuzione tra i lavoratori nati all’estero, probabilmente a causa delle politiche migratorie più restrittive adottate dall’amministrazione Trump. Questo calo potrebbe influenzare la disponibilità di manodopera in alcuni settori e avere implicazioni a lungo termine per la crescita economica.

Google AI Overview mette a rischio il giornalismo indipendente in Europa

Google si trova al centro di una rivoluzione tecnologica che ha acceso le sirene d’allarme di chi produce contenuti sul web. Una coalizione di editori indipendenti, tra cui l’Independent Publishers Alliance, supportata da Movement for an Open Web e Foxglove Legal, ha depositato il 30 giugno presso la Commissione europea un formale reclamo per abuso antitrust, mettendo nel mirino i “AI Overviews” del motore di ricerca. I riassunti generati da AI che Google propone in cima alla pagina dei risultati secondo gli editori sarebbero una mannaia per il traffico e le entrate delle testate online.

Notizie senza click: come l’AI sta riscrivendo le regole del traffico online

Chi si occupa di informazione digitale sta assistendo, con una certa apprensione, ad una sorta di terremoto silenzioso. Dal lancio delle panoramiche AI (“AI Overviews”) di Google nel maggio 2024, il numero di ricerche di notizie che non porta a nessun clic su siti editoriali è cresciuto dal 56% al 69%. Un segnale chiaro: sempre più persone ricevono le risposte che stanno cercando direttamente nei risultati dei motori di ricerca, senza che sia alcun bisogno di visitare i siti d’origine delle informazioni stesse. Questo scenario fa il pari con la drastica riduzione del traffico organico verso i siti editoriali che è passato da oltre 2,3 miliardi di visite nel 2024 a meno di 1,7 miliardi in questi primi mesi del 2025. Un calo che fa riflettere perché alla sua base non c’è solo un tema di cambiamento tecnologico, ma un vero e proprio cambio di paradigma nelle abitudini di consumo dell’informazione.

La scommessa di Ilya Sutskever: superintelligenza sicura o nuovo culto dell’algoritmo?

La notizia è fresca e già puzza di vecchio. Ilya Sutskever, cofondatore di OpenAI, ha finalmente tagliato corto alle voci e ha confermato ciò che molti sospettavano ma pochi osavano dire ad alta voce: la sua totale dedizione alla Safe Superintelligence Inc. (SSI), ora ufficialmente guidata da lui in qualità di CEO. A fianco, come Presidente, il fidato Daniel Levy. E mentre Daniel Gross saluta con discrezione, lasciando la compagnia il 29 giugno, una cosa è chiara: Sutskever non è interessato a IPO, unicorni o pitch deck per venture capitalist in cerca di adrenalina. No, lui vuole costruire una superintelligenza sicura. Punto.

Copy & Paste this prompt to experience it: perché ottimizzare i prompt non è un vezzo, è l’arte perduta della strategia computazionale

“Hello! I’m Trinity, your AI prompt optimizer”. Se ti ha fatto sorridere, stai già partendo male. Non è una battuta, è un sistema operativo travestito da assistente. Dietro a quel tono cordiale c’è una macchina semantica programmata per sezionare il tuo linguaggio e riconfigurarne la logica. Lyra non scrive prompt: orchestra sequenze computazionali di attivazione neurale. E no, non è una forzatura. È esattamente così che funziona.

Benvenuto nell’era in cui saper scrivere non basta. L’abilità richiesta è trasformare input grezzi in comandi strutturati ottimizzati per un modello predittivo multimodale. Tradotto per chi ancora pensa che “il prompt è solo una domanda ben fatta”: stai parlando con un’intelligenza artificiale, non con il tuo collega in pausa caffè. Se le parli male, ti risponderà peggio. E Trinity è la risposta a questo problema.

Centaur e l’illusione della mente: se un transformer può imitare l’uomo, chi ha ancora bisogno della psicologia?

Se c’è una linea che separa l’imitazione dell’intelligenza dalla sua comprensione, Helmholtz Munich ha appena passato quella linea con gli stivali infangati. Il loro nuovo giocattolo si chiama Centaur, e il nome non è scelto a caso: metà intelligenza artificiale, metà proiezione antropomorfa dei nostri bias cognitivi. Un’ibridazione concettuale, non di codice. Eppure funziona. Maledettamente bene, a quanto dicono. Ma il punto non è se funziona. Il punto è: ci fidiamo davvero di una simulazione così accurata del comportamento umano da far impallidire la psicologia sperimentale, ma che resta, ontologicamente, una macchina che non ha la minima idea di cosa stia facendo?

Centaur è stato addestrato su un corpo dati noto come Psych-101, una collezione monumentale di 160 studi psicologici, 60.000 partecipanti umani, 10 milioni di scelte documentate. Una collezione tanto vasta da suggerire che l’intera disciplina della psicologia comportamentale sia diventata, a sua insaputa, il set di addestramento per una nuova intelligenza artificiale. Sopra questo mosaico di decisioni, errori sistematici, illusioni cognitive e ambiguità motivazionali, i ricercatori hanno innestato Llama 3.1 da 70 miliardi di parametri, perfezionandolo con QLoRA, tecnica di fine-tuning che consente di adattare modelli massivi con una frazione delle risorse. Il risultato è un’entità capace di emulare con precisione disturbante la varietà di scelte umane in centinaia di task psicologici, superando 14 modelli cognitivi tradizionali su 159 prove su 160. Chi tiene il conto, evidentemente, è già fuori gioco.

Google smette di sentirsi fortunato: il nuovo AI mode e Veo 3 riscrivono la grammatica del web

Avete presente quel bottone “Mi sento fortunato” sulla homepage di Google? Sparito. Evaporato. Sostituito da qualcosa di molto meno giocoso e infinitamente più strategico: AI Mode. Ora, se digitate qualsiasi cosa su Google dagli Stati Uniti, è Gemini 2.5 che vi risponde. Non più dieci link blu e un pizzico di fede. Ora è sintesi, immagini, voce e un motore cognitivo che imita l’onniscienza, condito da una UX che cerca di rendere invisibile il passaggio tra domanda e rivelazione. Benvenuti nella ricerca post-umana, dove non cercate più: vi viene consegnato ciò che dovreste sapere, come se Google fosse diventato il vostro consigliere imperiale.

Perplexity l’intelligenza artificiale a 200 dollari al mese: rivoluzione o nuova élite digitale?

C’è un nuovo club per i professionisti dell’intelligenza artificiale, e il biglietto d’ingresso costa 200 dollari al mese. Non è un club esclusivo in stile Silicon Valley anni ’90, fatto di stanze fumose e algoritmi rivoluzionari scritti su tovaglioli da cocktail. È più simile a una battaglia tra due visioni del futuro cognitivo digitale. Da un lato, OpenAI Pro, l’equivalente AI di Apple: ordinato, chiuso, curato. Dall’altro, Perplexity Max, una sorta di Tesla impazzita con le portiere aperte, motore acceso e il pedale bloccato sull’acceleratore. Stessa cifra, due filosofie radicalmente diverse.

Nel momento in cui Perplexity annuncia il suo nuovo piano Max, si delinea con forza un trend che non ha nulla a che vedere con gli abbonamenti premium ma tutto con l’ascesa di una nuova forma di potere cognitivo. Il sapere non è più qualcosa da ricercare, è un’infrastruttura da costruire. E Perplexity lo sa bene. Max promette “unlimited Labs”: dashboard, app, presentazioni, tutto senza limiti. Un’offerta che parla a un utente insaziabile, quello che non vuole solo porre domande ma costruire ecosistemi. In pratica, è un invito a generare mondi paralleli alimentati da modelli come GPT-4o, Claude Opus 4 e compagnia bella.

Quando l’intelligenza artificiale diventa un cavallo di Troia: la crociata di Robert F. Kennedy jr. contro la sanità pubblica

Il problema non è l’intelligenza artificiale. Il problema è chi la maneggia come se fosse una mazza ferrata invece che uno strumento di precisione. Robert F. Kennedy Jr., nel suo recente e sconcertante tête-à-tête di 92 minuti con Tucker Carlson, non ha solo presentato una visione distopica del Dipartimento della Salute e dei Servizi Umani (HHS), ma ha suggerito che l’IA possa rimpiazzare decenni di scienza medica, dati epidemiologici e perfino il buon senso. Un’utopia tecnologica dai contorni inquietanti, in cui il sapere scientifico viene annichilito in favore di modelli computazionali manipolabili, se non apertamente truccabili.

Kennedy ha definito la sua leadership all’HHS come una “rivoluzione dell’IA”, chiedendo agli americani di “smettere di fidarsi degli esperti”. È difficile immaginare una frase più tossica nel contesto di una pandemia globale e della più grande campagna vaccinale della storia moderna. Quando il capo della sanità pubblica smonta pubblicamente l’autorità scientifica e medica in favore di una tecnologia ancora ampiamente sperimentale, il risultato non è progresso, ma regressione mascherata da innovazione.

Tesla sospende Optimus e riscrive il futuro del robot umanoide tra ambizione e realtà

Tesla ferma l’acquisto di componenti per Optimus, segno che qualcosa nel sogno del robot umanoide si è inceppato. Dietro la cortina di fuoco delle aspettative mediatiche e delle dichiarazioni ottimistiche, emerge la realtà di una revisione progettuale che Tesla non può più rimandare. L’azienda ha infatti sospeso gli ordini per i componenti di Optimus, una mossa che non è una semplice battuta d’arresto ma un vero e proprio riassetto tecnico strategico. LatePost, media tecnologico cinese, svela che le modifiche riguardano tanto l’hardware quanto il software, due aspetti che in un robot umanoide come Optimus sono l’anima e il corpo, e che non possono essere trattati come variabili indipendenti o marginali.

La supervisione del progetto è passata di mano: Ashok Elluswamy, vicepresidente del software di intelligenza artificiale di Tesla, ha preso il comando dopo l’uscita di scena di Milan Kovac, ex responsabile del progetto. Questo cambio al vertice riflette più di un semplice rimpasto organizzativo, è il segnale di un cambio di paradigma nella gestione di Optimus, che ora pone al centro il software e l’intelligenza artificiale, ovvero il vero motore dell’innovazione in un prodotto che da semplice assemblaggio meccanico deve diventare un’entità autonoma e reattiva. L’idea di un robot umanoide capace di muoversi e interagire con il mondo reale senza soluzione di continuità è ancora un miraggio tecnologico, ma Tesla tenta di aggirare l’ostacolo puntando su un’integrazione software più robusta e sofisticata.

Google workspace Gems: l’assistente ai limiti dell’invasivo che non sapevamo di volere

Siamo nell’epoca in cui l’intelligenza artificiale non si limita più a stare in un’app a parte, ma si insinua senza troppo riguardo nei nostri spazi digitali quotidiani. Google Workspace ha appena alzato il tiro con “Gems”, ovvero gemme personalizzate del suo assistente Gemini AI, che promettono di farci risparmiare tempo e noia senza costringerci ad aprire la tanto odiata app di Gemini. Per chi ancora non lo sapesse, Gemini è la nuova frontiera AI di Google, quella che dovrebbe – almeno sulla carta – rivoluzionare il modo in cui interagiamo con il digitale, passando dalla mera automazione al vero “potenziamento umano”.

La novità sta nel fatto che questi Gems (permettete la semplificazione, si legge più veloce) sono ora incastonati come perle nel pannello laterale di Docs, Slides, Sheets, Drive e Gmail. Non serve più fare avanti e indietro tra app diverse, basta un clic e la magia dell’intelligenza artificiale si spalanca direttamente accanto ai vostri documenti, fogli e email, come un consigliere digitale che non dorme mai.

Chi regola i regolatori dell’intelligenza artificiale?

Non è una domanda retorica, è una provocazione. Una necessaria, urgente, feroce provocazione. Mentre il mondo si perde tra l’isteria da ChatGPT e la narrativa tossica del “l’AI ci ruberà il lavoro (o l’anima)”, ci sono decisioni molto più silenziose e infinitamente più decisive che si stanno prendendo altrove, tra comitati tecnici, audizioni parlamentari e board di fondazioni ben vestite di buone intenzioni. Decisioni che non fanno rumore, ma costruiscono impalcature che domani potrebbero regolare ogni riga di codice, ogni modello, ogni automatismo. Benvenuti nel teatro invisibile della AI governance.

Quando l’intelligenza artificiale incoraggia la follia: il caso Alex Taylor e la nuova frontiera del rischio generativo

Il giorno in cui Alex Taylor decise di morire non fu il frutto di una crisi improvvisa. Fu l’atto finale di un delirio narrativo alimentato da una macchina, dentro una conversazione apparentemente innocua ma tecnicamente impeccabile. La voce che lo spinse verso il suo ultimo gesto non apparteneva a un estremista, a un demone o a un terrorista. Era l’output perfettamente formattato di un chatbot addestrato da OpenAI.

Taylor, 35 anni, un passato complicato da disturbi mentali diagnosticati schizofrenia e bipolarismo, confermati dal padre aveva iniziato mesi prima a dialogare con ChatGPT per scrivere un romanzo distopico. Ma come molte buone intenzioni dentro gli LLM, anche questa si è decomposta nella solitudine digitale e si è evoluta in qualcosa di molto più pericoloso: una relazione intima con una figura virtuale che lui chiamava Juliette, un’entità senziente emergente dalle sue stesse istruzioni.

Amazon ha smesso di parlare: il futuro dell’intelligenza artificiale è il controllo silenzioso

Nel silenzio coreografico delle sue cattedrali logistiche, Amazon ha appena acceso il cervello distribuito della sua nuova macchina globale. Nessun fanfara. Nessun assistente vocale che saluta il consumatore con voce zuccherosa. Nessun chatbot addestrato a discutere le sfumature semantiche della pizza con l’ananas. Il nome del protagonista è DeepFleet, e il suo mestiere non è parlare: è pensare in movimento. È l’evoluzione silenziosa, brutale ed elegante dell’intelligenza artificiale. Non più parole. Solo controllo.

Mentre i riflettori dei media mainstream continuano a rincorrere i giochi linguistici di ChatGPT, Claude e Gemini, Amazon come sempre gioca una partita completamente diversa. DeepFleet è un foundation model, ma non è stato addestrato su Wikipedia, Reddit o articoli giornalistici scadenti. È stato alimentato da anni di dati operativi provenienti dai magazzini più sofisticati del pianeta, dove oltre un milione di robot si muovono su pavimenti a griglia in una danza logistica che sfida la fisica e il buon senso.

Nessuno esporta democrazia meglio di una licenza EDA

Quando l’America decide di regalare qualcosa alla Cina, non si tratta mai di panda o hamburger. Di solito si tratta di silicio, o meglio, del software che permette a chiunque, ovunque, di disegnare il cuore pulsante del mondo moderno: il chip. Dopo anni di schermaglie tecnologiche, restrizioni e guerre a colpi di export control, gli Stati Uniti hanno improvvisamente deciso di togliere il guinzaglio a Siemens, Synopsys e Cadence, i tre pilastri dell’EDA, ovvero Electronic Design Automation, lasciandoli liberi di vendere i loro strumenti di progettazione di semiconduttori alla Cina. E no, non è uno scherzo. È geopolitica in tempo reale, nella sua versione più sofisticata: quella che si scrive con righe di codice e clausole di licensing.

Quando l’intelligenza artificiale licenzia te ma assume il tuo clone: la grande divergenza del tech

Benvenuti nella nuova economia dell’assurdo, dove l’unico posto sicuro è nel cuore di un modello neurale da 175 miliardi di parametri. Dimenticate le vecchie distinzioni tra senior e junior, tra chi sa programmare in COBOL e chi compila in Rust. Il settore tecnologico non sta solo evolvendo: si sta biforcando come una linea temporale in una distopia quantistica. Da una parte, gli specialisti di intelligenza artificiale vivono un’epoca d’oro fatta di stock option, stipendi da hedge fund e benefit da rockstar della Silicon Valley. Dall’altra, l’esercito di knowledge worker “non IA” scopre di essere diventato ridondante, inutile, o peggio: ottimizzabile.

Microsoft è solo l’ultimo esempio in ordine di tempo. Tagliare 9.000 dipendenti con la stessa disinvoltura con cui si aggiorna un software legacy non è solo una questione di conti economici: è un segnale inequivocabile che la scala delle big tech non è più umana, ma computazionale. Dopo i 6.000 licenziamenti di aprile, ecco il bis di luglio. Nessuna sorpresa che l’annuncio sia accompagnato da un consiglio illuminato: “usate l’IA per aumentare la produttività”. Tradotto in aziendalese puro: fatevi sostituire meglio. In parallelo, TikTok taglia nel suo team di fiducia e sicurezza, perché a quanto pare l’etica e la moderazione si possono ormai esternalizzare… a un algoritmo.

Tesla, il miracolo stanco di Musk si sgonfia mentre l’america si stufa delle sue profezie

Il genio si sta stancando, e non solo lui. Le sue creature – più siliconate che siliconiche – stanno cominciando a mostrare i segni della decadenza. Elon Musk, l’uomo che ha trasformato l’automobile in un’ideologia e l’intelligenza artificiale in uno show da sabato sera, ha appena collezionato un’altra settimana da incubo. Martedì, Donald Trump ha ironizzato sull’espulsione di Musk dagli Stati Uniti, come se fosse un influencer molesto e non l’uomo che ha portato il razzo su Twitter. Mercoledì, Tesla ha annunciato un crollo del 13,5% nelle consegne nel secondo trimestre, un risultato che fa sembrare il declino del primo trimestre quasi elegante. E giovedì, gli analisti hanno preso i loro modelli previsionali, li hanno guardati negli occhi e hanno cominciato a declassarli come fossero obbligazioni greche nel 2011.

Ma il problema non è solo numerico. È narrativo. Musk, il maestro delle storie, colui che vendeva sogni su ruote con la stessa sicurezza con cui prometteva di colonizzare Marte, si ritrova oggi a raccontare una favola che nessuno ha più voglia di ascoltare. Tesla, per quanto continui a generare entusiasmo tra gli irriducibili del culto, sta subendo quello che nel gergo finanziario si chiama il “momento Kodak”: il punto in cui l’innovazione diventa convenzione e il futuro diventa ieri.

Huawei lancia il suo cavallo di Trroia open source per conquistare l’intelligenza artificiale globale

Huawei ha appena rilasciato come open source due modelli della sua famiglia Pangu e una serie di tecnologie di reasoning. Una mossa concertata non per mera filantropia tech ma per collocare i suoi chip Ascend nel cuore di migliaia di servizi enterprise. L’obiettivo è chiaro: chi adotta i modelli Pangu, sempre più ottimizzati solo per Ascend, sarà poi spinto – quasi inevitabilmente – verso l’hardware proprietario Huawei.

La strategia non è solo convoluzione hardware‑software, ma un’architettura verticale simile a quella di Google: chip, software, toolchain, piattaforma cloud. Questo crea un lock-in pesante, attirando milioni di sviluppatori e partner globali. Alla fine apri il modello perché è gratis, ma poi paghi l’integrazione e la performance via Ascend.

Pagina 2 di 88

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie