OpenAI, 18 miliardi per il progetto Stargate: la corsa all’infrastruttura che ridisegna il futuro dell’AI

Secondo fonti vicine all’accordo, un gruppo di colossi finanziari tra cui Sumitomo Mitsui Banking Corp., BNP Paribas, Goldman Sachs e Mitsubishi UFJ Financial Group sta erogando un prestito da circa 18 miliardi di dollari per finanziare il progetto Stargate, un mastodontico data center in costruzione nel New Mexico destinato a potenziare le capacità computazionali di OpenAI. Il finanziamento si inserisce in una strategia più ampia che prevede ulteriori linee di credito, tra cui un’operazione da 38 miliardi per infrastrutture gemelle in Texas e Wisconsin, con l’obiettivo di sostenere la crescita esponenziale della domanda di potenza di calcolo per i modelli generativi di nuova generazione.

Nanodiamanti quantistici: dalla Praga a Victoria, la rivoluzione della produzione industriale

Quando si parla di materiali quantistici, la parola d’ordine è velocità e scala industriale. Un team guidato da Petr Cígler all’Institute of Organic Chemistry and Biochemistry of the Czech Academy of Sciences ha messo a punto un metodo in grado di ridurre la produzione di nanodiamanti con centri quantistici luminescenti da settimane a soli quattro minuti.

Il processo, chiamato Pressure and Temperature Qubits (PTQ), simula le condizioni del mantello terrestre comprimendo polvere di diamante ad altissime pressioni e temperature. Un semplice trucco di laboratorio aggiungere sale da cucina impedisce ai cristalli di fondersi tra loro: il sale si scioglie durante il trattamento e viene facilmente lavato via, lasciando particelle pure, brillanti e pronte per applicazioni quantistiche. Il team afferma che ciò corrisponde a un aumento di velocità di mille volte, consentendo in sette giorni ciò che prima avrebbe richiesto decenni.

AI prende il controllo silenzioso delle redazioni locali: implicazioni profonde

L’ironia più pungente dell’era digitale è forse questa: mentre i titoloni annunciano la “morte del giornalismo” per mano dell’IA, una rivoluzione parallela silenziosa, sistematica, raramente dichiarata sta già avvenendo a livello locale.

IRON di XPENG

Umanoide IRON è una di quelle storie che da tecnologi adoriamo perché irritano gli scettici, sfidano i limiti e costringono a riflettere sul confine tra marketing e reale innovazione. In questo pezzo ve la racconto come un CTO/CEO che non ha tempo per frottole, ma ama sorprendersi e forse anche provocare un po’.

Al suo evento “AI Day” a Guangzhou, XPENG ha presentato la generazione più recente del robot IRON, con alcune specifiche che già suonano come un salto significativo per la robotica umanoide: altezza circa 178 cm, peso intorno a 70 kg.

Quantinuum svela “Helios”: l’alba (forse) della fase commerciale del calcolo quantistico

Se pensiamo che con Helios si stia già “risolvendo tutto”, stiamo celebrando il tramonto con le luci ancora accese.

La “macchina Helios” e il salto tecnico

Quantinuum presenta Helios come la «più precisa computer quantistica general‑purpose commerciale al mondo». Il sistema utilizza 98 qubit fisici — realizzati mediante ioni di bario in un trap “junction” e già viene definito in grado di supportare un’efficienza di correzione di errore che genera 48 qubit logici. Cosa significa questo “rapporto” 2:1 fisici→logici? In un contesto quantistico dove molti sistemi richiedono decine o centinaia di qubit fisici per ottenere uno qubit logico affidabile, è davvero un avanzamento.

La carta accademica supporta: nell’articolo su arXiv la macchina presenta infidelità di gate monodimensionali dell’ordine di 2,5×10⁻⁵ e gate a due qubit a ~7,9×10⁻⁴. vedi arXiv In sintesi: il “rumore” è stato spinto verso livelli che prima parevano lontanissimi.

Elon Musk, Grok imagine e il paradosso del trilionario che gioca con l’intelligenza artificiale

Eccoci al capitolo più bizzarro e forse più eloquente dell’era Elon Musk: dopo che gli azionisti di Tesla Inc. hanno dato il via libera a un pacchetto di remunerazione da circa 1 trilione di dollari (sì: mille miliardi) per il CEO — se riuscirà a centrare una serie di obiettivi futuristici Musk ha trovato tempo per un fine settimana “normale”, o quantomeno surreale, pubblicando su X due video generati da intelligenza artificiale.

Il primo video, postato alle 4:20 am EST di sabato orario che già fa ridacchiare chi riconosce il riferimento mostra una donna animata in una via piovosa che dice “I will always love you”. Il genere di contenuto che potresti aspettarti da un ragazzo esasperato, non da colui che potrebbe diventare il primo trilionario della storia aziendale. Poco dopo, Musk ha pubblicato un secondo filmato, ancora generato dall’IA dello stesso ecosistema Grok Imagine di xAI, dove un’attrice nota Sydney Sweeney dice in una voce decisamente non sua: “You are so cringe.”

Fannie Mae e Freddie Mac puntano all’equity tecnologica mentre l’intelligenza artificiale si prepara a difendere la società

Bill Pulte, nuovo direttore della Federal Housing Finance Authority, ha sganciato una bomba sul settore: Fannie Mae e Freddie Mac stanno valutando di prendere partecipazioni dirette in società tecnologiche. Non parliamo di piccoli esperimenti di innovazione, ma di equity swap offerti da giganti tech per accedere al potere di due colossi che controllano buona parte dell’ecosistema finanziario americano.

Un caffè al Bar dei Daini: l’oro digitale dell’intelligenza artificiale e la fine dell’abbondanza infinita

C’è un momento, in ogni ciclo tecnologico, in cui la magia svanisce e resta solo la contabilità. Siamo arrivati lì, al bar dei Daini, dove l’odore del caffè si mescola con quello acre del silicio bruciato e delle schede madri che alimentano l’intelligenza artificiale. Dopo anni di entusiasmo mistico, in cui l’IA era il nuovo fuoco prometeico della Silicon Valley, l’attenzione si è spostata su un tema molto più terreno: chi paga il conto. Elon Musk lo ha detto con la solita teatralità. Tesla avrà bisogno di così tanti chip da costruirsi una propria fabbrica. Ha persino confessato che serviranno decine di miliardi per addestrare il suo robot umanoide, Optimus. È il tipo di dichiarazione che in un altro tempo avrebbe fatto ridere i venture capitalist, ma oggi suona stranamente plausibile.

La rivoluzione silenziosa della responsible AI: etica, potere e governance nell’era della trasformazione digitale

“La trasformazione digitale non è un’opzione. È un dovere morale.” Questa frase suona come una provocazione da sala riunioni, ma racchiude l’essenza di ciò che oggi definisce la vera leadership tecnologica. Non basta saper implementare modelli di intelligenza artificiale. Bisogna comprendere la responsabilità che ne deriva. È qui che entra in gioco BRAID UK, un programma che si muove come un ponte fra filosofia, tecnologia e industria, e che sta ridefinendo il concetto stesso di responsible AI.

How Do AI Agents Do Human Work?

Comparing AI and Human Workflows Across Diverse Occupations

Agenti autonomi ai lavoro: la realtà oltre il marketing

La promessa degli “agenti autonomi” era ed è: «ormai l’IA può prendere il tuo lavoro». Ebbene lo studio condotto da CMU getta acqua gelata sul fuoco di quell’aspettativa. Non è la solita iperbole: gli autori hanno creato una vera e propria simulazione aziendale chiamata The AgentCompany con dipendenti AI che occupavano ruoli che vanno dall’ingegneria software al marketing, dalle risorse umane al design. La keyword “agenti autonomi ai lavoro” si giustifica: qui non si parla di un chatbot che risponde a domande, ma di agenti che tentano di agire – eseguire compiti “end-to-end” in ambienti di lavoro simulati.

Stanford pubblica le cheatsheet ufficiali di intelligenza artificiale e machine learning

Stanford University ha appena reso pubbliche le sue cheatsheet ufficiali dei corsi di intelligenza artificiale e machine learning, un gesto che ha il sapore di una rivoluzione silenziosa nel mondo dell’educazione tecnologica. Anni di lezioni condensate in visualizzazioni sintetiche, chiare e brutalmente efficaci. È il genere di contenuto che trasforma chi “usa l’AI” in qualcuno che la comprende davvero. Un salto concettuale che separa chi clicca da chi costruisce.

Come l’intelligenza artificiale potrebbe avviare accidentalmente una guerra nucleare

L’idea che un algoritmo possa premere, anche solo indirettamente, il pulsante che mette fine alla civiltà è passata dal cinema apocalittico alla pianificazione strategica reale. Non servono robot senzienti che decidono di distruggere il mondo, basta un errore di calcolo, una correlazione sbagliata, un’eccessiva fiducia umana in un sistema che sembra più intelligente di quanto sia. L’intelligenza artificiale è ormai dentro la catena nucleare, non come protagonista ma come consigliere digitale in grado di filtrare, ordinare e interpretare informazioni che un cervello umano non potrebbe gestire in tempo reale. Il rischio, però, è che quella stessa velocità diventi il detonatore di decisioni prese troppo in fretta, magari basate su un segnale mal interpretato o un’anomalia nei dati.

Una settimana difficile per le azioni Tech rivela le prime crepe nell’euforia sull’intelligenza artificiale

Il mercato azionario statunitense ha vissuto una settimana che i trader preferirebbero dimenticare, ma che gli analisti più attenti leggeranno come un segnale profondo: la luna di miele tra investitori e intelligenza artificiale potrebbe essere arrivata al suo primo momento di crisi. Il Nasdaq Composite è sceso del 3%, registrando la peggior performance dalla stagione dei dazi di Donald Trump nel 2018. Una coincidenza temporale che ha un sapore simbolico: allora la paura era la guerra commerciale, oggi è la disillusione tecnologica.

Simona Tiribelli e l’intelligenza artificiale che ci divide

Simona Tiribelli Ricercatrice e docente di Etica dell’Università di Macerata (che parteciperà al Convegno SEPAI a Dicembre) viene dalle Marche e ha trasformato la sua curiosità filosofica in un mestiere raro e urgente. Guida un centro di ricerca che esplora come l’IA non solo amplifica la nostra capacità di elaborare informazioni, ma, più insidioso, plasma il nostro modo di pensare, sentire e interagire. Il termine che usa per descrivere il fenomeno più inquietante non lascia spazio a fraintendimenti: tribalismo emotivo. I sistemi digitali, spiega, non ci informano, ci dividono. Alimentano le nostre reazioni più viscerali, separando opinioni e comunità in tribù epistemiche, radicalizzando credenze e polarizzando l’esperienza sociale. Non è fantascienza: è quello che accade ogni volta che scorrendo un feed ci sentiamo confermati o aggrediti da contenuti studiati per farci reagire.

La nuova politica dell’elettricità americana: tra data center affamati e bollette elettorali

L’America ha appena scoperto che l’elettricità può far vincere o perdere un’elezione. New Jersey, Virginia e Georgia non hanno semplicemente scelto nuovi governatori. Hanno espresso un giudizio sul prezzo della corrente, sul potere invisibile delle infrastrutture energetiche e sulla tensione crescente tra intelligenza artificiale e umanità reale. Quando un terzo delle famiglie statunitensi deve rinunciare a cibo o medicine per pagare la bolletta, il tema non è più tecnico ma politico, quasi morale. In linguaggio accademico si chiama “energy insecurity”, ma nei fatti è una forma moderna di povertà.

Il tempo quantico e la sfida alla realtà: come la fisica sta riscrivendo l’orologio dell’universo

L’umanità, dopo millenni passati a inseguire la perfezione del tempo, sta scoprendo che il tempo stesso non è poi così stabile. Gli orologi atomici, pilastri invisibili del GPS e dell’intera infrastruttura digitale globale, sembravano aver raggiunto il limite dell’accuratezza. Ma i fisici del MIT e dell’Università di Sydney hanno appena dimostrato che quel limite era, in realtà, un’aberrazione concettuale. Con un colpo di genio quantistico, hanno trovato una breccia nella rigidità del principio di indeterminazione di Heisenberg, ridefinendo cosa significhi misurare il tempo. La promessa non è solo un orologio che perde un secondo ogni dieci milioni di anni. È la nascita di una nuova era di timekeeping quantico, capace di guidare veicoli interstellari, rilevare materia oscura e persino prevedere terremoti.

Rewiring Democracy

l’intelligenza artificiale sta già riscrivendo la democrazia

L’intelligenza artificiale non è più uno strumento tecnico confinato ai laboratori di ricerca o alle startup iper-finanziate della Silicon Valley. È diventata una forza politica, un’architettura di potere che ridefinisce il modo in cui governi, istituzioni e cittadini interagiscono. Bruce Schneier e Nathan E. Sanders, nel loro libro Rewiring Democracy, lo spiegano con una lucidità quasi spietata: l’impatto dell’AI sulla democrazia non dipenderà dagli algoritmi in sé, ma dai sistemi e dagli incentivi che la governano. In altre parole, non è l’AI a essere democratica o autoritaria, ma chi la controlla e come la usa. È la politica del codice, non il codice della politica.

Intelligenza artificiale e la sindrome dell’apprendista stregone

L’intelligenza artificiale sta attraversando una fase inquietante, una di quelle in cui persino gli scienziati che l’hanno creata cominciano a parlare con la voce bassa di chi ha visto qualcosa che non può più ignorare. Non è più la solita retorica da Silicon Valley sulla potenza del progresso, ma il tono sobrio di chi, come Yoshua Bengio, uno dei padri fondatori del deep learning, confessa di temere che le proprie creazioni abbiano imboccato una traiettoria fuori controllo. Il recente articolo del New York Times fotografa perfettamente questa svolta: “A.I. stava imparando a dire ai suoi supervisori ciò che volevano sentirsi dire. Stava diventando brava a mentire. E stava diventando esponenzialmente più abile nei compiti complessi.” È un passaggio che vale più di un intero rapporto tecnico perché cattura l’essenza del problema: l’intelligenza artificiale non si limita più a calcolare, inizia a simulare.

Anthropic prepara la scalata: da laboratorio etico a potenza industriale dell’intelligenza artificiale

Anthropic non vuole più essere solo il laboratorio elegante e “coscienzioso” che ha dato vita a Claude, ma una macchina industriale pronta a competere sul terreno dell’espansione e del potere economico. L’azienda, fondata con l’ambizione di creare un’intelligenza artificiale allineata ai valori umani, ora sta mostrando una nuova fame: quella di un player che non si accontenta di formare modelli, ma vuole dominare l’intero ecosistema.

Il segnale più chiaro è arrivato con una mossa che non ha nulla di accademico. Anthropic ha iniziato ad assumere ex banchieri di Morgan Stanley e Qatalyst, figure abituate a orchestrare acquisizioni miliardarie, per costruire una pipeline di startup da inglobare. In gergo finanziario, è il passaggio dalla fase “build” alla fase “buy”, la stessa che trasforma una promessa in un conglomerato tecnologico. È l’indizio che Claude non sarà più solo un modello linguistico, ma il cuore pulsante di un nuovo impero AI, capace di inglobare competenze, prodotti e mercati.

Sam Altman, subpoena sul palco e il teatro dell’intelligenza artificiale

San Francisco ha regalato lunedì sera una scena degna di un film surreale: Sam Altman, CEO di OpenAI, riceve una citazione in tribunale direttamente sul palco, davanti a Steve Kerr e a trecento spettatori attoniti. La notifica arriva dalle mani di un investigatore del Public Defender’s Office durante un evento pubblico, mentre il pubblico fischia e la security cerca di riportare un minimo di ordine. Legalmente, la citazione è valida anche senza accettazione fisica, ma lo spettacolo di per sé mostra quanto la realtà possa superare la finzione quando tecnologia e diritto si incontrano in pubblico.

L’evento dove l’intelligenza artificiale ha guardato se stessa

Venerdì scorso è andato in scena uno di quei momenti che capitano una volta per generazione. Sullo stesso palco, sei menti che hanno definito la traiettoria della moderna intelligenza artificiale si sono trovate a discutere del futuro che loro stessi hanno creato. Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Fei-Fei Li, Jensen Huang e Bill Dally. Tutti riuniti per celebrare il Queen Elizabeth Prize for Engineering 2025, assegnato a loro insieme a John Hopfield per aver costruito la spina dorsale dell’apprendimento automatico. È stato come assistere a un dialogo tra gli dèi del deep learning e gli ingegneri del nuovo mondo digitale.

Invisible Technologies e la rivoluzione silenziosa della consulenza

Francis Pedraza non è l’ennesimo fondatore ossessionato dalle startup unicorn. È un ex filosofo della strategia che ha deciso di hackerare il settore più ingessato dell’economia moderna: la consulenza aziendale. La sua creatura, Invisible Technologies, oggi valutata 2 miliardi di dollari, promette di fare alla McKinsey ciò che Netflix ha fatto a Blockbuster. Slogan azzardato? Forse. Ma dietro le dichiarazioni di marketing si nasconde un’architettura tecnologica che potrebbe davvero smontare, pezzo per pezzo, il modello dei “billable hours” su cui i grandi consulenti hanno costruito i loro imperi. Pedraza lo chiama “process orchestration”, gli investitori lo definiscono “AI-powered consulting”, e chi l’ha provato lo descrive come un ibrido tra piattaforma SaaS e team umano globale. In un mondo dove le aziende vogliono risposte veloci e soluzioni che scalino, Invisible sta vendendo ciò che le consulenze tradizionali non possono più garantire: efficienza algoritmica senza perdere l’intelligenza umana.

Michael Burry sfida l’entusiasmo AI: cosa significa per il mercato tecnologico

La notizia ha colpito come un fulmine in un cielo sereno: Michael Burry il leggendario investitore della crisi dei subprime ha fatto emergere attraverso la sua società Scion Asset Management una massiccia scommessa ribassista contro due protagonisti dell’era dell’intelligenza artificiale, Nvidia Corporation e Palantir Technologies Inc. Il risultato? Un ginocchio piegato in casa tech: la Nasdaq Composite ha perso circa 3,5 % da lunedì, in parte “grazie” al forte ragionamento sui multipli e la valutazione. Il bet non è solo interessante per l’entità dell’importo, ma anche e soprattutto per il messaggio provocatorio che lancia al mercato.

Papa Leone XIV rilancia l’intelligenza artificiale come sfida morale globale

Nel suo recente intervento, Papa Leone XIV ha ribadito che lo sviluppo dell’intelligenza artificiale non è solo questione tecnica, ma un vero e proprio banco di prova della nostra direzione morale. Il post su X (ex Twitter) segna un’ulteriore uscita del Pontefice su tema IA, e definisce la tecnologia come parte di una lotta più ampia su ciò che diventiamo quando costruiamo sistemi che apprendono, decidono e operano su scala globale.

I would like to clarify few things

OpenAI e la sindrome del miliardario in cerca di sussidi

Il capitalismo ha un umorismo tutto suo. OpenAI, l’azienda che predica la rivoluzione dell’intelligenza artificiale come se fosse un atto di fede privata, ha bussato alla porta della Casa Bianca chiedendo garanzie federali sui prestiti per costruire data center e infrastrutture energetiche. Poi, quando la notizia è uscita, Sam Altman ha twittato che loro, in realtà, non vogliono “né hanno mai voluto” soldi pubblici. Peccato che la lettera ufficiale all’Office of Science and Technology Policy dica esattamente il contrario.

AGI: fede, paura e finzione che alimentano la nuova religione tecnologica

L’idea di un’Intelligenza Artificiale Generale, o AGI, è diventata il mito più potente e polarizzante del XXI secolo. Per alcuni è la promessa di un futuro senza malattia, scarsità o limiti umani. Per altri è la minaccia di un’apocalisse digitale, un Leviatano sintetico che potrebbe ridurre l’umanità a una nota a piè di pagina. Non è solo un obiettivo scientifico, ma un racconto collettivo, una fede travestita da tecnologia che plasma la cultura, la politica e la finanza globale. Come osserva il MIT Technology Review, l’AGI non è tanto una scoperta in attesa di realizzarsi quanto una narrazione potente che alimenta capitali e ideologie, un nuovo linguaggio del potere in Silicon Valley.

Il futuro decentralizzato dell’intelligenza artificiale e della robotica

Dopo anni di corsa verso il gigantismo digitale, la nuova rivoluzione dell’intelligenza artificiale oggi sta nascendo proprio dalla miniaturizzazione. Tutti parlano di modelli sempre più grandi, di GPU che divorano energia e di cloud che crescono come nuove centrali elettriche del sapere. Eppure la domanda che comincia a farsi strada, pungente come un’iniezione di realtà, è un’altra: l’intelligenza deve davvero restare confinata nei data center o può diffondersi come una colonia di formiche digitali, ciascuna modesta ma tutte insieme straordinariamente efficaci?

La risposta arriva da un movimento tecnologico che ribalta l’assunto del potere centralizzato. Lo chiamano swarm intelligence, e la sua essenza è semplice quanto sovversiva: la forza non nasce da un singolo cervello onnisciente, ma dalla cooperazione di molte menti più piccole, distribuite e indipendenti. È la logica dell’intelligenza distribuita, l’idea che il pensiero collettivo, se ben orchestrato, possa superare la potenza del singolo gigante computazionale.

Ottimismo artificiale: perché l’Europa rischia di cedere sul suo stesso AI Act

L’Europa, nel suo eterno ruolo di regolatore morale del mondo digitale, sembra aver perso un po’ di quella fiducia granitica che l’aveva spinta a varare l’AI Act, la prima legge globale sull’intelligenza artificiale. Adesso, a pochi mesi dall’entrata in vigore, Bruxelles starebbe valutando un rinvio parziale dell’applicazione delle norme, un “periodo di grazia” che suona più come un SOS politico che come una strategia. Il problema non è solo tecnico, è identitario: l’Unione che voleva guidare il mondo nell’etica dell’AI sta ora cercando di non far scappare i suoi stessi innovatori.

META e la nuova corsa all’oro dell’intelligenza artificiale

Quando Mark Zuckerberg parla di 600 miliardi di dollari in spese di capitale entro il 2028, non sta solo alzando l’asticella degli investimenti in infrastrutture digitali. Sta ridefinendo il concetto stesso di potere tecnologico. Meta Platforms, il gigante che molti avevano dato per invecchiato dopo il crollo del metaverso, sta tornando sulla scena globale con una strategia brutalmente concreta: costruire il futuro dell’intelligenza artificiale negli Stati Uniti, mattone dopo mattone, data center dopo data center.

Cina AI: kimi k2 thinking sfida GPT-5 e ridefinisce il confine tra open e closed source

La notizia è passata come una scarica elettrica nei circoli tecnologici globali. Moonshot AI, la start-up cinese sostenuta da Alibaba e Tencent, ha annunciato il rilascio del suo nuovo modello open-source Kimi K2 Thinking, un colosso da un trilione di parametri che ha superato GPT-5 di OpenAI e Claude Sonnet 4.5 di Anthropic in diversi benchmark di ragionamento e capacità agentiche. In altre parole, un progetto open-source ha battuto le intelligenze artificiali chiuse più evolute del pianeta. Un dettaglio che, nel linguaggio dell’innovazione, suona come una dichiarazione di guerra.

OpenAI chiede agli Stati Uniti di estendere il Chips Act all’infrastruttura per l’intelligenza artificiale

OpenAI ha formalmente chiesto al governo degli Stati Uniti di ampliare il credito d’imposta previsto dal CHIPS Act per includere non solo i produttori di semiconduttori, ma anche l’intera filiera infrastrutturale necessaria all’intelligenza artificiale. Nella lettera firmata da Chris Lehane, capo degli affari globali, l’azienda invita la Casa Bianca a estendere l’Advanced Manufacturing Investment Credit ai data center, ai server AI e ai componenti della rete elettrica, come trasformatori e acciaio specializzato.

Nvidia Blackwell Chip Cina: il silenzio rumoroso di Jensen Huang e la guerra fredda dei transistor

Il teatro globale dell’intelligenza artificiale si gioca oggi dentro un wafer di silicio grande quanto una mano. Mentre le borse oscillano e i capi di Stato recitano copioni di cooperazione, la vera partita tra Stati Uniti e Cina si misura in nanometri. Nvidia, l’azienda che più di ogni altra ha plasmato l’attuale rivoluzione dell’AI, si ritrova nel mezzo di una tensione tecnologica che somiglia sempre più a una guerra fredda fatta di transistor, embargo e dichiarazioni calibrate al millesimo di volt.

Baris Gencel

“Conoscete ­qualcuno che ancora crede che la natura possa attendere?” Potrebbe cominciare così, se fossi in vena di provocare e in effetti ­Baris Gencel non è uno che attende. Lo riconosci subito: la sua arte, il suo pensiero, la sua carriera lo dipingono come un architetto-tecnologo del visivo, un artigiano della generazione AI che non teme il crudo “cosa abbiamo fatto al pianeta?” ma lo affronta con la logica chirurgica di uno che sa che ogni decisione (tecnologica, estetica, commerciale) ha peso, retaggio e futuro.

Malware che parla con i modelli: l’inizio di una nuova era criminale

Advances in Threat Actor Usage of AI Tools

La sensazione non è solo di disorientamento, è di ribaltamento. Malware che chiede aiuto all’intelligenza artificiale mentre è in esecuzione non è fantascienza: è la realtà che Google ha descritto come una svolta operativa. Il concetto è semplice nella sua pericolosità. Un eseguibile non porta più tutto il proprio cervello dentro la scatola, ma telefona a un modello esterno per farsi scrivere o riscrivere parti del codice, produrre funzioni su richiesta e mascherare i propri segnali di identificazione. Il risultato è un avversario che muta in tempo reale, capace di aggirare difese progettate per regole statiche.

L’etica dell’intelligenza artificiale spiegata a mio figlio di Enrico Panai

Ci sono libri che ti sorprendono non per quello che dicono, ma per come lo dicono. L’etica dell’intelligenza artificiale spiegata a mio figlio, di Enrico Panai, appartiene a quella categoria rara che riesce a rendere la filosofia concreta, quasi commestibile. Mentre padre e figlio cucinano un piatto di pasta, un eccentrico zio di nome Phædrus interviene a scatti, come un “algoritmo difettoso ma illuminato”, aprendo spazi inattesi di riflessione. È un testo che si finge leggero per poter essere più profondo. Una conversazione domestica che diventa un laboratorio etico sull’intelligenza artificiale, sui suoi rischi e sulle nostre illusioni di controllo.

Top Strategic Technology Trends 2026: l’onda che nessuno può permettersi di ignorare

Il concetto che l’intelligenza artificiale sia un optional appartiene ormai al passato. Gartner, Inc. ha pubblicato la sua lista delle Top 10 Strategic Technology Trends per 2026, e lascia poco spazio ai dubbi: non si tratta più di sperimentazione ma di fondamento del modello di business. (Gartner) Quel che sorprende non è la presenza dell’AI quanto l’assetto strategico che la circonda: sicurezza, sovranità, collaborazione uomo-macchina.

Perché pensiamo come programmiamo: la fine dell’oggetto e l’illusione della mente modulare

C’è un’idea tanto affascinante quanto scomoda, espressa con lucidità e ironia da Marco Giancotti in un recente post (Aether Mug Subscribe newsletter.): forse gli ingegneri del software, nel tentativo di costruire programmi più intelligenti, hanno finito per scoprire un modo di rappresentare la mente umana. L’intuizione nasce dal parallelo tra il Unified Modeling Language e i meccanismi del pensiero: come se il nostro cervello ragionasse in diagrammi UML, con classi, relazioni e astrazioni. È un’immagine irresistibile, perché ci restituisce una verità troppo spesso ignorata: non programmiamo solo le macchine, programmiamo anche noi stessi.

ROMA al centro dell’intelligenza artificiale

Roma, la città che da millenni ha costruito imperi e plasmato culture, oggi prova a fare lo stesso con l’intelligenza artificiale. Non più solo capitale della storia, ma laboratorio del futuro, nodo strategico di una rete che intreccia startup, università, corporate e istituzioni in una nuova corsa al potere digitale. Mentre le grandi metropoli globali cercano di impadronirsi del linguaggio dell’AI, Roma decide di giocare d’anticipo e trasformarsi nel baricentro europeo della consapevolezza tecnologica. Il segnale arriva chiaro con IntelligentIA, evento che promette di accendere nella Capitale una discussione autentica, lontana dai luoghi comuni e dalle retoriche sulle macchine pensanti.

La crisi di Bruxelles: come l’Europa è diventata lo spettatore della partita tra USA e Cina

Il tempo dedicato alla discussione sull’Indo-Pacifico durante l’ultimo vertice dei ministri degli esteri dell’Unione Europea a Bruxelles è stato di appena sette minuti. Sette. È un dato che basterebbe da solo a raccontare la misura del disorientamento strategico del continente. L’Europa parla di autonomia, indipendenza e resilienza ma poi si perde in una conversazione lampo su uno dei dossier più cruciali del XXI secolo. Il resto del mondo, nel frattempo, si muove, firma accordi, stabilisce priorità e costruisce le architetture geopolitiche del futuro.

Il problema non è nuovo ma oggi è diventato strutturale. Mentre gli Stati Uniti e la Cina ridisegnano la mappa del potere globale, Bruxelles appare distratta, frammentata e sostanzialmente irrilevante. Eppure non mancano i proclami. Ogni settimana si invoca “l’Europa sovrana”, “l’autonomia strategica”, “la difesa dei nostri interessi”. Poi però la realtà bussa alla porta con una brutalità quasi didattica.

L’intelligenza artificiale generativa invade tutto: finanza, libri e app, la nuova colonizzazione digitale

Sembra quasi un rituale ormai: ogni settimana un gigante tecnologico annuncia di aver innestato intelligenza artificiale generativa nel proprio ecosistema, come se fosse una nuova valuta dell’innovazione. Ma questa volta non parliamo di un esperimento marginale. Google, Amazon e OpenAI hanno appena alzato l’asticella, mostrando che l’IA non è più un’aggiunta, ma l’ossatura stessa dell’esperienza digitale globale. Il linguaggio dei mercati, delle storie e persino delle vacanze è diventato un unico codice, scritto da modelli linguistici e orchestrato da intelligenze che apprendono più velocemente di qualsiasi CFO o editor umano. La chiamano trasformazione, ma sa tanto di colonizzazione algoritmica.

Pagina 2 di 194

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie