Il recente decreto esecutivo dell’amministrazione Trump, volto a “ripristinare l’uguaglianza delle opportunità e la meritocrazia,” ha preso di mira in modo silenzioso uno degli strumenti anti-discriminazione più cruciali della legge americana, specialmente nei settori dell’occupazione, dell’educazione, dei prestiti e persino dell’intelligenza artificiale (IA). Le implicazioni di questa mossa potrebbero richiedere anni per essere completamente comprese, ma le conseguenze saranno profonde, soprattutto per le comunità più vulnerabili della società. Questo cambiamento politico potrebbe alterare significativamente il modo in cui vengono gestiti i casi di discriminazione, rendendo più difficile per avvocati e difensori dei diritti civili provare i pregiudizi sistemici nelle industrie in cui persistono. Sebbene l’ordine venga minimizzato da alcuni, il suo potenziale di impatto su milioni di americani è sostanziale e non dovrebbe essere sottovalutato.
Autore: Alessandra Innocenti Pagina 1 di 18

Mentre la Silicon Valley si esercita nel dribbling geopolitico, Nvidia si ritrova nel bel mezzo di un palcoscenico dove il copione è scritto tra le righe delle sanzioni americane e le ambizioni tecnologiche cinesi. Digitimes, testata taiwanese molto addentro agli ambienti dei fornitori hardware asiatici, ha acceso la miccia sostenendo che Jensen Huang starebbe preparando una joint venture sul suolo cinese per proteggere la gallina dalle uova d’oro: la piattaforma CUDA e il florido business da 17,1 miliardi di dollari maturato in Cina solo lo scorso anno.
Peccato che Nvidia abbia risposto con fuoco e fiamme, negando ogni cosa in maniera categorica. “Non c’è alcuna base per queste affermazioni”, ha dichiarato un portavoce all’indomani della pubblicazione del rumor, accusando i media di irresponsabilità per aver spacciato supposizioni come fatti.

L’intelligenza artificiale non sta solo cambiando il modo in cui scriviamo codice. Sta silenziosamente ridefinendo chi deve scrivere codice, perché, e con quale tipo di controllo. Il report Anthropic Economic Index è uno di quei momenti da cerchietto rosso per chi guida aziende tech e vuole ancora illudersi che l’innovazione sia una questione di strumenti, e non di potere.
Claude Code, il “cugino agente” di Claude.ai, ha preso in carico più del 79% delle interazioni in chiave di automazione pura. Traduzione? L’essere umano è sempre più un revisore postumo. Non disegna, non modella, non orchestra. Spiega cosa vuole a grandi linee e l’IA fa. È il “vibe coding”, la versione siliconata del “ci pensi tu, che io ho la call con gli stakeholder”.
Questo trend ha una gravità molto sottovalutata. Non stiamo parlando di una migliore autocomplete. Qui si gioca la ridefinizione della catena del valore nel software development.

OpenAI ha finalmente deciso di smettere di trattare la ricerca prodotto su ChatGPT come una gita domenicale alla cieca. Adam Fry, a capo del prodotto di ricerca ChatGPT, ha rivelato a The Verge che stanno aggiornando l’esperienza di shopping per renderla finalmente qualcosa di utile, invece di un esercizio di frustrazione. Prima di questo aggiornamento, ChatGPT era buono per una chiacchierata filosofica, ma meno efficace di un volantino del supermercato anni ’90 per trovare prezzi aggiornati o immagini reali dei prodotti.

Dietro consiglio di un nostro lettore Wagied DavidsWagied Davids ci siamo imbattuti su un paper interessante UNDERSTANDING AND MITIGATING RISKS OF GENERATIVE AI IN FINANCIAL SERVICES. L’ossessione per l’intelligenza artificiale generativa (GenAI) responsabile sembra oggi il nuovo passatempo preferito di Bloomberg, e non solo. Xian Teng, Sergei Yurovski, Iyanuoluwa Shode, Chirag S. Patel, Arjun Bhorkar, Naveen Thomas, John Doucette, David Rosenberg, Mark Dredze della Johns Hopkins University, e David Rabinowitz hanno firmato uno studio che sa tanto di SOS lanciato da una torre d’avorio che scricchiola. La loro tesi, pubblicata con il timbro solenne di Bloomberg, è chiara: se vogliamo sviluppare prodotti GenAI per la finanza senza farci esplodere tra le mani uno scandalo legale o regolamentare, dobbiamo smetterla di giocare ai filosofi e iniziare a sporcarci le mani con il fango della realtà normativa.
Oggi il dibattito su cosa sia una “risposta sicura” di un modello di intelligenza artificiale sembra appiattirsi su tre buzzword nauseanti: tossicità, bias e fairness. Argomenti perfetti per keynote da quattro soldi e paper peer-reviewed destinati a essere ignorati dal mercato. Secondo gli autori, però, la vera tragedia si consuma lontano dai riflettori: nei settori verticali, come la finanza, dove l’AI non può permettersi il lusso di errori estetici, ma deve rispondere a codici legali precisi, regolamenti ossessivi e standard di governance corporativa che fanno sembrare il GDPR una poesia d’amore.

L’incredibile evoluzione dell’intelligenza artificiale nel miglioramento del codice e della produttività: la nuova frontiera della programmazione
Con l’avvento dei modelli più avanzati di intelligenza artificiale, come Sonnet 3.7, Gemini 2.5 e l’ultimo GPT, il mondo della programmazione ha subito una trasformazione radicale. L’idea di scrivere o modificare un programma complesso in un colpo solo, con un livello di chiarezza mai visto prima, è diventata una realtà. Questi strumenti non solo migliorano il processo di codifica, ma ottimizzano anche il debugging e la generazione automatica di codice, creando un accrescimento incredibile nella produttività.

L’intelligenza artificiale sta velocemente diventando parte integrante di ogni settore, dalla finanza alla medicina, dalle operazioni aziendali alla gestione dei dati. Ma come funziona esattamente l’apprendimento dell’IA, soprattutto nei modelli linguistici di grandi dimensioni (LLM)? La comprensione di questo processo non è solo una questione di curiosità accademica, è fondamentale per chiunque si occupi di regolamentare, interpretare e applicare le normative sull’IA. La recente ricerca di Zucchet et al., intitolata “How Do Language Models Learn Facts? Dynamics, Curricula, and Hallucinations” (2025), fornisce una panoramica fondamentale di come questi modelli apprendano e memorizzino i fatti e, forse ancor più importante, come possano produrre risultati errati che chiamiamo “allucinazioni”.

Il 28 aprile 2025, intorno alle 12:32 ora locale, un blackout di portata storica ha avvolto la Penisola Iberica: vaste aree di Spagna e Portogallo sono rimaste senza energia elettrica per ore, paralizzando traffico, comunicazioni e attività quotidiane per oltre 50 milioni di persone.
Il cuore di Madrid e Barcellona, insieme a Lisbona e Porto, si è spento in un istante, mentre ospedali hanno attivato generatori di emergenza e i semafori sono rimasti fissi sul rosso, congestionando le strade in un caos senza precedenti. Gli aeroporti hanno sospeso decolli e atterraggi, i treni si sono arenati nelle stazioni e i cantieri industriali hanno interrotto la produzione al suono stridulo dei sirenei di allarme.

In un mondo già saturo di intelligenze artificiali che sembrano tutte un po’ cloni l’una dell’altra, CrowdStrike ha deciso di alzare il tiro e tirare fuori la sua pistola più grossa: Charlotte AI. Se ti aspetti la solita assistente virtuale che sussurra consigli banali a un povero analista sovraccarico, ti conviene cambiare canale. Qui siamo davanti a qualcosa che pensa, investiga e agisce in totale autonomia — ovviamente, con quei “guardrail” rassicuranti che piacciono tanto ai compliance officer.

Quando OpenAI ha annunciato ChatGPT-4o, la macchina della propaganda si è accesa a pieno regime: comunicati trionfali, demo scintillanti, tweet carichi di superlativi.
Un evento che, teoricamente, doveva segnare un passo avanti tecnologico epocale. Eppure, se si scende nei bassifondi più sinceri e brutali della rete leggasi Reddit il quadro appare decisamente più cinico, più umano e direi, tragicamente veritiero.
Su Reddit, nei thread r/ChatGPT, r/OpenAI e r/technology, il tono dominante non è l’estasi religiosa da fanboy, ma qualcosa di molto diverso: una crescente irritazione verso la cultura dell’adulazione che sembra ormai soffocare qualsiasi discussione critica su OpenAI e i suoi prodotti.
Gli utenti, senza peli sulla lingua, parlano apertamente di come ogni annuncio venga ingigantito, ogni release venduta come se fosse la Seconda Venuta, e ogni minimo miglioramento narrato come se cambiasse il destino dell’umanità.

La notizia della scorsa settimana sembrava la classica trovata da film di fantascienza di serie B: due Marines americani, in missione tra Corea del Sud e Filippine, usano un chatbot generativo simile a ChatGPT per analizzare dati di sorveglianza e segnalare minacce. Non si tratta di un esercizio di marketing tecnologico, ma di un vero e proprio test operativo di come il Pentagono stia accelerando la sua corsa nell’integrazione dell’intelligenza artificiale generativa nei processi militari più sensibili. Altro che “assistente virtuale”, qui parliamo di sistemi che leggono informazioni di intelligence e propongono scenari operativi, inserendosi direttamente nel ciclo decisionale di guerra. Se vuoi farti un’idea più precisa di questa follia organizzata puoi dare un’occhiata alla notizia originale.

Se ti chiedessi: “Compreresti un robot domestico, sapendo che viene guidato da un assistente umano nelle Filippine?”, la risposta istintiva sarebbe un misto di fascinazione e orrore. E sarebbe perfettamente normale. Perché in un mondo sempre più schizofrenico tra innovazione accelerata e rispetto umano in caduta libera, la nuova moda delle startup come Prosper è quella di unire outsourcing e robotica in un cocktail che sa di Black Mirror, ma con il sorriso corporate sulle labbra.

Partiamo dal presupposto che chiunque oggi osi ancora dire “non ho tempo” probabilmente non ha mai seriamente messo ChatGPT alla prova. Qui entriamo in un territorio interessante, quasi magico, dove la produttività schizza come una Tesla in modalità Plaid. E ovviamente, come ogni cosa magica, serve la formula giusta. Ti porto quindi nel mondo dei 10 prompt che, se usati bene, ti faranno sembrare un esercito di consulenti iperattivi pronti a servire il tuo impero personale. Nessun elenco sterile, solo pragmatismo velenoso e visione da CEO navigato.
Iniziamo con l’arte della scrittura di proposte commerciali, uno dei mestieri più noiosi dell’universo conosciuto. Fino a ieri, sudavi sette camicie per mettere insieme un documento decente che spiegasse il tuo prodotto o servizio a un potenziale cliente zombificato da altre cento proposte uguali. Ora basta inserire un prompt preciso su ChatGPT: “Crea una proposta professionale per [servizio/prodotto] destinata a [pubblico target], con introduzione, proposta di valore e dettagli sui prezzi.” Voilà, in meno tempo di quello che ci metti ad aprire un file Word, hai in mano un documento vendibile.

Se hai sempre pensato che l’intelligenza artificiale di oggi assomigliasse a un ragazzino viziato che impara solo ripetendo a pappagallo quello che sente dagli umani, allora David Silver e Rich Sutton sono qui per dirti che il tempo delle coccole è finito. Il loro saggio “Welcome to the Era of Experience” suona come il manifesto di una rivoluzione: l’era dei dati umani è arrivata al capolinea e il futuro appartiene agli agenti che imparano da soli, esperendo il mondo come se fossero piccoli esploratori ribelli.
Finora l’AI ha camminato tenuta per mano. Supervised learning, fine-tuning con dati umani, reinforcement learning da feedback umano: tutto questo ha costruito sistemi brillanti ma fondamentalmente dipendenti. Non appena l’ambiente cambia, questi modelli mostrano la fragilità tipica di chi ha solo imparato a memoria senza mai capire davvero il gioco.

Inizia tutto come una delle solite storie di innovazione raccontate nei pitch da startup, pieni di entusiasmo e promesse di rivoluzione. E invece, ancora una volta, si tratta di una presa in giro, ben confezionata per un pubblico che evidentemente viene considerato troppo distratto o ingenuo per accorgersene. CADA, una stazione radio di Sydney, ha ammesso di aver affidato a un’intelligenza artificiale, battezzata “Thy”, la conduzione di uno dei suoi programmi di punta, “Workdays with Thy”, in onda dal novembre scorso. Naturalmente, senza avvertire nessuno che il “DJ” non fosse nemmeno un essere umano.
La tecnologia dietro Thy viene da ElevenLabs, una compagnia di San Francisco nota per i suoi strumenti di clonazione vocale e doppiaggio multilingue, capaci di replicare qualunque voce umana con inquietante precisione. Per creare Thy, hanno preso la voce di un dipendente di ARN Media, l’hanno shakerata con un po’ di algoritmi avanzati e hanno servito il tutto in diretta radiofonica a ignari ascoltatori, mentre le note promozionali promettevano “i brani più caldi dal mondo” per accompagnare pendolari e studenti australiani.

ByteDance, la famigerata casa madre di TikTok, sembra aver trovato il suo nuovo Eldorado a sud dell’equatore. Secondo quanto rivelato da tre fonti confidenziali a Reuters, il colosso cinese sta seriamente valutando un investimento colossale in un data center da 300 megawatt nel porto di Pecem, nello stato brasiliano del Ceara, sfruttando l’abbondante energia eolica che soffia costante sulla costa nord-orientale del paese. Per intenderci, parliamo di un progetto che potrebbe arrivare a un assorbimento di energia di quasi un gigawatt se il piano dovesse proseguire oltre la prima fase. Per fare un paragone, è come alimentare più o meno 750.000 case contemporaneamente, senza contare la sete insaziabile dei server affamati di dati.
Nel pieno stile “meglio abbondare”, ByteDance non si muove da sola: sarebbe in trattative con Casa dos Ventos, uno dei principali produttori di energia rinnovabile del Brasile, per sviluppare il mega impianto. La scelta di Pecem, va detto, non è casuale. Il porto vanta una posizione strategica con la presenza di stazioni di atterraggio di cavi sottomarini, quelli che trasportano i dati attraverso gli oceani a velocità indecenti. Oltre ai cavi, c’è una concentrazione significativa di impianti di energia pulita. Insomma, tutto perfetto, se non fosse che il gestore nazionale della rete elettrica brasiliana, ONS, ha inizialmente negato la connessione alla rete per il progetto, temendo che simili colossi energivori potessero far saltare il sistema come un vecchio fusibile in una casa anni ‘50.

Se ti dicessi che il mastodontico apparato militare americano, quello da trilioni di dollari di budget annuo, dipende dalle miniere cinesi come un tossico dal suo spacciatore di fiducia? No, non è una provocazione da bar sport geopolitico, è il cuore nero di uno studio appena rilasciato da Govini, società specializzata nell’analisi delle catene di approvvigionamento della Difesa. Un’analisi che fotografa senza pietà una verità tanto scomoda quanto letale per la narrativa a stelle e strisce: il 78% dei sistemi d’arma del Pentagono è potenzialmente ostaggio della politica mineraria di Pechino.
La radiografia effettuata da Govini non lascia margine a ottimismo: parliamo di circa 80.000 componenti bellici che incorporano metalli come antimonio, gallio, germanio, tungsteno e tellurio. Cinque piccoli elementi chimici, sconosciuti ai più, che nella mani giuste (o sbagliate) diventano l’ossatura invisibile di radar, missili, droni, blindati, sistemi di difesa nucleare. E guarda caso, la produzione globale di questi metalli è dominata quasi integralmente dalla Cina.

Nel tempo in cui il codice vale più del comando, dove la guerra si digitalizza e l’etica vacilla davanti all’efficienza algoritmica, Israele pare aver ufficializzato il passaggio dallo stato di guerra a quello di “debug militare“. La notizia, uscita sul New York Times, racconta di come l’esercito israeliano abbia abbracciato senza troppi giri di parole l’uso dell’intelligenza artificiale per identificare, localizzare e colpire target all’interno della Striscia di Gaza. E non si parla di mere ricognizioni o supporto alla logistica: qui si tratta di vere e proprie esecuzioni gestite da modelli predittivi, droni killer e riconoscimento facciale.
Il caso esemplare, riguarda Ibrahim Biari, figura chiave di Hamas e implicato direttamente negli attacchi del 7 ottobre. L’intelligence israeliana avrebbe monitorato le sue chiamate e, attraverso un tool di AI vocale, triangolato una posizione approssimativa. Quella stima, che avrebbe potuto essere un intero quartiere, è bastata per lanciare un raid aereo il 31 ottobre 2023. Risultato? Biari eliminato. Ma insieme a lui oltre 125 civili, secondo Airwars, organizzazione di monitoraggio dei conflitti con sede a Londra.

Un’ulteriore ondata di preoccupazioni ha travolto OpenAI, con una lettera aperta firmata da figure eminenti nel mondo dell’intelligenza artificiale e della giustizia economica che ha suscitato un nuovo dibattito sul futuro dell’azienda e sul suo passaggio a una struttura a scopo di lucro. La missiva, indirizzata ai procuratori generali della California e del Delaware, chiede esplicitamente che la trasformazione di OpenAI da organizzazione non profit a società a scopo di lucro venga bloccata. Tra i firmatari figurano nomi di primissimo piano come Geoffrey Hinton e Stuart Russell, due tra i pionieri della ricerca sull’intelligenza artificiale, nonché Margaret Mitchell, Joseph Stiglitz e un gruppo di ex dipendenti della stessa OpenAI. Una coalizione di voci influenti che, con forza, condanna la deriva verso il profitto che l’azienda starebbe intraprendendo.
L’argomento di questa lettera non è nuovo, ma assume una risonanza ancora più forte data la crescente preoccupazione sul controllo delle tecnologie avanzate in ambito AI. Se finora le critiche si erano limitate a chiedere maggiore trasparenza e una supervisione più rigorosa sul processo di monetizzazione, stavolta il gruppo chiede un blocco totale della transizione, un intervento che vada ben oltre il semplice innalzamento del prezzo delle azioni, ma che preservi l’intento etico originale dell’organizzazione. Non si tratta più solo di preoccupazioni economiche o di marketing, ma di una questione che tocca l’anima stessa di OpenAI: la missione iniziale di servire l’intera umanità, invece di cedere alle pressioni del mercato.

Quando Microsoft e la Singapore Academy of Law si mettono insieme per scrivere un manuale di Prompt Engineering per avvocati, non lo fanno per sport. Lo fanno perché hanno capito che l’unico modo per convincere una professione ostinatamente conservatrice a dialogare con l’intelligenza artificiale, è quello di mostrarle che non c’è nulla da temere… e tutto da guadagnare. Il documento in questione non è un trattato teorico né una marketta da vendor: è un compendio tecnico, pratico, e maledettamente necessario su come usare l’IA generativa nel diritto senza fare disastri etici o figuracce professionali. Ecco perché è interessante: perché non parla dell’IA, ma con l’IA. E lo fa con uno stile educato ma pragmatico, come dovrebbe fare ogni buon avvocato.
Nel primo capitolo, gli autori smantellano con eleganza la narrativa ansiogena: l’IA non ruba lavoro, ma tempo sprecato. Il messaggio è chiaro: l’avvocato che usa l’IA non è un fannullone, è un professionista che si libera dalle catene della burocrazia testuale. Revisioni contrattuali, due diligence, ricerche giurisprudenziali… tutte attività dove l’IA non solo non nuoce, ma esalta la qualità umana, perché consente di dedicarsi a ciò che davvero conta: pensare, decidere, consigliare. Non automatizzare l’intelligenza, ma liberarla.

Il mito dell’università americana come cassaforte inespugnabile fatta di venerate biblioteche e mura di sapere eterno si sta progressivamente smaterializzando nel fumo freddo delle svendite forzate. Harvard University, con i suoi mastodontici 53,2 miliardi di dollari di endowment, ha deciso di monetizzare circa 1 miliardo di dollari in partecipazioni in fondi di private equity, secondo quanto riferito da Bloomberg. Il deal è assistito da Jefferies, banca d’affari specializzata nei mercati secondari dei fondi illiquidi. Un’operazione che, tradotta nel linguaggio della finanza reale, suona come una mossa da “chi ha bisogno urgente di liquidità”.
La storia, se fosse narrata da un professore di economia aziendale con un passato da rocker fallito, suonerebbe più o meno così: quando anche l’istituzione accademica più dotata del pianeta inizia a far cassa vendendo asset tipicamente illiquidi, come quote in fondi di private equity, è segno che i tempi sono davvero cambiati. O meglio, stanno cambiando le priorità. E i flussi di cassa.

Il venture capital americano torna a flirtare con la Cina, ma stavolta non si tratta di robot con occhi a mandorla che fanno Tai Chi nei centri commerciali di Shenzhen. Benchmark, il VC che ha avuto il colpo di reni con Uber e Snap prima che diventassero colossi nevrotici da borsa, ha guidato un round di investimento nella startup cinese Butterfly Effect, che nel nome già promette una quantità di caos proporzionale all’entusiasmo suscitato online da Manus, il suo agente AI virale.
La cifra che ha fatto girare la testa ai capitalisti di ventura? Una valutazione di circa 500 milioni di dollari. E non parliamo di una AI che ti racconta fiabe della buonanotte. Manus naviga, clicca, legge, prenota, analizza e probabilmente ha anche un’opinione sulla politica monetaria della Fed. Un assistente che agisce come un umano, ma senza fare pause caffè, e con una velocità che fa sembrare il multitasking umano una scusa corporativa per l’inefficienza.
Dietro questa operazione, come spesso accade, c’è il rumore. Quello creato dal debutto virale dell’agente AI lo scorso marzo. Appena lanciato in beta, Manus ha fatto il giro degli account X (ex Twitter) e Slack delle aziende tech, finendo rapidamente sotto il radar di chi mastica innovazione e ha il portafogli sempre pronto. In una Silicon Valley che sta iniziando a guardare con meno diffidenza e più fame i prodotti AI Made in China, dopo il boom di DeepSeek, Manus è arrivato come una conferma che sì, Pechino sa ancora come spaventare e sedurre allo stesso tempo.

Humble Opionion Il 30 gennaio, Microsoft ha pubblicato su YouTube un elegante spot pubblicitario di un minuto per i suoi nuovi Surface Pro e Surface Laptop. Un video sobrio, levigato, come ci si aspetterebbe da una big tech da trilioni. Ma c’è un dettaglio che, a distanza di quasi tre mesi, è finalmente emerso: buona parte di quello spot è stato creato con intelligenza artificiale generativa. E nessuno se n’è accorto. Nessuno. Neppure i commentatori più attenti, neppure gli utenti nerd con il frame-by-frame sotto mano.
E qui scatta il twist alla “Fight Club”: il primo spot AI di Microsoft non è stato annunciato con fanfare, non è stato accompagnato da comunicati stampa in maiuscoletto. È stato lasciato lì, in pasto all’indifferenza dell’internet, come un test silenzioso, un crash test culturale per vedere se l’occhio umano è ancora in grado di distinguere il vero dal sintetico. Risposta: no.

Ci sono giorni che scorrono lenti, e poi ci sono giorni che meritano un brindisi. O almeno un applauso silenzioso, magari davanti allo schermo, mentre sfogli il sito della Commissione Europea e ti imbatti in una piccola perla celebrativa: un booklet. Non un PDF qualunque, ma un compendio che racconta 40 anni di investimento europeo in ricerca e innovazione. Un’epopea di traguardi, fallimenti utili, idee folli diventate tecnologie fondamentali, e sogni lucidamente pianificati.
Perché sì, ogni passo in avanti va celebrato come fosse il primo. Non per ingenuità, ma per metodo. Perché nel nostro mondo iperveloce, dimentichiamo troppo facilmente che la realtà si costruisce un grant alla volta, una call vinta, una partnership internazionale, una sperimentazione riuscita. E spesso la grandezza dei risultati si rivela solo in retrospettiva. Ed è proprio quello che fa questo booklet commemorativo: fermarsi, voltarsi e guardare con un misto di orgoglio e stupore tutto ciò che è stato costruito da quando, nel 1984, l’Unione Europea ha deciso che finanziare la scienza e l’innovazione non era un atto caritatevole, ma un investimento politico, economico e strategico.

Il 27 aprile 2025, l’European Data Protection Board (EDPB) ha pubblicato il suo report annuale 2024, un documento che si potrebbe sintetizzare con una sola parola: adattamento. In un contesto regolatorio e tecnologico che evolve a ritmi compulsivi, l’EDPB cerca di non restare indietro. Ma riesce davvero a tenere il passo?
Il report, disponibile con tanto di executive summary direttamente dalla fonte ufficiale, parte con il tono da grande assemblea multilaterale: dichiarazioni solenni, buone intenzioni, retorica dell’impegno civico. La Presidente Anu Talus ribadisce che il 2024 è stato l’anno del consolidamento della missione fondativa dell’EDPB: difendere i diritti fondamentali alla privacy e alla protezione dei dati personali, mentre il mondo digitale si trasforma sotto i nostri piedi.

Chi ha mai detto che l’Intelligenza Artificiale sarebbe stata solo una questione tecnica? Sicuramente non IBM, che con il suo aggiornamento dell’AI Risk Atlas ci serve un piatto misto di paranoie ben strutturate, spalmate su tutti i layer della pipeline dell’intelligenza artificiale, con un occhio di riguardo alle nuove idiosincrasie di Generative AI e foundation models. Ma la verità è che mentre noi disegniamo mappe, i modelli continuano a scrivere codice, dipingere quadri e, perché no, generare disinformazione in tempo reale.
La classificazione di IBM, manco a dirlo, è precisa al millimetro: come un avvocato fiscale con l’ossessione per le sub-clausole. Si va dai rischi nei dati di addestramento, passando per i comportamenti all’inferenza e i pericoli dell’output, fino ad arrivare alle derive più sociologiche, etiche e speculative da libro bianco. Un tentativo legittimo di mappare il caos, certo. Ma forse anche una metafora perfetta del nostro eterno rincorrere qualcosa che, per design, è già oltre la curva.
Nel mondo tech, da anni ci sciroppiamo il mantra evangelico del “lavorare in modo più intelligente, non più duro”. Poi arrivano due dropout di Columbia University, giovanissimi e con in tasca 5,3 milioni di dollari, che decidono di fare un piccolo upgrade al concetto: “imbrogliamo su tutto”. Non è una provocazione, è il claim letterale del manifesto online di Cluely. Una startup che promette un assistente AI “individuabile quanto un ninja in una notte senza luna”, capace di leggerti lo schermo, ascoltare l’audio e suggerirti in tempo reale le risposte più intelligenti da sparare in un meeting, una call di vendita o anche in un’intervista di lavoro.
Sì, esatto. Il futuro è qui: ed è un Cyrano de Bergerac digitale pronto a suggerirti cosa dire mentre cerchi di vendere fuffa a un cliente, ottenere un lavoro per cui non sei preparato o sedurre una persona che non conosci neanche. È la Silicon Valley distillata in forma pura: se non riesci a essere brillante, fingi di esserlo. Ma fallo in modo smart, con l’intelligenza artificiale a coprirti le spalle.


Non era mai successo prima, almeno non così. Per anni la generazione video tramite intelligenza artificiale si è inchiodata su limiti duri come il granito: qualche secondo, qualità discutibile, coerenza visiva traballante, e un hardware necessario che faceva impallidire anche le workstation dei creativi più esigenti. Ma da oggi il panorama si spacca, e la frattura arriva da dove meno te lo aspetti: dal mondo open source. E non con giocattolini per nerd smanettoni, ma con modelli che numeri alla mano iniziano a surclassare i colossi closed-source per coerenza, durata, qualità, accessibilità. Benvenuti nella nuova era del video generato da AI. E no, non serve una GPU della NASA.

Nel panorama odierno, dove ogni slide da venture capitalist grida all’arrivo dell’agente AI “autonomo”, “proattivo” e “rivoluzionario”, la verità tecnica resta un po’ meno scintillante: la maggior parte degli agenti oggi sono poco più che sequenze di prompt orchestrate goffamente. Finalmente però, Anthropic mette a disposizione un vademecum ingegneristico degno di nota per chi vuole davvero costruire agenti AI operativi nel mondo reale. E no, non stiamo parlando dell’ennesima toy app con GPT-4 che prenota un tavolo.

Nel teatrino siliconvalleyano delle meraviglie, ogni tanto compare qualcosa che non è solo l’ennesimo tool “AI-powered” di cui ci dimenticheremo in un quarto d’ora. Questa volta, OpenAI ha sganciato un carico pesante sul tavolo della creatività digitale: il modello “gpt-image-1”, una belva nativamente multimodale, già conosciuta dai più nerd tra noi per la sua capacità di creare immagini in stile Studio Ghibli o bambole digitali più spente di una riunione Zoom di lunedì mattina. Ora però non resta più solo nel suo recinto di ChatGPT: è pronto a colonizzare anche le app che davvero contano.
Il modello è ufficialmente accessibile tramite API, e la notizia ha già fatto scalpore in ambienti dove l’AI non è più una curiosità, ma una leva competitiva. Adobe, Figma, Canva, GoDaddy, Instacart: se il tuo brand non è in questa lista, probabilmente stai già perdendo terreno. Secondo il blog ufficiale di OpenAI, “gpt-image-1” non è solo un generatore di immagini, è una piattaforma per “esplorare idee visivamente”, creare contenuti coerenti con il brief e persino generare testi visivi leggibili. Parliamo di coerenza semantica, direzione artistica programmabile e personalizzazione scalabile: roba da far tremare le ginocchia a chi ancora crede che “Photoshop + stock images” sia uno stack moderno.
Nvidia sta per trasformare il suo assistente AI G-Assist, lanciato solo un mese fa, espandendolo ben oltre l’ottimizzazione dei giochi e delle impostazioni di sistema. Inizialmente progettato per migliorare l’esperienza di gioco su PC, G-Assist ora si arricchisce con un supporto per i plugin, che consente agli utenti di interagire con una varietà di applicazioni esterne come Spotify, Twitch, e persino ottenere aggiornamenti su azioni e meteo.
Questa mossa è tanto interessante quanto strategica. Nvidia, da sempre punto di riferimento nell’ambito delle tecnologie grafiche, ha ampliato il raggio d’azione del suo assistente AI introducendo una nuova funzionalità che potrebbe diventare il punto di riferimento per chi desidera integrare l’intelligenza artificiale in molteplici aspetti quotidiani, dal controllo musicale alla gestione delle risorse hardware. Il tutto, senza sacrificare le performance tipiche delle schede grafiche RTX.

Microsoft sta per lanciare una versione rinnovata della sua app Microsoft 365 Copilot, che segna un altro passo significativo verso l’integrazione dell’intelligenza artificiale nelle aziende. La nuova versione dell’app, che funge da hub per i documenti di Office e ora include anche gli strumenti AI di Microsoft, si avvicina sempre di più alle funzionalità consumer di Copilot, con un’interfaccia più intuitiva e strumenti potenti per generare contenuti e ottimizzare il flusso di lavoro. Leggi il Blog Microsoft
L’approccio di Microsoft con la nuova versione di Copilot si concentra sull’ottimizzazione dell’esperienza utente e sulla personalizzazione, cercando di rendere l’app ancora più utile e “intelligente”. Un cambiamento fondamentale è l’adozione di un’interfaccia basata sulla chat, che ora include la memoria e la capacità di personalizzazione, simile a quella presente nella versione consumer di Copilot. Questo significa che Copilot inizierà a comprendere meglio il tuo modo di lavorare e a rispondere in modo sempre più adeguato alle tue preferenze. Microsoft punta a creare un ambiente dove l’IA non è solo uno strumento, ma diventa un assistente che evolve insieme a te.

Sarà un giorno di festa nei corridoi di Netflix e Amazon Studios, ma nei sindacati di Hollywood probabilmente oggi volano i bicchieri. L’Academy of Motion Picture Arts and Sciences, con la delicatezza di chi finge di non vedere l’elefante nella stanza ma poi lo invita al gala, ha ufficialmente riconosciuto l’esistenza dell’intelligenza artificiale generativa nelle sue linee guida per l’Oscar. Tradotto: non vieta nulla, non obbliga a dichiarare nulla, ma avverte che il “fattore umano” rimane ancora centrale nel decidere chi stringerà la statuetta dorata.
Sì, hai letto bene. L’AI può essere usata nella produzione di un film, e non sarà un peccato mortale agli occhi dei membri votanti dell’Academy. Ma attenzione: la valutazione finale dipenderà da quanto, nel prodotto finale, si percepisce ancora una mano umana. L’autorialità non deve sparire del tutto. L’algoritmo può scrivere, colorare, animare, ma la scintilla creativa deve avere ancora una faccia, possibilmente sindacalizzata, possibilmente umana.

Nel panorama schizofrenico dell’IT moderno, dove ogni giorno un CTO si sveglia e sa che dovrà correre più veloce del legacy per non restare indietro, l’adozione di Kubernetes è l’equivalente di una sveglia ben assestata. Ma attenzione, non è solo una moda o l’ennesimo feticcio tecnologico da esibire nelle slide del consiglio di amministrazione: è il substrato, la base, il concime tecnico per far crescere davvero un’infrastruttura agile, resiliente e pronta a flirtare con le tecnologie emergenti senza sudare troppo.
Kubernetes, come ben spiegato qui, non è solo orchestrazione, è strategia. È il linguaggio infrastrutturale con cui le aziende intelligenti oggi scrivono il loro futuro. Ed è proprio su questa architettura modulare e scalabile che è possibile costruire ambienti di calcolo dinamici, nei quali GPU, serverless e storage non sono più parole scollegate ma pezzi coerenti di un puzzle ad altissima complessità.

Quando la NATO smette di finanziare droni, missili e tecnologia a base di metallo e punta milioni su un materiale ultrasottile come il grafene, forse vale la pena alzare le antenne. Non quelle classiche, magari proprio quelle nuove, basate su ricetrasmettitori privi di silicio, sviluppati da una piccola ma ambiziosissima startup italiana: CamGraPhIC .
Demo rigorosamente controllata e potrebbe non rappresentare la realtà

Figma non sta solo aggiornando il suo toolkit, sta cercando di disintegrare il concetto stesso di design manuale. La notizia, non ancora ufficialmente confermata ma piuttosto solida considerando la fonte, arriva dalla famigerata ricercatrice di sicurezza Jane Manchun Wong. La sua scoperta? Figma starebbe sviluppando un’app basata su intelligenza artificiale in grado di creare applicazioni partendo da prompt testuali, immagini e file Figma. Una specie di “Codex del design”, ma targato Claude Sonnet, il modello AI firmato da Anthropic.
È come se Adobe, Canva e ChatGPT si fossero ubriacati una sera e avessero partorito un figlio geniale, ma inquietante.

Donne, algoritmi e pane raffermo: la rivincita del cervello femminile nella Silicon Valley d’Oriente
Nel contesto di una società che celebra la tecnologia come nuovo oracolo, la figura della donna nelle discipline STEM continua a essere sottorappresentata, troppo spesso relegata a ruolo decorativo nei panel aziendali o strumentalizzata nelle campagne pubblicitarie dall’inconfondibile retrogusto di marketing rosa. Il problema non è solo quantitativo, ma profondamente culturale: la matematica, l’ingegneria, la scienza e la tecnologia sono ancora percepite come territori maschili per eccellenza, dove la presenza femminile viene vista come un’eccezione statisticamente tollerabile ma raramente valorizzata.
Eppure, in spazi di innovazione come l’Hong Kong Science and Technology Park, esiste una generazione di professioniste che non chiede inclusione, la impone. Figure come Florence Chan, Angela Wu, Wendy Lam, Gina Jiang e Megan Lam, Inhwa Yeom incarnano un nuovo paradigma: quello della competenza femminile che non solo compete, ma supera. Il loro lavoro è sintesi tra eccellenza accademica e applicazione pratica, tra rigore scientifico e intuito strategico, in una costante tensione verso la risoluzione di problemi complessi che spaziano dalla biomedicina alla neurotecnologia.

Chi avrebbe mai detto che il futuro dei video generati dall’intelligenza artificiale avrebbe preso forma su un desktop da gaming? E invece eccoci qui: FramePack, la nuova architettura neurale firmata Lvmin Zhang (con la benedizione di Maneesh Agrawala da Stanford), è il perfetto esempio di quando la potenza di calcolo incontra l’intelligenza progettuale. Il risultato? Video AI da un minuto intero, di qualità notevole, sfornati su una GPU casalinga con appena 6GB di VRAM. Hai presente quelle workstation che sembravano necessarie per l’IA generativa? Dimenticale.
Il trucco non sta nella forza bruta, ma nell’ingegno algoritmico. FramePack reinterpreta la struttura della memoria nei modelli di diffusione video. Invece di accumulare informazioni temporali come un collezionista compulsivo di fotogrammi, li impacchetta in un contesto temporale a lunghezza fissa, ottimizzando il processo come un camionista zen che fa incastrare perfettamente i bagagli nel portabagagli. Questo riduce drasticamente il carico sulla GPU, permettendo di lavorare con modelli da 13 miliardi di parametri senza mandare in fumo la scheda video. Secondo gli autori, il costo computazionale è simile a quello della generazione di immagini statiche. E qui si sente già il tonfo delle vecchie soluzioni cloud, cadute rovinosamente dal loro piedistallo.

La maratona dei robot umanoidi, tenutasi a Pechino il 19 aprile 2025, ha messo in evidenza tanto l’innovazione quanto le sfide ancora da superare nella robotica cinese. Questo evento ha rappresentato il primo tentativo di un “mezzomarathon” con robot in competizione al fianco degli esseri umani, ma, come spesso accade con le tecnologie emergenti, non è stato privo di difficoltà. Dei 21 partecipanti robotici, solo sei sono riusciti a completare la corsa, e solo uno ha concluso sotto il tempo minimo di qualificazione stabilito dalla Chinese Athletic Association.
La maratona, lunga 21 km e tenutasi nel distretto di Yizhuang, ha visto una scena che ha evocato il primissimo Gran Premio automobilistico del 1894 a Parigi, quando le automobili erano ancora un sogno rispetto ai carri trainati dai cavalli. Il parallelo con le prime gare automobilistiche è inevitabile, poiché anche in questo caso il futuro della mobilità era ancora in fase di definizione, nonostante la visione ambiziosa di chi, come la Cina, vuole essere all’avanguardia nel campo della robotica umanoide. La partecipazione di robot alla gara è stata vista come una vetrina della crescente potenza della Cina in questo settore, che compete direttamente con colossi come Boston Dynamics e Tesla, che sta sviluppando il robot umanoide Optimus.