Nel panorama odierno, dove ogni slide da venture capitalist grida all’arrivo dell’agente AI “autonomo”, “proattivo” e “rivoluzionario”, la verità tecnica resta un po’ meno scintillante: la maggior parte degli agenti oggi sono poco più che sequenze di prompt orchestrate goffamente. Finalmente però, Anthropic mette a disposizione un vademecum ingegneristico degno di nota per chi vuole davvero costruire agenti AI operativi nel mondo reale. E no, non stiamo parlando dell’ennesima toy app con GPT-4 che prenota un tavolo.
Autore: Alessandra Innocenti Pagina 5 di 21

Nel teatrino siliconvalleyano delle meraviglie, ogni tanto compare qualcosa che non è solo l’ennesimo tool “AI-powered” di cui ci dimenticheremo in un quarto d’ora. Questa volta, OpenAI ha sganciato un carico pesante sul tavolo della creatività digitale: il modello “gpt-image-1”, una belva nativamente multimodale, già conosciuta dai più nerd tra noi per la sua capacità di creare immagini in stile Studio Ghibli o bambole digitali più spente di una riunione Zoom di lunedì mattina. Ora però non resta più solo nel suo recinto di ChatGPT: è pronto a colonizzare anche le app che davvero contano.
Il modello è ufficialmente accessibile tramite API, e la notizia ha già fatto scalpore in ambienti dove l’AI non è più una curiosità, ma una leva competitiva. Adobe, Figma, Canva, GoDaddy, Instacart: se il tuo brand non è in questa lista, probabilmente stai già perdendo terreno. Secondo il blog ufficiale di OpenAI, “gpt-image-1” non è solo un generatore di immagini, è una piattaforma per “esplorare idee visivamente”, creare contenuti coerenti con il brief e persino generare testi visivi leggibili. Parliamo di coerenza semantica, direzione artistica programmabile e personalizzazione scalabile: roba da far tremare le ginocchia a chi ancora crede che “Photoshop + stock images” sia uno stack moderno.
Nvidia sta per trasformare il suo assistente AI G-Assist, lanciato solo un mese fa, espandendolo ben oltre l’ottimizzazione dei giochi e delle impostazioni di sistema. Inizialmente progettato per migliorare l’esperienza di gioco su PC, G-Assist ora si arricchisce con un supporto per i plugin, che consente agli utenti di interagire con una varietà di applicazioni esterne come Spotify, Twitch, e persino ottenere aggiornamenti su azioni e meteo.
Questa mossa è tanto interessante quanto strategica. Nvidia, da sempre punto di riferimento nell’ambito delle tecnologie grafiche, ha ampliato il raggio d’azione del suo assistente AI introducendo una nuova funzionalità che potrebbe diventare il punto di riferimento per chi desidera integrare l’intelligenza artificiale in molteplici aspetti quotidiani, dal controllo musicale alla gestione delle risorse hardware. Il tutto, senza sacrificare le performance tipiche delle schede grafiche RTX.

Microsoft sta per lanciare una versione rinnovata della sua app Microsoft 365 Copilot, che segna un altro passo significativo verso l’integrazione dell’intelligenza artificiale nelle aziende. La nuova versione dell’app, che funge da hub per i documenti di Office e ora include anche gli strumenti AI di Microsoft, si avvicina sempre di più alle funzionalità consumer di Copilot, con un’interfaccia più intuitiva e strumenti potenti per generare contenuti e ottimizzare il flusso di lavoro. Leggi il Blog Microsoft
L’approccio di Microsoft con la nuova versione di Copilot si concentra sull’ottimizzazione dell’esperienza utente e sulla personalizzazione, cercando di rendere l’app ancora più utile e “intelligente”. Un cambiamento fondamentale è l’adozione di un’interfaccia basata sulla chat, che ora include la memoria e la capacità di personalizzazione, simile a quella presente nella versione consumer di Copilot. Questo significa che Copilot inizierà a comprendere meglio il tuo modo di lavorare e a rispondere in modo sempre più adeguato alle tue preferenze. Microsoft punta a creare un ambiente dove l’IA non è solo uno strumento, ma diventa un assistente che evolve insieme a te.

Sarà un giorno di festa nei corridoi di Netflix e Amazon Studios, ma nei sindacati di Hollywood probabilmente oggi volano i bicchieri. L’Academy of Motion Picture Arts and Sciences, con la delicatezza di chi finge di non vedere l’elefante nella stanza ma poi lo invita al gala, ha ufficialmente riconosciuto l’esistenza dell’intelligenza artificiale generativa nelle sue linee guida per l’Oscar. Tradotto: non vieta nulla, non obbliga a dichiarare nulla, ma avverte che il “fattore umano” rimane ancora centrale nel decidere chi stringerà la statuetta dorata.
Sì, hai letto bene. L’AI può essere usata nella produzione di un film, e non sarà un peccato mortale agli occhi dei membri votanti dell’Academy. Ma attenzione: la valutazione finale dipenderà da quanto, nel prodotto finale, si percepisce ancora una mano umana. L’autorialità non deve sparire del tutto. L’algoritmo può scrivere, colorare, animare, ma la scintilla creativa deve avere ancora una faccia, possibilmente sindacalizzata, possibilmente umana.

Nel panorama schizofrenico dell’IT moderno, dove ogni giorno un CTO si sveglia e sa che dovrà correre più veloce del legacy per non restare indietro, l’adozione di Kubernetes è l’equivalente di una sveglia ben assestata. Ma attenzione, non è solo una moda o l’ennesimo feticcio tecnologico da esibire nelle slide del consiglio di amministrazione: è il substrato, la base, il concime tecnico per far crescere davvero un’infrastruttura agile, resiliente e pronta a flirtare con le tecnologie emergenti senza sudare troppo.
Kubernetes, come ben spiegato qui, non è solo orchestrazione, è strategia. È il linguaggio infrastrutturale con cui le aziende intelligenti oggi scrivono il loro futuro. Ed è proprio su questa architettura modulare e scalabile che è possibile costruire ambienti di calcolo dinamici, nei quali GPU, serverless e storage non sono più parole scollegate ma pezzi coerenti di un puzzle ad altissima complessità.

Quando la NATO smette di finanziare droni, missili e tecnologia a base di metallo e punta milioni su un materiale ultrasottile come il grafene, forse vale la pena alzare le antenne. Non quelle classiche, magari proprio quelle nuove, basate su ricetrasmettitori privi di silicio, sviluppati da una piccola ma ambiziosissima startup italiana: CamGraPhIC .
Demo rigorosamente controllata e potrebbe non rappresentare la realtà

Figma non sta solo aggiornando il suo toolkit, sta cercando di disintegrare il concetto stesso di design manuale. La notizia, non ancora ufficialmente confermata ma piuttosto solida considerando la fonte, arriva dalla famigerata ricercatrice di sicurezza Jane Manchun Wong. La sua scoperta? Figma starebbe sviluppando un’app basata su intelligenza artificiale in grado di creare applicazioni partendo da prompt testuali, immagini e file Figma. Una specie di “Codex del design”, ma targato Claude Sonnet, il modello AI firmato da Anthropic.
È come se Adobe, Canva e ChatGPT si fossero ubriacati una sera e avessero partorito un figlio geniale, ma inquietante.

Donne, algoritmi e pane raffermo: la rivincita del cervello femminile nella Silicon Valley d’Oriente
Nel contesto di una società che celebra la tecnologia come nuovo oracolo, la figura della donna nelle discipline STEM continua a essere sottorappresentata, troppo spesso relegata a ruolo decorativo nei panel aziendali o strumentalizzata nelle campagne pubblicitarie dall’inconfondibile retrogusto di marketing rosa. Il problema non è solo quantitativo, ma profondamente culturale: la matematica, l’ingegneria, la scienza e la tecnologia sono ancora percepite come territori maschili per eccellenza, dove la presenza femminile viene vista come un’eccezione statisticamente tollerabile ma raramente valorizzata.
Eppure, in spazi di innovazione come l’Hong Kong Science and Technology Park, esiste una generazione di professioniste che non chiede inclusione, la impone. Figure come Florence Chan, Angela Wu, Wendy Lam, Gina Jiang e Megan Lam, Inhwa Yeom incarnano un nuovo paradigma: quello della competenza femminile che non solo compete, ma supera. Il loro lavoro è sintesi tra eccellenza accademica e applicazione pratica, tra rigore scientifico e intuito strategico, in una costante tensione verso la risoluzione di problemi complessi che spaziano dalla biomedicina alla neurotecnologia.

Chi avrebbe mai detto che il futuro dei video generati dall’intelligenza artificiale avrebbe preso forma su un desktop da gaming? E invece eccoci qui: FramePack, la nuova architettura neurale firmata Lvmin Zhang (con la benedizione di Maneesh Agrawala da Stanford), è il perfetto esempio di quando la potenza di calcolo incontra l’intelligenza progettuale. Il risultato? Video AI da un minuto intero, di qualità notevole, sfornati su una GPU casalinga con appena 6GB di VRAM. Hai presente quelle workstation che sembravano necessarie per l’IA generativa? Dimenticale.
Il trucco non sta nella forza bruta, ma nell’ingegno algoritmico. FramePack reinterpreta la struttura della memoria nei modelli di diffusione video. Invece di accumulare informazioni temporali come un collezionista compulsivo di fotogrammi, li impacchetta in un contesto temporale a lunghezza fissa, ottimizzando il processo come un camionista zen che fa incastrare perfettamente i bagagli nel portabagagli. Questo riduce drasticamente il carico sulla GPU, permettendo di lavorare con modelli da 13 miliardi di parametri senza mandare in fumo la scheda video. Secondo gli autori, il costo computazionale è simile a quello della generazione di immagini statiche. E qui si sente già il tonfo delle vecchie soluzioni cloud, cadute rovinosamente dal loro piedistallo.

La maratona dei robot umanoidi, tenutasi a Pechino il 19 aprile 2025, ha messo in evidenza tanto l’innovazione quanto le sfide ancora da superare nella robotica cinese. Questo evento ha rappresentato il primo tentativo di un “mezzomarathon” con robot in competizione al fianco degli esseri umani, ma, come spesso accade con le tecnologie emergenti, non è stato privo di difficoltà. Dei 21 partecipanti robotici, solo sei sono riusciti a completare la corsa, e solo uno ha concluso sotto il tempo minimo di qualificazione stabilito dalla Chinese Athletic Association.
La maratona, lunga 21 km e tenutasi nel distretto di Yizhuang, ha visto una scena che ha evocato il primissimo Gran Premio automobilistico del 1894 a Parigi, quando le automobili erano ancora un sogno rispetto ai carri trainati dai cavalli. Il parallelo con le prime gare automobilistiche è inevitabile, poiché anche in questo caso il futuro della mobilità era ancora in fase di definizione, nonostante la visione ambiziosa di chi, come la Cina, vuole essere all’avanguardia nel campo della robotica umanoide. La partecipazione di robot alla gara è stata vista come una vetrina della crescente potenza della Cina in questo settore, che compete direttamente con colossi come Boston Dynamics e Tesla, che sta sviluppando il robot umanoide Optimus.
Imparare l’AI oggi è come trovarsi negli anni ‘90 con Internet: se ti muovi adesso, sei in anticipo. Se aspetti, diventi un consumatore di ciò che gli altri creeranno. Ma la differenza sostanziale è che l’AI non è un trend: è un paradosso darwiniano digitale. O la domini, o ne sei dominato. Ecco perché, se vuoi diventare davvero fluente nel linguaggio dell’intelligenza artificiale non la buzzword da conferenza, ma quella che cambia le tue decisioni di business, sviluppo o carriera servono fonti giuste, accessibili, dirette. Nessun bullshit motivazionale, solo contenuto vero.
Qui sotto trovi gli i canali YouTube imprescindibili per chi parte da zero ma punta a comprendere anche i white paper più ostici, e una selezione di blog dove la crème della ricerca pubblica senza troppi filtri.

Certe storie sembrano uscite da un racconto distopico, ma quando la realtà si traveste da narrativa, il paradosso non fa più ridere. Anzi, suona beffardo. L’ultima perla arriva dal Giappone, patria della tecnologia e della disciplina creativa, dove Rie Qudan, fresca vincitrice dell’ambitissimo Akatugawa Prize (premio letterario che in terra nipponica vale quanto un Nobel in miniatura), ha candidamente confessato che buona parte del suo romanzo premiato “Tokyo-to Dojo-to” è stato scritto a quattro mani con ChatGPT. Nessun ghostwriter umano, nessun tirocinante sottopagato: a farle compagnia nel viaggio creativo è stata l’intelligenza artificiale generativa.

Nel 2023 ci siamo ubriacati con il concetto di prompt engineering, quella pratica un po’ feticista di incartare un modello LLM come se fosse una caramella magica, sperando che un prompt ben costruito potesse trasformare un pappagallo probabilistico in una creatura senziente e autonoma. Il 2024 ha visto i primi sobbalzi di coscienza. Ma è nel 2025 che si consuma il passaggio di fase: da artigiani della parola a veri AI system architects.
L’intelligenza agentica non è un’estensione del prompt, ma un cambio di paradigma. Un salto da una UI testuale a un runtime cognitivo. Chi continua a insistere sul wrapping dei prompt dimostra di non aver capito il punto. Un agente non è una sequenza di istruzioni ma un organismo computazionale capace di percepire, pianificare, agire e apprendere.

Quando un investitore attivista bussa alla porta, non lo fa mai per cortesia. E quando si chiama Elliott Investment Management, non bussa affatto: entra, si siede alla testa del tavolo e inizia a riscrivere le regole del gioco. Stavolta l’obiettivo è Hewlett Packard Enterprise, azienda che una volta rappresentava il cuore pulsante dell’IT enterprise americano e che oggi sembra arrancare nell’ombra dei suoi rivali più aggressivi. Con un investimento superiore a 1,5 miliardi di dollari, Elliott non ha semplicemente fatto un ingresso trionfale in HPE — ha premuto il grilletto su una ristrutturazione che, a meno di miracoli, non sarà né gentile né silenziosa.

Chiudete gli occhi e immaginate un assistente aziendale che non dorme mai, non prende ferie, non si lamenta della macchina del caffè rotta, e soprattutto: non perde mai una mail. È questo il sogno che Anthropic ha deciso di monetizzare. Oggi lancia due novità pesanti come mattoni nella vetrina già affollata dell’intelligenza artificiale aziendale: l’integrazione con Google Workspace e una nuova funzione di ricerca “agentica” che promette di cambiare le regole del gioco. O, per i più disillusi, di spostare l’asticella un po’ più in là nel far finta di sapere di cosa si parla.
Claude, il chatbot elegante e moralista di Anthropic, ora diventa più ficcanaso e più utile. Dopo aver chiesto il permesso, naturalmente. Si collega alla tua Gmail, ai documenti su Google Drive e al tuo Google Calendar. Risultato? Ti evita l’inferno quotidiano di cercare “quel PDF di tre mesi fa che conteneva forse il piano marketing”. Claude lo trova, te lo spiega, ti fa un riassunto e magari ti dice pure se sei in ritardo con le consegne. Questo lo trasforma da semplice chatbot a qualcosa di molto simile a un vice-assistente operativo, pronto a competere direttamente con Copilot di Microsoft e altri tentativi simili (spesso più promessi che mantenuti).

Il venerdì di Pasqua è quel momento magico della settimana in cui i CTO con sindrome da burnout e i founder che fingono di non controllare Slack si concedono il lusso di fare finta di rilassarsi. In realtà, quello che facciamo è scavare dentro GitHub come archeologi del codice, alla disperata ricerca del prossimo tool open source che ci faccia risparmiare soldi, tempo e neuroni. E guarda caso, oggi ti porto esattamente questo: una manciata di risorse gratuite su Generative AI che non solo non costano nulla, ma che possono trasformare il tuo weekend in un piccolo laboratorio personale di automazione, modelli e sperimentazione nerd.
Non serve piangere per l’ennesima subscription a 99$/mese. Il bello della GenAI è che la community sta già costruendo tutto — gratis — mentre i soliti noti cercano di vendertelo impacchettato come “enterprise-ready”. Andiamo dritti al punto, senza romanticherie.

Alibaba Group sta intensificando il suo impegno nel settore automobilistico con un piano che prevede l’integrazione di tecnologie di intelligenza artificiale (AI) nelle automobili, raggiungendo accordi significativi con alcuni dei principali attori globali, tra cui Nio, BMW e potenzialmente Tesla. La mossa arriva in un momento cruciale per la tecnologia cinese, che punta ad affermarsi come il fulcro dell’innovazione nel settore dell’auto intelligente. Ma ciò che potrebbe sembrare un semplice passo verso il futuro, nasconde sotto la superficie una strategia ben più profonda e ambiziosa. Vediamo come Alibaba sta pianificando di conquistare il mercato dell’auto intelligente, e perché potrebbe avere tutte le carte in regola per farlo.
Nel mondo della musica digitale e dell’intelligenza artificiale, Benn Jordan ha lanciato una sfida che sembra destinata a scuotere le fondamenta della produzione musicale automatizzata. Utilizzando una tecnica chiamata “adversarial noise”, Jordan ha trovato un modo per sabotare i generatori musicali basati su IA, creando quello che lui stesso definisce un “attacco di avvelenamento” che rende la musica generata non solo inutilizzabile, ma potenzialmente dannosa per il sistema stesso. Questo concetto di sabotaggio sonoro sta aprendo un nuovo capitolo nell’intersezione tra arte e tecnologia, dove il confine tra creatività umana e potenza dell’IA è sempre più sfumato.
Il trucco dietro il “Poisonify” di Benn Jordan è tanto semplice quanto geniale: l’aggiunta di rumore avversario a file audio che, per l’orecchio umano, suonano perfettamente normali. Tuttavia, per i modelli di IA, questi file non sono ciò che sembrano. Il rumore avversario agisce come un “veleno” sonoro che destabilizza l’apprendimento della macchina, facendo sì che i generatori musicali non siano più in grado di produrre musica coerente. Il risultato è devastante: non solo la musica diventa “non allenabile”, ma l’intero modello rischia di essere compromesso.

C’è una certa retorica che, quando si parla di tecnologia e pubblica amministrazione, tende a oscillare tra l’allarmismo catastrofista e l’idealismo tecno-utopico. Il DDL sull’intelligenza artificiale, noto come Atto 1146, approvato dal Senato il 20 marzo 2025, ha acceso entrambe le micce. Eppure, al netto del rumore, c’è una verità semplice: per la prima volta, l’Italia sta tentando di scrivere una strategia industriale coerente in un ambito — quello dell’AI e del cloud, in cui finora abbiamo giocato solo da comparse.
Certo, il dibattito si è acceso in particolare sull’articolo 5 del disegno di legge, che stabilisce che “lo Stato e le altre autorità pubbliche” devono orientare le proprie piattaforme di e-procurement verso fornitori di AI che garantiscano la localizzazione e l’elaborazione dei dati strategici su data center in Italia. Non è un vezzo autarchico, ma un segnale preciso: i dati strategici, come l’energia o la difesa, non possono essere affidati a chiunque. Pretendere che il cloud della PA risieda in territorio nazionale significa affermare un principio di accountability e controllo operativo che non è più rimandabile. E non è affatto una provocazione: è una scelta politica e tecnologica matura.
I sistemi vocali normalmente servono a guidare i pedoni non vedenti, avvertendoli di attendere o attraversare. Ma da venerdì, a Palo Alto, 12 incroci del centro hanno cominciato a vomitare frasi deliranti del tipo “Vuoi essere mio amico? Ti do un Cybertruck” oppure “È normale sentirsi violati mentre forziamo l’AI in ogni aspetto della tua esperienza cosciente”. Tutto questo con la voce di Elon o di “The Zuck”. Aggiungici una guest star con voce alla Trump che sussurra a Musk “Sweetie, torna a letto”, ed eccoci in pieno territorio deepfake theatre.
Kawasaki Heavy Industries ha recentemente svelato Corleo, un concetto futuristico di veicolo a quattro zampe alimentato a idrogeno, progettato per affrontare terreni difficili con agilità e sostenibilità. Presentato il 4 aprile 2025 all’Expo Osaka Kansai, Corleo rappresenta l’incontro tra l’esperienza di Kawasaki nella robotica e nella tecnologia motociclistica.

Nella giungla del decision-making moderno, chi dirige un’azienda non può permettersi di affidarsi all’istinto o a LinkedIn posts con frasi motivazionali. Serve metodo, visione, e sì, anche un certo cinismo. Ecco perché i tool strategici non sono solo “tool”: sono salvagenti cognitivi per non affogare in un mare di priorità, problemi e opportunità che puzzano di rischio. Nessun bullet point, solo ragionamento strutturato.

RAG, Retrieval-Augmented Generation, ha iniziato come una promessa. Doveva essere la chiave per far sì che i modelli LLM non si limitassero a rigurgitare pattern statistici, ma attingessero da basi di conoscenza vive, aggiornate e specifiche. Ma la realtà è più triste di un Monday morning senza caffè: il 90% delle implementazioni RAG sono solo fetcher travestiti. Roba da casting per un reboot scadente di Clippy, altro che AI aumentata.
La colpa non è dell’idea, ma di chi la implementa. La maggior parte dei team considera il retrieval come un banale processo backend, una chiamata a Pinecone o FAISS e via, come se la parte retrieval fosse una formalità tra il prompt e la risposta. Un po’ come costruire un razzo e dimenticarsi del carburante.

Google ha recentemente introdotto Firebase Studio, un potente ambiente di sviluppo web-based che promette di rivoluzionare il modo in cui vengono create e distribuite applicazioni di intelligenza artificiale full-stack. Integrando in un’unica piattaforma Project IDX, Genkit e Gemini, Firebase Studio fornisce agli sviluppatori un set di strumenti avanzati per progettare, costruire e distribuire applicazioni con un’efficienza senza precedenti. La funzionalità più interessante? Un agente di prototipazione delle app che può generare automaticamente applicazioni complete a partire da semplici prompt o disegni, riducendo drasticamente il tempo di sviluppo.
Certe volte la realtà supera la fantascienza. E altre volte, la supera, la investe, e poi fa retromarcia. Prendete Jerome Dewald, 74 anni, imprenditore seriale e visionario dell’intelligenza artificiale, che ha pensato bene di mandare Jim, un avatar AI “grande, bello e maschio alfa”, a rappresentarlo in tribunale durante un’udienza. Sì, avete letto bene. Un avatar generato da una piattaforma chiamata Tavus, usato per tenere un’arringa legale in un’aula della Corte Suprema dello Stato di New York.
Ora, si potrebbe anche apprezzare l’intento se fosse stato chiaro. Ma Dewald non ha avuto la brillante idea di informare preventivamente la corte che l’uomo in video, con voce baritonale e mascella scolpita, non era un avvocato in carne e ossa, né tanto meno lui. Il dettaglio, a quanto pare, era secondario. Peccato che la giudice Sallie Manzanet-Daniels non abbia esattamente gradito la sorpresa, interrompendo il video dopo la prima frase pronunciata da Jim e chiedendo se quella fosse la parte legale del caso.

Adobe ha deciso di mandare in pensione il concetto romantico di “editing manuale” e ha fatto coming out con la sua nuova religione: l’agentic AI. Un nome che sa più di buzzword da pitch per venture capitalist che di rivoluzione, ma il succo è chiaro. Photoshop e Premiere Pro stanno per diventare strumenti che non solo eseguono comandi, ma li capiscono, li anticipano e soprattutto – li fanno al posto tuo. Addio alle notti insonni passate a mascherare dettagli pixel per pixel. Benvenuti nell’era del creative agent, dove il mouse serve più per sentirsi creativi che per esserlo davvero.
A spiegare l’ennesima mossa di Adobe nel campo dell’IA è Ely Greenfield, CTO del Digital Media di Adobe, che in un blog pubblicato oggi ha raccontato con toni visionari – e un certo gusto per la retorica futuristica – come funzioneranno questi nuovi agenti. Si parte da Photoshop: una nuova interfaccia galleggiante, chiamata Actions panel, che analizza la tua immagine, ti suggerisce interventi estetici (tipo: “vuoi che sparisca quella comitiva di turisti sullo sfondo?”) e poi se gli dici sì – lo fa. Senza chiederti dove vuoi salvare il file.

Il mago di Oz è morto, lunga vita al Mago di Oz. In un’epoca in cui l’intelligenza artificiale non solo restaura ma reinventa, Google, DeepMind e Magnopus hanno deciso di prendere uno dei film più iconici della storia del cinema e… hackerarlo con classe. L’obiettivo? Trasformarlo in un’esperienza immersiva degna del più lisergico dei viaggiatori del 1939, proiettata su un colossale schermo semi-sferico di 160.000 piedi quadrati nella Sphere di Las Vegas. Per chi ancora crede che l’arte non debba essere toccata, sedetevi comodi: qui siamo ben oltre il restauro digitale. Qui siamo nella resurrezione aumentata.


ASC27 s.r.l., con il supporto della comunità italiana e europea, ci riprova e lancia Vitruvian-1, o semplicemente V1, un modello AI che porta in scena una nuova era nel mondo dell’intelligenza artificiale con capacità di ragionamento avanzate. Con soli 14 miliardi di parametri, Vitruvian-1 non è il solito gigante da centinaia di miliardi di parametri che dominano il mercato, ma offre qualcosa di unico: il vero ragionamento.

Mentre la tempesta perfetta della guerra commerciale globale fa tremare le fondamenta dei mercati finanziari, con l’indice Hang Seng che registra il peggior tonfo giornaliero degli ultimi trent’anni, un’azienda di intelligenza artificiale con base a Pechino decide di premere sull’acceleratore. AICT, specializzata in tecnologie AI ad alta precisione per il controllo del traffico e la gestione dei parcheggi in oltre 50 città cinesi, annuncia con spavalderia la sua intenzione di presentare domanda di quotazione alla borsa di Hong Kong entro fine mese.
In barba ai segnali macroeconomici da codice rosso, AICT vuole raccogliere almeno 200 milioni di dollari attraverso la sua IPO. Secondo quanto trapela da fonti vicine all’operazione, l’obiettivo è ambizioso ma strategicamente calcolato. Per Yan Jun, fondatore e presidente della compagnia, non si tratta di una scommessa cieca ma di una mossa studiata: “Meglio essere già in pista. Se il mercato migliora, siamo pronti a decollare. Se resta turbolento, almeno siamo in posizione”.

Recentemente, Waymo, la divisione di veicoli autonomi di Alphabet, ha dichiarato di non avere intenzione di utilizzare le riprese delle telecamere interne dei suoi robotaxi per addestrare modelli di intelligenza artificiale destinati alla pubblicità mirata. Questa affermazione è giunta in risposta alla scoperta di una pagina non ancora pubblicata della loro politica sulla privacy, individuata dalla ricercatrice Jane Manchun Wong, che suggeriva la possibilità di utilizzare i dati delle telecamere interne associati all’identità dei passeggeri per scopi pubblicitari.
Secondo la portavoce di Waymo, Julia Ilina, il testo in questione era solo un segnaposto e non rifletteva accuratamente le funzionalità in fase di sviluppo. Ha inoltre sottolineato che il sistema di apprendimento automatico dell’azienda non è progettato per identificare singoli individui e che non ci sono piani per utilizzare questi dati a fini pubblicitari.

Quando Donald Trump minaccia dazi del 54% sui prodotti cinesi, a Wall Street il panico si trasforma in prassi. Ma mentre gli investitori abbandonano Apple come se avesse appena annunciato il ritorno del Newton MessagePad, i consumatori americani stanno correndo nei negozi come se fosse il Black Friday fuori stagione. Il motivo? La paura che l’iPhone diventi un oggetto di lusso stile Rolex.
Apple, che da sempre danza sull’orlo di una catastrofe geopolitica pur mantenendo i profitti a doppia cifra, si è trovata di colpo al centro di una corsa all’oro hi-tech: gente che affolla gli Apple Store chiedendo con ansia se “i prezzi aumenteranno domani”. I dipendenti, lasciati senza linee guida ufficiali dall’azienda, sono diventati improvvisamente i nuovi oracoli di Cupertino, costretti a improvvisare risposte mentre l’adrenalina scorre come un aggiornamento iOS mal riuscito.

Mentre il pubblico si perde in chiacchiere con il proprio chatbot preferito, sul campo di battaglia digitale chiamato Chatbot Arena si consuma un vero e proprio scontro tra titani dell’intelligenza artificiale conversazionale. Una classifica, aggiornata costantemente e alimentata dalla preferenza degli utenti, sta mettendo in scena l’equivalente di una guerra fredda 2.0, in cui le armi non sono bombe atomiche ma modelli linguistici sempre più raffinati. Reddit, ovviamente, osserva e commenta ogni mossa, ogni miglioramento, ogni crollo in classifica come se si trattasse della Champions League del futuro.

Il “view” è la criptovaluta dell’attenzione. È la metrica più esibita, idolatrata, manipolata e abusata dell’intero universo digitale. La vedi ovunque: sotto ogni video, post, reel, story, shorts, tweet, thread o qualsiasi altro feticcio del contenuto contemporaneo. Il messaggio subliminale è chiaro: più views hai, più vali. Più vali, più sei. Eppure, sotto la superficie di questo numero apparentemente oggettivo si nasconde una truffa degna di Wall Street nei tempi d’oro del subprime.
Non è un’opinione: è un fatto. I views sono bugie con l’abito della verità. Sono il risultato di metriche arbitrarie, gonfiate e ridisegnate da piattaforme che hanno tutto l’interesse a venderti un’illusione di successo. Facebook, per esempio, è stata beccata a gonfiare intenzionalmente i numeri per convincere i creator a investire nei video nativi, salvo poi finire coinvolta in cause legali per frode. Ma è solo la punta dell’iceberg.
L’ AI ruba, noi paghiamo: la stampa scende in guerra contro l’intelligenza artificiale Stop AI THEFT

Nell’era in cui l’intelligenza artificiale non dorme mai e si nutre di tutto ciò che tocca, anche i padroni dell’informazione — quelli veri, non gli influencer da due soldi — hanno deciso di smettere di porgere l’altra guancia. Centinaia di editori, tra cui mostri sacri come The New York Times, The Washington Post, The Guardian, e la sempre acida Vox Media (The Verge incluso), hanno lanciato questa settimana una campagna di fuoco: Support Responsible AI. Il tono? Più da guerra fredda che da iniziativa civile.

Siamo entrati nell’era del “Grande Tradimento Digitale”, e questa volta non è una metafora. È un urlo collettivo che risuona da ogni angolo della rete: “Google ci ha traditi”. È il pianto amaro di editori indipendenti, gestori di blog, piccole testate giornalistiche e siti verticali di nicchia. Tutti accomunati da un destino cinico: essere stati prima nutriti, poi bruciati vivi, da un algoritmo che cambia umore più spesso di un trader sotto metanfetamina.
Google, il buon vecchio motore di ricerca, è diventato qualcosa di diverso. Ora si comporta più come un oracolo ermetico alimentato da AI, dispensando risposte pronte in stile chatbot e riducendo a macerie il traffico organico che una volta distribuiva come un re magnanimo. La partita non è più tra chi scrive meglio, chi indicizza meglio, chi ha più backlink. No. Ora il gioco è truccato. Il nuovo sfidante si chiama SGE, Search Generative Experience, ed è l’intelligenza artificiale conversazionale di Google che risponde direttamente agli utenti. Sintetizza, interpreta e cancella la necessità stessa di cliccare su un link.