Hilarious
— Anshul Garg (@AnshulGarg1986) April 11, 2025
China is making some real stuff though AI right now.
China vs USA was heating up. MAGA#TrumpTariffs #stockmarketcrash #tariff pic.twitter.com/XYrT7tSIfZ
Autore: Alessandra Innocenti Pagina 12 di 28
Alibaba Group sta intensificando il suo impegno nel settore automobilistico con un piano che prevede l’integrazione di tecnologie di intelligenza artificiale (AI) nelle automobili, raggiungendo accordi significativi con alcuni dei principali attori globali, tra cui Nio, BMW e potenzialmente Tesla. La mossa arriva in un momento cruciale per la tecnologia cinese, che punta ad affermarsi come il fulcro dell’innovazione nel settore dell’auto intelligente. Ma ciò che potrebbe sembrare un semplice passo verso il futuro, nasconde sotto la superficie una strategia ben più profonda e ambiziosa. Vediamo come Alibaba sta pianificando di conquistare il mercato dell’auto intelligente, e perché potrebbe avere tutte le carte in regola per farlo.
Nel mondo della musica digitale e dell’intelligenza artificiale, Benn Jordan ha lanciato una sfida che sembra destinata a scuotere le fondamenta della produzione musicale automatizzata. Utilizzando una tecnica chiamata “adversarial noise”, Jordan ha trovato un modo per sabotare i generatori musicali basati su IA, creando quello che lui stesso definisce un “attacco di avvelenamento” che rende la musica generata non solo inutilizzabile, ma potenzialmente dannosa per il sistema stesso. Questo concetto di sabotaggio sonoro sta aprendo un nuovo capitolo nell’intersezione tra arte e tecnologia, dove il confine tra creatività umana e potenza dell’IA è sempre più sfumato.
Il trucco dietro il “Poisonify” di Benn Jordan è tanto semplice quanto geniale: l’aggiunta di rumore avversario a file audio che, per l’orecchio umano, suonano perfettamente normali. Tuttavia, per i modelli di IA, questi file non sono ciò che sembrano. Il rumore avversario agisce come un “veleno” sonoro che destabilizza l’apprendimento della macchina, facendo sì che i generatori musicali non siano più in grado di produrre musica coerente. Il risultato è devastante: non solo la musica diventa “non allenabile”, ma l’intero modello rischia di essere compromesso.
C’è una certa retorica che, quando si parla di tecnologia e pubblica amministrazione, tende a oscillare tra l’allarmismo catastrofista e l’idealismo tecno-utopico. Il DDL sull’intelligenza artificiale, noto come Atto 1146, approvato dal Senato il 20 marzo 2025, ha acceso entrambe le micce. Eppure, al netto del rumore, c’è una verità semplice: per la prima volta, l’Italia sta tentando di scrivere una strategia industriale coerente in un ambito — quello dell’AI e del cloud, in cui finora abbiamo giocato solo da comparse.
Certo, il dibattito si è acceso in particolare sull’articolo 5 del disegno di legge, che stabilisce che “lo Stato e le altre autorità pubbliche” devono orientare le proprie piattaforme di e-procurement verso fornitori di AI che garantiscano la localizzazione e l’elaborazione dei dati strategici su data center in Italia. Non è un vezzo autarchico, ma un segnale preciso: i dati strategici, come l’energia o la difesa, non possono essere affidati a chiunque. Pretendere che il cloud della PA risieda in territorio nazionale significa affermare un principio di accountability e controllo operativo che non è più rimandabile. E non è affatto una provocazione: è una scelta politica e tecnologica matura.
I sistemi vocali normalmente servono a guidare i pedoni non vedenti, avvertendoli di attendere o attraversare. Ma da venerdì, a Palo Alto, 12 incroci del centro hanno cominciato a vomitare frasi deliranti del tipo “Vuoi essere mio amico? Ti do un Cybertruck” oppure “È normale sentirsi violati mentre forziamo l’AI in ogni aspetto della tua esperienza cosciente”. Tutto questo con la voce di Elon o di “The Zuck”. Aggiungici una guest star con voce alla Trump che sussurra a Musk “Sweetie, torna a letto”, ed eccoci in pieno territorio deepfake theatre.
Kawasaki Heavy Industries ha recentemente svelato Corleo, un concetto futuristico di veicolo a quattro zampe alimentato a idrogeno, progettato per affrontare terreni difficili con agilità e sostenibilità. Presentato il 4 aprile 2025 all’Expo Osaka Kansai, Corleo rappresenta l’incontro tra l’esperienza di Kawasaki nella robotica e nella tecnologia motociclistica.
Nella giungla del decision-making moderno, chi dirige un’azienda non può permettersi di affidarsi all’istinto o a LinkedIn posts con frasi motivazionali. Serve metodo, visione, e sì, anche un certo cinismo. Ecco perché i tool strategici non sono solo “tool”: sono salvagenti cognitivi per non affogare in un mare di priorità, problemi e opportunità che puzzano di rischio. Nessun bullet point, solo ragionamento strutturato.
RAG, Retrieval-Augmented Generation, ha iniziato come una promessa. Doveva essere la chiave per far sì che i modelli LLM non si limitassero a rigurgitare pattern statistici, ma attingessero da basi di conoscenza vive, aggiornate e specifiche. Ma la realtà è più triste di un Monday morning senza caffè: il 90% delle implementazioni RAG sono solo fetcher travestiti. Roba da casting per un reboot scadente di Clippy, altro che AI aumentata.
La colpa non è dell’idea, ma di chi la implementa. La maggior parte dei team considera il retrieval come un banale processo backend, una chiamata a Pinecone o FAISS e via, come se la parte retrieval fosse una formalità tra il prompt e la risposta. Un po’ come costruire un razzo e dimenticarsi del carburante.
Google ha recentemente introdotto Firebase Studio, un potente ambiente di sviluppo web-based che promette di rivoluzionare il modo in cui vengono create e distribuite applicazioni di intelligenza artificiale full-stack. Integrando in un’unica piattaforma Project IDX, Genkit e Gemini, Firebase Studio fornisce agli sviluppatori un set di strumenti avanzati per progettare, costruire e distribuire applicazioni con un’efficienza senza precedenti. La funzionalità più interessante? Un agente di prototipazione delle app che può generare automaticamente applicazioni complete a partire da semplici prompt o disegni, riducendo drasticamente il tempo di sviluppo.
Certe volte la realtà supera la fantascienza. E altre volte, la supera, la investe, e poi fa retromarcia. Prendete Jerome Dewald, 74 anni, imprenditore seriale e visionario dell’intelligenza artificiale, che ha pensato bene di mandare Jim, un avatar AI “grande, bello e maschio alfa”, a rappresentarlo in tribunale durante un’udienza. Sì, avete letto bene. Un avatar generato da una piattaforma chiamata Tavus, usato per tenere un’arringa legale in un’aula della Corte Suprema dello Stato di New York.
Ora, si potrebbe anche apprezzare l’intento se fosse stato chiaro. Ma Dewald non ha avuto la brillante idea di informare preventivamente la corte che l’uomo in video, con voce baritonale e mascella scolpita, non era un avvocato in carne e ossa, né tanto meno lui. Il dettaglio, a quanto pare, era secondario. Peccato che la giudice Sallie Manzanet-Daniels non abbia esattamente gradito la sorpresa, interrompendo il video dopo la prima frase pronunciata da Jim e chiedendo se quella fosse la parte legale del caso.
Adobe ha deciso di mandare in pensione il concetto romantico di “editing manuale” e ha fatto coming out con la sua nuova religione: l’agentic AI. Un nome che sa più di buzzword da pitch per venture capitalist che di rivoluzione, ma il succo è chiaro. Photoshop e Premiere Pro stanno per diventare strumenti che non solo eseguono comandi, ma li capiscono, li anticipano e soprattutto – li fanno al posto tuo. Addio alle notti insonni passate a mascherare dettagli pixel per pixel. Benvenuti nell’era del creative agent, dove il mouse serve più per sentirsi creativi che per esserlo davvero.
A spiegare l’ennesima mossa di Adobe nel campo dell’IA è Ely Greenfield, CTO del Digital Media di Adobe, che in un blog pubblicato oggi ha raccontato con toni visionari – e un certo gusto per la retorica futuristica – come funzioneranno questi nuovi agenti. Si parte da Photoshop: una nuova interfaccia galleggiante, chiamata Actions panel, che analizza la tua immagine, ti suggerisce interventi estetici (tipo: “vuoi che sparisca quella comitiva di turisti sullo sfondo?”) e poi se gli dici sì – lo fa. Senza chiederti dove vuoi salvare il file.
Il mago di Oz è morto, lunga vita al Mago di Oz. In un’epoca in cui l’intelligenza artificiale non solo restaura ma reinventa, Google, DeepMind e Magnopus hanno deciso di prendere uno dei film più iconici della storia del cinema e… hackerarlo con classe. L’obiettivo? Trasformarlo in un’esperienza immersiva degna del più lisergico dei viaggiatori del 1939, proiettata su un colossale schermo semi-sferico di 160.000 piedi quadrati nella Sphere di Las Vegas. Per chi ancora crede che l’arte non debba essere toccata, sedetevi comodi: qui siamo ben oltre il restauro digitale. Qui siamo nella resurrezione aumentata.

ASC27 s.r.l., con il supporto della comunità italiana e europea, ci riprova e lancia Vitruvian-1, o semplicemente V1, un modello AI che porta in scena una nuova era nel mondo dell’intelligenza artificiale con capacità di ragionamento avanzate. Con soli 14 miliardi di parametri, Vitruvian-1 non è il solito gigante da centinaia di miliardi di parametri che dominano il mercato, ma offre qualcosa di unico: il vero ragionamento.
Mentre la tempesta perfetta della guerra commerciale globale fa tremare le fondamenta dei mercati finanziari, con l’indice Hang Seng che registra il peggior tonfo giornaliero degli ultimi trent’anni, un’azienda di intelligenza artificiale con base a Pechino decide di premere sull’acceleratore. AICT, specializzata in tecnologie AI ad alta precisione per il controllo del traffico e la gestione dei parcheggi in oltre 50 città cinesi, annuncia con spavalderia la sua intenzione di presentare domanda di quotazione alla borsa di Hong Kong entro fine mese.
In barba ai segnali macroeconomici da codice rosso, AICT vuole raccogliere almeno 200 milioni di dollari attraverso la sua IPO. Secondo quanto trapela da fonti vicine all’operazione, l’obiettivo è ambizioso ma strategicamente calcolato. Per Yan Jun, fondatore e presidente della compagnia, non si tratta di una scommessa cieca ma di una mossa studiata: “Meglio essere già in pista. Se il mercato migliora, siamo pronti a decollare. Se resta turbolento, almeno siamo in posizione”.

Recentemente, Waymo, la divisione di veicoli autonomi di Alphabet, ha dichiarato di non avere intenzione di utilizzare le riprese delle telecamere interne dei suoi robotaxi per addestrare modelli di intelligenza artificiale destinati alla pubblicità mirata. Questa affermazione è giunta in risposta alla scoperta di una pagina non ancora pubblicata della loro politica sulla privacy, individuata dalla ricercatrice Jane Manchun Wong, che suggeriva la possibilità di utilizzare i dati delle telecamere interne associati all’identità dei passeggeri per scopi pubblicitari.
Secondo la portavoce di Waymo, Julia Ilina, il testo in questione era solo un segnaposto e non rifletteva accuratamente le funzionalità in fase di sviluppo. Ha inoltre sottolineato che il sistema di apprendimento automatico dell’azienda non è progettato per identificare singoli individui e che non ci sono piani per utilizzare questi dati a fini pubblicitari.
Quando Donald Trump minaccia dazi del 54% sui prodotti cinesi, a Wall Street il panico si trasforma in prassi. Ma mentre gli investitori abbandonano Apple come se avesse appena annunciato il ritorno del Newton MessagePad, i consumatori americani stanno correndo nei negozi come se fosse il Black Friday fuori stagione. Il motivo? La paura che l’iPhone diventi un oggetto di lusso stile Rolex.
Apple, che da sempre danza sull’orlo di una catastrofe geopolitica pur mantenendo i profitti a doppia cifra, si è trovata di colpo al centro di una corsa all’oro hi-tech: gente che affolla gli Apple Store chiedendo con ansia se “i prezzi aumenteranno domani”. I dipendenti, lasciati senza linee guida ufficiali dall’azienda, sono diventati improvvisamente i nuovi oracoli di Cupertino, costretti a improvvisare risposte mentre l’adrenalina scorre come un aggiornamento iOS mal riuscito.
Mentre il pubblico si perde in chiacchiere con il proprio chatbot preferito, sul campo di battaglia digitale chiamato Chatbot Arena si consuma un vero e proprio scontro tra titani dell’intelligenza artificiale conversazionale. Una classifica, aggiornata costantemente e alimentata dalla preferenza degli utenti, sta mettendo in scena l’equivalente di una guerra fredda 2.0, in cui le armi non sono bombe atomiche ma modelli linguistici sempre più raffinati. Reddit, ovviamente, osserva e commenta ogni mossa, ogni miglioramento, ogni crollo in classifica come se si trattasse della Champions League del futuro.
Il “view” è la criptovaluta dell’attenzione. È la metrica più esibita, idolatrata, manipolata e abusata dell’intero universo digitale. La vedi ovunque: sotto ogni video, post, reel, story, shorts, tweet, thread o qualsiasi altro feticcio del contenuto contemporaneo. Il messaggio subliminale è chiaro: più views hai, più vali. Più vali, più sei. Eppure, sotto la superficie di questo numero apparentemente oggettivo si nasconde una truffa degna di Wall Street nei tempi d’oro del subprime.
Non è un’opinione: è un fatto. I views sono bugie con l’abito della verità. Sono il risultato di metriche arbitrarie, gonfiate e ridisegnate da piattaforme che hanno tutto l’interesse a venderti un’illusione di successo. Facebook, per esempio, è stata beccata a gonfiare intenzionalmente i numeri per convincere i creator a investire nei video nativi, salvo poi finire coinvolta in cause legali per frode. Ma è solo la punta dell’iceberg.
L’ AI ruba, noi paghiamo: la stampa scende in guerra contro l’intelligenza artificiale Stop AI THEFT

Nell’era in cui l’intelligenza artificiale non dorme mai e si nutre di tutto ciò che tocca, anche i padroni dell’informazione — quelli veri, non gli influencer da due soldi — hanno deciso di smettere di porgere l’altra guancia. Centinaia di editori, tra cui mostri sacri come The New York Times, The Washington Post, The Guardian, e la sempre acida Vox Media (The Verge incluso), hanno lanciato questa settimana una campagna di fuoco: Support Responsible AI. Il tono? Più da guerra fredda che da iniziativa civile.
Siamo entrati nell’era del “Grande Tradimento Digitale”, e questa volta non è una metafora. È un urlo collettivo che risuona da ogni angolo della rete: “Google ci ha traditi”. È il pianto amaro di editori indipendenti, gestori di blog, piccole testate giornalistiche e siti verticali di nicchia. Tutti accomunati da un destino cinico: essere stati prima nutriti, poi bruciati vivi, da un algoritmo che cambia umore più spesso di un trader sotto metanfetamina.
Google, il buon vecchio motore di ricerca, è diventato qualcosa di diverso. Ora si comporta più come un oracolo ermetico alimentato da AI, dispensando risposte pronte in stile chatbot e riducendo a macerie il traffico organico che una volta distribuiva come un re magnanimo. La partita non è più tra chi scrive meglio, chi indicizza meglio, chi ha più backlink. No. Ora il gioco è truccato. Il nuovo sfidante si chiama SGE, Search Generative Experience, ed è l’intelligenza artificiale conversazionale di Google che risponde direttamente agli utenti. Sintetizza, interpreta e cancella la necessità stessa di cliccare su un link.
Microsoft ha appena spalancato una porta sul futuro del gaming, e dentro non c’è l’Eden, ma piuttosto una distopia tecnologica che sa tanto di laboratorio segreto di Redmond. La nuova creatura si chiama Muse AI, e non è un semplice giocattolo nerd: è una macchina pensante in grado di generare gameplay. Sì, hai capito bene. Non livelli progettati da umani o nemmeno scene suggerite da prompt: gameplay generati interamente da un modello neurale.
Il primo assaggio di questa mutazione arriva in forma di reliquia cyberpunk: un Quake II ricostruito in browser, visibilmente sfigurato, come se fosse passato attraverso un sogno febbrile dell’AI. È la tech demo che Microsoft ha messo online come parte dell’iniziativa Copilot for Gaming, ed è più un teaser allucinato che un’esperienza concreta. Pixel sfocati, frame rate migliorato rispetto all’originale demo a 10fps (ora siamo a 640×360, non esattamente 4K), e sessioni di gioco a tempo determinato. Più Black Mirror che Xbox Live.
Disney ha appena sganciato la bomba visiva che aspettavamo (più o meno) da tredici anni: il primo trailer di Tron: Ares, seguito tanto atteso – e a lungo congelato in carbonite creativa di Tron: Legacy. Un trailer da un minuto e mezzo che, come ogni buon teaser moderno, non spiega quasi nulla ma urla tutto.
Nell’era dei reboot, sequel, prequel e “requeli”, questa nuova iterazione della saga cyber-mitologica sembra voler finalmente varcare il confine tra la griglia e la realtà. Jared Leto, in perfetta modalità transumanista, interpreta Ares: un Programma diventato carne. O forse, vista la sua aura disturbante, carne diventata codice? Non ci è dato saperlo, ma lo vediamo sfrecciare su una light cycle in mezzo a una città notturna, braccato da poliziotti. Uno di loro viene tagliato in due da un’onda luminosa: la firma visiva di Tron, qui ricaricata con intenti decisamente più bellici.
Nel cuore della sfida tecnologica globale, Roberto Cingolani, una delle voci più influenti nel panorama della difesa e della transizione tecnologica europea, ha espresso più volte l’urgenza di un’azione concreta per rafforzare la posizione dell’Europa nel settore spaziale. Con l’incredibile ascesa di SpaceX di Elon Musk, il mondo assiste a una rivoluzione nell’esplorazione spaziale, con Musk che ha portato la corsa spaziale privata a un livello mai visto prima. Tuttavia, la posizione dominante della sua azienda potrebbe non essere facilmente sfidabile, e Cingolani sa che l’Europa deve rispondere con forza e coesione. Ma come? La risposta potrebbe risiedere nella creazione di un consorzio spaziale europeo che unisca forze, risorse e competenze in un fronte unito.
I principali innovatori nel campo dell’intelligenza artificiale stanno adottando sempre più sistemi di IA agentica, progettati per pianificare ed eseguire compiti complessi con un’interazione umana minima. Tuttavia, manca ancora un framework strutturato per documentare i componenti tecnici, gli utilizzi previsti e le misure di sicurezza di questi sistemi. Per affrontare questa necessità, abbiamo creato l’AI Agent Index, il primo database pubblico dedicato alla raccolta e alla documentazione delle informazioni sui sistemi di IA agentica attualmente operativi.
Nel panorama in continua evoluzione della codifica assistita da intelligenza artificiale, il misterioso modello Nightwhisper ha suscitato l’entusiasmo della comunità tecnologica. I dettagli che trapelano suggeriscono che questo modello, che sembra essere una novità di Google, potrebbe segnare un’importante evoluzione, probabilmente in grado di superare persino i modelli già avanzati come Gemini 2.5 Pro. Le prime recensioni dei tester parlano di un sistema che gestisce attività di sviluppo software in modo superiore, aumentando le aspettative e alimentando le speculazioni su cosa potrebbe essere veramente questo nuovo strumento.
Nintendo ha finalmente annunciato la Switch 2, la sua prima nuova console in otto anni, fissando l’uscita per il 5 giugno 2025. Con un prezzo di partenza di 450 dollari negli Stati Uniti, la nuova console costa significativamente di più rispetto ai 300 dollari della Switch originale del 2017. Il colosso giapponese dei videogiochi scommette che l’evoluzione della sua console ibrida gli permetterà di mantenere la leadership nel mercato, ma sarà sufficiente per convincere i giocatori a fare l’upgrade?
Un salto generazionale o una versione “Pro” sotto mentite spoglie?
Adobe ha deciso di spingere il pedale sull’intelligenza artificiale, e lo fa aggiornando Premiere Pro con funzionalità che sembrano uscite da un film di fantascienza. La versione 25.2 del celebre software di montaggio video introduce strumenti avanzati per localizzare, tradurre ed estendere i filmati, portando alcune delle innovazioni più attese fuori dalla fase beta e mettendole finalmente a disposizione di tutti gli utenti.
di Redazione Tech
I grandi modelli linguistici (LLM) come ChatGPT hanno rivoluzionato il modo in cui interagiamo con l’intelligenza artificiale, ma non sono privi di limiti. Uno dei problemi più critici è la generazione di contenuti “allucinati”, ovvero informazioni false o inventate presentate come vere. Questa tendenza rappresenta un rischio in contesti dove la correttezza fattuale è essenziale, come in ambito medico, giuridico o giornalistico.
Un team di ricercatori della Wroclaw University of Science and Technology e dell’University of Technology Sydney ha recentemente presentato FactSelfCheck, un innovativo metodo per identificare le allucinazioni a livello di singoli fatti, anziché di frasi o paragrafi. Il sistema si basa sulla costruzione di grafi della conoscenza (knowledge graph), dove ogni fatto è rappresentato come una tripla (soggetto, relazione, oggetto). Ad esempio, (“Albert Einstein”, “premio Nobel”, “1921”).
Builder.ai, la grande illusione dell’intelligenza artificiale e il fallimento della promessa no-code
Quando si parla di startup AI, Builder.ai era quella luce brillante che tutti sognavano di inseguire: valutata oltre 1,3 miliardi di dollari, con investitori come Microsoft e il Qatar Investment Authority pronti a versare milioni per cavalcare la rivoluzione no-code. La sua missione? Semplice, ambiziosa, quasi utopica: democratizzare lo sviluppo di app, trasformare chiunque in uno sviluppatore, grazie a una piattaforma no-code alimentata dall’intelligenza artificiale. Suona bene, quasi troppo bene.
Ma qui, dietro la facciata patinata, emerge la solita storia del grande bluff tecnologico. Non è raro vedere startup trionfare sul marketing e sulle buzzword, ma Builder.ai ci mostra quanto sia fragile questa illusione. Perché la realtà, amara e implacabile, racconta un’altra storia: gran parte del lavoro “AI” era in realtà svolto da sviluppatori umani dietro le quinte. Una scena che sembra uscita da un episodio di “MIB” — la tecnologia promessa come autonoma e rivoluzionaria si rivela dipendere da un esercito di programmatori che, come marionette invisibili, muovono i fili.
È un enorme errore.
Esistono decine di piattaforme migliori che possono aiutarti a trovare lavori remoti ben pagati.
Ecco 13 siti che offrono stipendi in USD per posizioni remote:
L’intelligenza artificiale non sta solo rivoluzionando il mondo del lavoro e della creatività, ma sta trasformando in profondità anche l’industria pubblicitaria. E se pensavi che gli annunci personalizzati fossero già abbastanza inquietanti, preparati: stanno per diventare ancora più subdoli, pervasivi e iper-mirate.
Nvidia, ha sperimentato pubblicità interamente generate dall’AI in collaborazione con colossi del settore come Unilever. Il concetto è semplice quanto diabolico: un’azienda carica una manciata di risorse creative e informazioni demografiche di base, dopodiché l’AI fa il resto, generando un numero infinito di varianti personalizzate per ogni singolo utente.
L’Intelligenza Artificiale (AI) sta ridefinendo il concetto stesso di guerra e, con esso, il pericolo di un conflitto nucleare fuori controllo. L’idea che una macchina possa prendere decisioni in ambito militare, in particolare nel contesto nucleare, fa tremare i polsi persino agli esperti di strategia. Eppure, la corsa all’AI militare è già una realtà consolidata, con Stati Uniti, Cina e Russia in prima linea, mentre il resto del mondo osserva con una combinazione di paura e impotenza.
Secondo John Tasioulas, direttore dell’Institute for Ethics in AI dell’Università di Oxford, la priorità dovrebbe essere una sola: garantire che le decisioni sull’uso di armi nucleari restino sotto il controllo umano. Il rischio non è tanto l’apocalisse robotica da fantascienza, ma una guerra atomica innescata da un malinteso, da un errore di calcolo o, peggio, da un algoritmo difettoso. L’AI, lungi dall’essere solo uno strumento difensivo, potrebbe rivelarsi il più grande fattore destabilizzante mai introdotto nella geopolitica moderna.
Un drone di fabbricazione russa è stato avvistato vicino a Ispra, in provincia di Varese, violando una «no fly zone» altamente sorvegliata. Secondo il Corriere della Sera, il velivolo avrebbe sorvolato per circa una settimana la zona del Joint Research Centre della Commissione europea, sul lago Maggiore. Il Centro comune di ricerca europeo ha rilevato il drone grazie a un sistema sperimentale per individuare velivoli sconosciuti. A marzo sono stati registrati almeno cinque passaggi, provocando l’allarme sicurezza.
Benvenuti nell’era in cui ogni vostro movimento, ogni decisione, ogni interazione è potenzialmente registrata, analizzata e archiviata. Se pensavate che il concetto di “privacy” avesse ancora qualche significato, Waldo 3.0 potrebbe essere la prova definitiva che vi sbagliate. Questo modello di AI di rilevamento avanzato è in grado di identificare e tracciare oggetti, veicoli, persone e infrastrutture, dalle immagini satellitari a quelle catturate da un drone a pochi metri dal suolo.
Ma non si tratta solo di tecnologia all’avanguardia per il monitoraggio urbano, la sicurezza pubblica o la gestione delle emergenze. Il vero problema è che ogni innovazione come questa sposta l’ago della bilancia sempre più verso un controllo totale, normalizzando una sorveglianza che una volta sarebbe stata considerata fantascientifica.
CoreWeave, il fornitore di servizi cloud specializzato in infrastrutture AI, ha recentemente affrontato un debutto in borsa tutt’altro che stellare. L’azienda aveva inizialmente previsto di vendere 49 milioni di azioni a un prezzo compreso tra 47 e 55 dollari per azione, con l’obiettivo di raccogliere circa 2,7 miliardi di dollari. Tuttavia, a causa di una domanda inferiore alle aspettative, l’offerta è stata ridotta a 37,5 milioni di azioni al prezzo di 40 dollari ciascuna, raccogliendo 1,5 miliardi di dollari e valutando l’azienda intorno ai 23 miliardi di dollari .
Il primo giorno di negoziazione non ha portato sollievo: le azioni di CoreWeave hanno aperto a 39 dollari, scendendo poi a circa 37 dollari, per poi chiudere alla cifra iniziale di 40 dollari . Questo andamento riflette una crescente cautela degli investitori verso le IPO tecnologiche, soprattutto in un mercato che inizia a mostrare segni di surriscaldamento nel settore AI.
Amazon ha deciso di sfidare Nvidia nel mercato dei chip per l’intelligenza artificiale (AI) con una serie di mosse strategiche che mirano a ridurre la dipendenza dall’attuale leader di mercato e offrire alternative più economiche e performanti ai propri clienti cloud. Questa iniziativa si concretizza attraverso lo sviluppo di chip proprietari, la costruzione di supercomputer avanzati e investimenti significativi in startup AI.
La startup cinese che ha sviluppato Manus, un agente AI che sta spopolando negli Stati Uniti, è in trattative con investitori, tra cui importanti venture capital americani, per una nuova raccolta di fondi. Si stima che la valutazione dell’azienda raggiunga i 500 milioni di dollari, un aumento di cinque volte rispetto alla valutazione precedente. Nonostante l’attenzione che Manus ha attirato, il contesto geopolitico rende la situazione decisamente più interessante di quanto possa sembrare a prima vista.
Manus, sviluppato dalla startup Butterfly Effect, è un agente AI che compie operazioni come prenotazioni di viaggio o analisi finanziarie semplicemente navigando su siti web. Il prodotto ha fatto breccia tra sviluppatori e dirigenti tecnologici grazie al suo debutto avvenuto a marzo in versione beta. La vera sorpresa? Il suo successo sta arrivando in un periodo in cui gli Stati Uniti stanno esaminando con crescente sospetto gli investimenti in tecnologia cinese, soprattutto quelli legati all’intelligenza artificiale. La crescita esplosiva di Manus e il crescente interesse per i prodotti AI cinesi, come nel caso di DeepSeek, potrebbero cambiare le dinamiche dell’ecosistema tecnologico globale.