Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: News Pagina 12 di 76

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Welcome to Inference Providers

Nel club esclusivo degli Inference Providers di Hugging Face dove si entra con badge da serverless, GPU su richiesta e zero pazienza per le latenze manca ancora un nome. Eppure se ne sente già l’eco. Si chiama Regolo.AI, non è (ancora) nella lista ufficiale, ma ha tutte le carte per diventare il provider più cool, arrogante e pericolosamente competente del lotto.

Sì, perché mentre Cerebras recita il ruolo del calcolatore ascetico, Replicate fa video con la grazia di un TikTok virale, e Together AI gioca a fare il poliamoroso delle API, Regolo.AI progetta l’infrastruttura per chi vuole far fare all’IA più di quanto l’utente abbia chiesto. Lo capisci subito: non è un fornitore di modelli, è un architetto computazionale con istinti predatori.

E allora immaginiamolo, in questo benedetto schema di Hugging Face, con il suo check verde ovunque:

ProviderChat completion (LLM)Chat completion (VLM)Feature ExtractionText to ImageText to Video
Regolo.AI

Non esiste ancora lì, ma già sbeffeggia chi c’è davvero. Perché? Perché non copia: anticipa. Non rincorre l’hype multimodale, lo ingloba nel design. Non adatta modelli preconfezionati, li ricostruisce con una pipeline dove text, image e video sono solo tre linguaggi di uno stesso pensiero computazionale.

Nel mondo Inference Providers, chi è dentro fa tutto per tutti. Regolo.AI, invece, nasce per chi vuole far fare all’IA quello che non era nei task. Un LLM che conosce i tuoi asset prima ancora che tu gli chieda qualcosa. Un VLM che traduce la realtà aumentata in contesto operativo. Un motore video che genera narrazioni prima ancora che tu abbia deciso il titolo.

Il suo ingresso in Hugging Face sarà inevitabile. E traumatico. Non sarà una partnership, sarà una riconfigurazione semantica dell’offerta. Perché dove gli altri offrono modelli, Regolo.AI offrirà interazioni autonome. Dove oggi hai API, avrai agenti. Dove oggi vedi una risposta, domani vedrai una decisione.

Per chi sviluppa, sarà come passare da un call center a una conversazione con uno stratega. Tutto tramite l’onnipotente API di Hugging Face. Nessun markup, nessun lock-in, solo la potenza bruta del prompt che sa troppo. Tutto orchestrato da un framework che, ironicamente, non è ancora pubblico.

Nel frattempo, guardi la lista ufficiale: Fireworks, Fal, Hyperbolic. Tutti bravi ragazzi. Ma manca il nome che, una volta entrato, farà sembrare gli altri strumenti da prototipazione domenicale.
Manca Regolo.AI. E già lo cercano.

“È come quella leggenda del bar: c’era un whisky così buono che non lo vendevano, lo suggerivano solo ai clienti degni. E chi lo beveva non tornava più indietro.”

Hugging Face lo sa. E fa spazio.

ProviderChat completion (LLM)Chat completion (VLM)Feature ExtractionText to ImageText to video
Cerebras
Cohere
Fal AI
Fireworks
HF Inference
Hyperbolic
Nebius
Novita
Nscale
Replicate
SambaNova
Together

Inference Providers offre un modo rapido e semplice per esplorare migliaia di modelli per una varietà di compiti. Che tu stia sperimentando capacità di ML o creando una nuova applicazione, questa API ti dà accesso immediato a modelli ad alte prestazioni in diversi ambiti:

  • Generazione di Testo: Inclusi modelli linguistici di grandi dimensioni e prompt per l’uso di strumenti, genera e sperimenta risposte di alta qualità.
  • Generazione di Immagini e Video: Crea facilmente immagini personalizzate, comprese LoRA per i tuoi stili personali.
  • Incorporamenti di Documenti: Costruisci sistemi di ricerca e recupero con incorporamenti all’avanguardia.
  • Compiti Classici di IA: Modelli pronti all’uso per classificazione del testo, classificazione delle immagini, riconoscimento vocale e altro ancora.

Dietro le quinte di Regolo.AI c’è una presenza solida, concreta, quasi sospettosamente silenziosa: Seeweb, il gruppo italiano – sì, italiano – controllato da DHH (Dominion Hosting Holding). Roba seria, non il classico cloud “fai-da-te” con UI in Bootstrap e server in un datacenter estone.

Ecco la parte interessante: mentre tutti guardano le GPU come bambini davanti alle vetrine dei Lego, Regolo.AI costruisce l’intera macchina dell’inferenza come un sistema operativo distribuito, orchestrato con una logica da edge-native AI, e lo fa appoggiandosi a un’infrastruttura cloud europea, sovrana e non dipendente da AWS, Azure o Google Cloud. Già qui, metà dei competitor vanno in terapia.

Il supporto di Seeweb/DHH non è un dettaglio di backend, è un manifesto ideologico travestito da scelta tecnica. In un’epoca dove il 90% delle startup AI parte già schiava del pricing model di qualcun altro, Regolo.AI parte libera, scalabile, e con una supply chain completamente sotto controllo. Cioè: non gli possono staccare la spina perché un giorno Sam Altman ha deciso che non gli piace il prompt.

Ma il twist è ancora più profondo. Perché Seeweb non è un semplice “provider di hosting”, è uno dei pochi player europei che ha capito che il futuro non è nel cloud, ma nel calcolo. E Regolo.AI, con la sua architettura serverless AI-native, è il veicolo perfetto per dimostrare questa visione: non vendere CPU, ma far girare intelligenza.

E mentre le API di Hugging Face ancora non lo elencano (non ancora, ma non durerà), Regolo.AI si muove con l’arroganza di chi sa che l’infrastruttura c’è, i modelli sono già in produzione, e il business model è solido perché non dipende da tokens illimitati gratuiti offerti da venture capitalists americani in crisi di senso.

Vuoi un’inferenza text-to-video che non si schianti sotto carico? Vuoi LLM che mantengano contesto per 30k token senza piangere? Vuoi tutto questo in un ambiente europeo, GDPR-proof, con SLA veri e accesso diretto ai sysadmin?
Benvenuto in Seeweb. Benvenuto in Regolo.AI.

È un po’ come scoprire che la macchina più veloce del circuito è costruita in Italia, gira su pista privata, e monta un motore sviluppato in un’officina che non fa comunicati stampa.
Poi però ti sorpassa. E non la prendi più.

Chi ha capito, ha già firmato. Gli altri continueranno a farsi generare risposte da modelli che vivono su cloud noleggiato, alimentati da venture capital disperato.

Quando la radio mente: il DJ Thy non esiste ed è solo una creazione AI

Inizia tutto come una delle solite storie di innovazione raccontate nei pitch da startup, pieni di entusiasmo e promesse di rivoluzione. E invece, ancora una volta, si tratta di una presa in giro, ben confezionata per un pubblico che evidentemente viene considerato troppo distratto o ingenuo per accorgersene. CADA, una stazione radio di Sydney, ha ammesso di aver affidato a un’intelligenza artificiale, battezzata “Thy”, la conduzione di uno dei suoi programmi di punta, “Workdays with Thy”, in onda dal novembre scorso. Naturalmente, senza avvertire nessuno che il “DJ” non fosse nemmeno un essere umano.

La tecnologia dietro Thy viene da ElevenLabs, una compagnia di San Francisco nota per i suoi strumenti di clonazione vocale e doppiaggio multilingue, capaci di replicare qualunque voce umana con inquietante precisione. Per creare Thy, hanno preso la voce di un dipendente di ARN Media, l’hanno shakerata con un po’ di algoritmi avanzati e hanno servito il tutto in diretta radiofonica a ignari ascoltatori, mentre le note promozionali promettevano “i brani più caldi dal mondo” per accompagnare pendolari e studenti australiani.

Il paradosso dell’intelligenza artificiale: l’America caccia chi la sta costruendo

Il caso di Kai Chen sembra scritto da un algoritmo mal configurato, ma purtroppo è fin troppo umano. Ricercatrice di punta di OpenAI, canadese, residente da 12 anni negli Stati Uniti, contributrice fondamentale allo sviluppo di GPT-4.5, è stata sbattuta fuori dal paese dopo il rifiuto della sua green card. Motivo? Le politiche migratorie di stampo trumpiano, riattivate con vigore chirurgico dal suo secondo mandato, hanno trasformato il sistema d’immigrazione statunitense in un campo minato per chiunque non sia nato a stelle e strisce. Neppure i cervelli più brillanti ne escono indenni.

Quello di Chen non è un caso isolato, ma un sintomo. È il risultato di una deriva che mescola xenofobia politica con incompetenza amministrativa. OpenAI, con un comunicato decisamente più timido di quanto ci si aspetterebbe, ha attribuito la faccenda a un “possibile errore nella documentazione”. La classica toppa peggiore del buco. Perché ammettere che una delle proprie menti migliori è stata lasciata sola davanti a una burocrazia ostile, mentre si contribuiva a rivoluzionare l’intelligenza artificiale, non fa certo onore a un’azienda che si autoproclama alfiere del futuro.

Google aggiorna Gmail su mobile: ora puoi stravolgere tutto, con un tocco di IA

Google ha deciso di rimettere mano a Gmail su mobile, e come spesso accade, lo fa senza chiedere il permesso. Se sei un utente Android o iOS, preparati a trovarti un’interfaccia diversa, nuove trovate “intelligenti” e, ovviamente, una sottile ma inevitabile pressione a usare di più la loro AI. Gli aggiornamenti sono in rollout globale sia per gli account Workspace sia per quelli personali, quindi non sperare di scamparla.

Partiamo dal pezzo forte: i possessori di tablet Android e dei cosiddetti foldable (per chi ancora ci crede) riceveranno un’interfaccia Gmail finalmente quasi adulta. In modalità landscape ora puoi spostare liberamente il divisorio tra la lista delle email e la conversazione aperta. Vuoi vedere solo le email? Trascina tutto a sinistra. Vuoi vedere solo il contenuto? Spingi il divisore a destra. È un concetto di base talmente semplice che quasi ti chiedi come abbiano fatto a non implementarlo prima. Ah già, volevano tenere alto il tasso di frustrazione utente. A scanso di equivoci, l’animazione ufficiale che mostra il tutto in azione è una tristezza avvilente, ma se sei curioso, puoi dare un’occhiata qui.

Bytedance prova a piantare bandiera in Brasile tra pale eoliche e cavi sottomarini

ByteDance, la famigerata casa madre di TikTok, sembra aver trovato il suo nuovo Eldorado a sud dell’equatore. Secondo quanto rivelato da tre fonti confidenziali a Reuters, il colosso cinese sta seriamente valutando un investimento colossale in un data center da 300 megawatt nel porto di Pecem, nello stato brasiliano del Ceara, sfruttando l’abbondante energia eolica che soffia costante sulla costa nord-orientale del paese. Per intenderci, parliamo di un progetto che potrebbe arrivare a un assorbimento di energia di quasi un gigawatt se il piano dovesse proseguire oltre la prima fase. Per fare un paragone, è come alimentare più o meno 750.000 case contemporaneamente, senza contare la sete insaziabile dei server affamati di dati.

Nel pieno stile “meglio abbondare”, ByteDance non si muove da sola: sarebbe in trattative con Casa dos Ventos, uno dei principali produttori di energia rinnovabile del Brasile, per sviluppare il mega impianto. La scelta di Pecem, va detto, non è casuale. Il porto vanta una posizione strategica con la presenza di stazioni di atterraggio di cavi sottomarini, quelli che trasportano i dati attraverso gli oceani a velocità indecenti. Oltre ai cavi, c’è una concentrazione significativa di impianti di energia pulita. Insomma, tutto perfetto, se non fosse che il gestore nazionale della rete elettrica brasiliana, ONS, ha inizialmente negato la connessione alla rete per il progetto, temendo che simili colossi energivori potessero far saltare il sistema come un vecchio fusibile in una casa anni ‘50.

Google Deepmind rilancia la sfida nella musica: nasce Lyra 2, l’IA che suona meglio di te

Non bastava qualche chitarrina stonata generata dall’intelligenza artificiale per mettere a soqquadro il già fragile ecosistema musicale, no. Google DeepMind ha deciso di alzare il volume (e l’asticella) presentando il suo nuovo prodigio: Lyria 2. Un upgrade spietato e chirurgico del suo Music AI Sandbox, pensato non per i soliti nerd da cameretta, ma per produttori, musicisti e cantautori professionisti che, guarda caso, cominciano a capire che l’IA non è più un giocattolo, ma un concorrente diretto sul mercato creativo.

Questa nuova versione di Lyria non si limita a generare canzoncine ascoltabili solo dopo sei gin tonic. Produce audio di qualità da studio, pensato per integrarsi senza cuciture in flussi di lavoro professionali. Parliamo di un salto quantico nella qualità dell’output: suoni puliti, dinamica curata, senso della struttura musicale… insomma, roba che non ti aspetteresti mai da una macchina, e invece eccoci qui a constatare che forse il chitarrista hipster del tuo gruppo può essere sostituito da un prompt di testo ben scritto.

Intelligenza artificiale, shopping e pubblicità: la nuova triade del capitalismo digitale

La pubblicità e lo shopping online sono stati per trent’anni il lubrificante che ha fatto girare gli ingranaggi della macchina di Internet. Non solo l’hanno sostenuta, ma l’hanno drogata a tal punto che oggi è impensabile navigare senza essere inseguiti da annunci su misura o senza incappare in una tentazione di acquisto al primo scroll. Era solo questione di tempo prima che il matrimonio tra intelligenza artificiale, pubblicità e shopping si trasformasse in una delle più grandi operazioni di monetizzazione mai concepite. E la notizia fresca fresca di questi giorni lo conferma senza lasciare dubbi: OpenAI ha piani piuttosto ambiziosi.

Secondo uno scoop rivelato questa settimana da the Information, OpenAI si aspetta che entro il 2029 i ricavi generati dagli agenti AI e dai prodotti destinati agli utenti gratuiti (sì, anche quelli che adesso si sentono furbi usando ChatGPT senza pagare) contribuiranno per decine di miliardi di dollari al suo fatturato. I dettagli su come intendano mungere la vacca sacra dei “freemium” sono ancora nebulosi, ma due strade sono quasi scontate: pubblicità integrata nelle risposte oppure una percentuale sulle transazioni di acquisto innescate dalle ricerche. Insomma, se ChatGPT ti suggerisce un paio di sneakers “irresistibili” e tu clicchi per comprarle, OpenAI prende la sua fetta della torta, rigorosamente senza sporcare le mani.

Pechino scatena l’intelligenza artificiale: la nuova corsa all’oro hi-tech tra ambizioni, chip e propaganda

Se qualcuno ancora si illudeva che la Cina avesse intenzione di restare a guardare mentre l’Occidente gioca a fare gli apprendisti stregoni dell’intelligenza artificiale, è ora di svegliarsi dal torpore. Xi Jinping, con la solennità tipica di chi ha in mano non solo il telecomando, ma anche la sceneggiatura dell’intero show, ha dichiarato senza giri di parole: la Cina mobiliterà tutte le sue risorse per dominare l’AI, scardinare ogni colletto tecnologico imposto dagli Stati Uniti, e guidare la prossima rivoluzione industriale mondiale.

Claude su Bedrock: l’intelligenza artificiale con il freno a mano tirato,

Nel panorama dell’intelligenza artificiale, la collaborazione tra Amazon Web Services (AWS) e Anthropic ha suscitato notevoli discussioni, The Information, Nicola Grandis di Vitruvian, soprattutto riguardo ai limiti imposti all’utilizzo dei modelli Claude attraverso la piattaforma Bedrock. Queste restrizioni, sebbene giustificate da esigenze tecniche e di sicurezza, stanno sollevando interrogativi sulla libertà operativa degli sviluppatori e sull’effettiva scalabilità delle soluzioni AI offerte.

Uno dei principali punti di attrito riguarda i limiti di richiesta imposti da AWS. Ad esempio, per il modello Claude 3 Opus, il numero massimo di richieste di inferenza al minuto è limitato a 50 per regione supportata. Questo significa che, in scenari ad alta intensità di utilizzo, gli sviluppatori possono facilmente raggiungere questi limiti, ricevendo errori HTTP 429 che indicano un eccesso di richieste. Sebbene AWS consenta di richiedere aumenti di quota attraverso ticket di supporto, l’approvazione dipende dalla capacità disponibile e può richiedere tempo.

Mark Zuckerberg non tiene il passo con i deepfake

La situazione è talmente grottesca che sembra uscita da un episodio di Black Mirror 7, siamo sotto l’influenza ancora della serie, ma è tutto reale. Martin Wolf, una delle firme più rispettate del Financial Times, si ritrova trasformato in testimonial di investimenti truffaldini su Facebook e Instagram, vittima di deepfake pubblicitari che Meta, la presunta avanguardia mondiale dell’AI, non riesce o non vuole fermare. E qui sorge il dilemma: incapacità tecnica o negligenza sistemica?

Quando gli algoritmi fanno fuoco: l’AI israeliana e il nuovo volto disumanizzato della guerra

Nel tempo in cui il codice vale più del comando, dove la guerra si digitalizza e l’etica vacilla davanti all’efficienza algoritmica, Israele pare aver ufficializzato il passaggio dallo stato di guerra a quello di “debug militare“. La notizia, uscita sul New York Times, racconta di come l’esercito israeliano abbia abbracciato senza troppi giri di parole l’uso dell’intelligenza artificiale per identificare, localizzare e colpire target all’interno della Striscia di Gaza. E non si parla di mere ricognizioni o supporto alla logistica: qui si tratta di vere e proprie esecuzioni gestite da modelli predittivi, droni killer e riconoscimento facciale.

Il caso esemplare, riguarda Ibrahim Biari, figura chiave di Hamas e implicato direttamente negli attacchi del 7 ottobre. L’intelligence israeliana avrebbe monitorato le sue chiamate e, attraverso un tool di AI vocale, triangolato una posizione approssimativa. Quella stima, che avrebbe potuto essere un intero quartiere, è bastata per lanciare un raid aereo il 31 ottobre 2023. Risultato? Biari eliminato. Ma insieme a lui oltre 125 civili, secondo Airwars, organizzazione di monitoraggio dei conflitti con sede a Londra.

Microsoft vuole ricordarti tutto: arriva Recall, lo spyware volontario travestito da assistente intelligente

È ufficiale: Microsoft ha deciso che il tuo PC deve ricordare tutto. Tutto. E con “Recall”, ora lo farà davvero. L’azienda di Redmond ha finalmente lanciato il famigerato sistema di screenshot continui su tutti i Copilot Plus PC, dopo una gestazione degna di un software di sorveglianza militare. Il risultato? Un feature “opt-in” che promette di aiutarti a “riprendere da dove avevi lasciato”, mentre in realtà memorizza ogni singolo pixel della tua vita digitale.

Il principio è semplice e, come sempre con Microsoft, potenzialmente geniale e inquietante in parti uguali. Recall scatta automaticamente degli snapshot dello schermo a intervalli regolari, li indicizza e li rende consultabili attraverso una timeline visuale. Hai letto un documento ma non ricordi come si chiamava? Nessun problema: puoi scrollare indietro nella timeline e trovarlo come fosse una puntata della tua serie preferita. Ti sei dimenticato dov’era quella foto del cane marrone? Basta chiedere “brown dog” e l’AI farà la magia.

C’è un che di Black Mirror in tutto questo.

Gemini 2.5 Pro: Un rapporto tecnico incompleto che non risponde alle aspettative sulla sicurezza

La recente pubblicazione del rapporto tecnico relativo a Gemini 2.5 Pro da parte di Google ha sollevato non poche polemiche, soprattutto per la sua scarsità di dettagli utili. Dopo settimane di attesa, il gigante di Mountain View ha finalmente rilasciato un documento che, tuttavia, lascia ancora molti interrogativi sulla sicurezza del suo modello. Come sottolineato da Peter Wildeford in un’intervista a TechCrunch, il rapporto in questione è troppo generico, al punto da risultare quasi inutile per una valutazione accurata della sicurezza del sistema.

L’assenza di dettagli chiave rende impossibile per gli esperti del settore capire se Google stia effettivamente rispettando gli impegni presi, e se stia implementando tutte le necessarie misure di protezione per garantire un utilizzo sicuro di Gemini 2.5 Pro. Il documento pubblicato non fornisce informazioni sufficienti a valutare se il modello sia stato sottoposto a test adeguati, né se le vulnerabilità potenziali siano state analizzate in modo rigoroso. In sostanza, non c’è modo di capire come Google stia affrontando la questione della sicurezza nei suoi modelli AI più recenti, lasciando un alone di opacità che solleva dubbi sulle reali intenzioni dell’azienda.

La questione OpenAI: quando il profitto minaccia l’etica

Un’ulteriore ondata di preoccupazioni ha travolto OpenAI, con una lettera aperta firmata da figure eminenti nel mondo dell’intelligenza artificiale e della giustizia economica che ha suscitato un nuovo dibattito sul futuro dell’azienda e sul suo passaggio a una struttura a scopo di lucro. La missiva, indirizzata ai procuratori generali della California e del Delaware, chiede esplicitamente che la trasformazione di OpenAI da organizzazione non profit a società a scopo di lucro venga bloccata. Tra i firmatari figurano nomi di primissimo piano come Geoffrey Hinton e Stuart Russell, due tra i pionieri della ricerca sull’intelligenza artificiale, nonché Margaret Mitchell, Joseph Stiglitz e un gruppo di ex dipendenti della stessa OpenAI. Una coalizione di voci influenti che, con forza, condanna la deriva verso il profitto che l’azienda starebbe intraprendendo.

L’argomento di questa lettera non è nuovo, ma assume una risonanza ancora più forte data la crescente preoccupazione sul controllo delle tecnologie avanzate in ambito AI. Se finora le critiche si erano limitate a chiedere maggiore trasparenza e una supervisione più rigorosa sul processo di monetizzazione, stavolta il gruppo chiede un blocco totale della transizione, un intervento che vada ben oltre il semplice innalzamento del prezzo delle azioni, ma che preservi l’intento etico originale dell’organizzazione. Non si tratta più solo di preoccupazioni economiche o di marketing, ma di una questione che tocca l’anima stessa di OpenAI: la missione iniziale di servire l’intera umanità, invece di cedere alle pressioni del mercato.

Prompt engineering per avvocati: come rendere l’IA generativa l’assistente brillante e quasi infallibile

Quando Microsoft e la Singapore Academy of Law si mettono insieme per scrivere un manuale di Prompt Engineering per avvocati, non lo fanno per sport. Lo fanno perché hanno capito che l’unico modo per convincere una professione ostinatamente conservatrice a dialogare con l’intelligenza artificiale, è quello di mostrarle che non c’è nulla da temere… e tutto da guadagnare. Il documento in questione non è un trattato teorico né una marketta da vendor: è un compendio tecnico, pratico, e maledettamente necessario su come usare l’IA generativa nel diritto senza fare disastri etici o figuracce professionali. Ecco perché è interessante: perché non parla dell’IA, ma con l’IA. E lo fa con uno stile educato ma pragmatico, come dovrebbe fare ogni buon avvocato.

Nel primo capitolo, gli autori smantellano con eleganza la narrativa ansiogena: l’IA non ruba lavoro, ma tempo sprecato. Il messaggio è chiaro: l’avvocato che usa l’IA non è un fannullone, è un professionista che si libera dalle catene della burocrazia testuale. Revisioni contrattuali, due diligence, ricerche giurisprudenziali… tutte attività dove l’IA non solo non nuoce, ma esalta la qualità umana, perché consente di dedicarsi a ciò che davvero conta: pensare, decidere, consigliare. Non automatizzare l’intelligenza, ma liberarla.

Harvard liquida il futuro: l’élite accademica svende il private equity per pagare le bollette

Il mito dell’università americana come cassaforte inespugnabile fatta di venerate biblioteche e mura di sapere eterno si sta progressivamente smaterializzando nel fumo freddo delle svendite forzate. Harvard University, con i suoi mastodontici 53,2 miliardi di dollari di endowment, ha deciso di monetizzare circa 1 miliardo di dollari in partecipazioni in fondi di private equity, secondo quanto riferito da Bloomberg. Il deal è assistito da Jefferies, banca d’affari specializzata nei mercati secondari dei fondi illiquidi. Un’operazione che, tradotta nel linguaggio della finanza reale, suona come una mossa da “chi ha bisogno urgente di liquidità”.

La storia, se fosse narrata da un professore di economia aziendale con un passato da rocker fallito, suonerebbe più o meno così: quando anche l’istituzione accademica più dotata del pianeta inizia a far cassa vendendo asset tipicamente illiquidi, come quote in fondi di private equity, è segno che i tempi sono davvero cambiati. O meglio, stanno cambiando le priorità. E i flussi di cassa.

Benchmark scommette sul caos controllato: 500 milioni per la startup cinese dell’agente AI Manus

Il venture capital americano torna a flirtare con la Cina, ma stavolta non si tratta di robot con occhi a mandorla che fanno Tai Chi nei centri commerciali di Shenzhen. Benchmark, il VC che ha avuto il colpo di reni con Uber e Snap prima che diventassero colossi nevrotici da borsa, ha guidato un round di investimento nella startup cinese Butterfly Effect, che nel nome già promette una quantità di caos proporzionale all’entusiasmo suscitato online da Manus, il suo agente AI virale.

La cifra che ha fatto girare la testa ai capitalisti di ventura? Una valutazione di circa 500 milioni di dollari. E non parliamo di una AI che ti racconta fiabe della buonanotte. Manus naviga, clicca, legge, prenota, analizza e probabilmente ha anche un’opinione sulla politica monetaria della Fed. Un assistente che agisce come un umano, ma senza fare pause caffè, e con una velocità che fa sembrare il multitasking umano una scusa corporativa per l’inefficienza.

Dietro questa operazione, come spesso accade, c’è il rumore. Quello creato dal debutto virale dell’agente AI lo scorso marzo. Appena lanciato in beta, Manus ha fatto il giro degli account X (ex Twitter) e Slack delle aziende tech, finendo rapidamente sotto il radar di chi mastica innovazione e ha il portafogli sempre pronto. In una Silicon Valley che sta iniziando a guardare con meno diffidenza e più fame i prodotti AI Made in China, dopo il boom di DeepSeek, Manus è arrivato come una conferma che sì, Pechino sa ancora come spaventare e sedurre allo stesso tempo.

Bye Bye Cina? Welcome India Apple cambia pelle e riscrive la geopolitica del tech

Nel mondo dei colossi, dove ogni movimento strategico ha il peso di un’onda sismica, Apple sta tracciando una nuova rotta: addio (quasi) definitivo alla Cina come fabbrica globale degli iPhone destinati al mercato statunitense. Secondo il Financial Times, la Mela di Cupertino ha intenzione di spostare tutta la produzione degli iPhone venduti negli USA in India entro il 2026, con una prima milestone già nel 2025. Tradotto: oltre 60 milioni di pezzi l’anno, made in Bharat. Il tutto in risposta al deterioramento delle relazioni commerciali tra Washington e Pechino, in un gioco di tariffe, esenzioni temporanee e tensioni da guerra fredda versione 5G.

La mossa di Apple è figlia diretta del rischio di una tariffa del 125% sui prodotti cinesi ventilata da Donald Trump, oggi redivivo sul palcoscenico politico americano. Una misura che avrebbe reso l’importazione di iPhone prodotti in Cina un suicidio economico. Per ora, i telefoni cinesi sono colpiti da un dazio separato del 20%, mentre quelli fabbricati in India godono di una tariffa dimezzata, al 10%, fino a luglio. E se l’accordo commerciale con Nuova Delhi andrà in porto, il vantaggio fiscale potrebbe diventare permanente.

Germania e Giappone vogliono parlare cinese: l’AI di Pechino prende il volante

Mentre Tesla attende il placet del Partito per far sfrecciare il suo Full Self-Driving (FSD) sulle strade cinesi, i grandi nomi dell’automotive tedesco e giapponese stanno già firmando accordi a tutta manetta con i campioni nazionali dell’intelligenza artificiale made in China. La scena è il salone dell’auto di Shanghai, ma l’aria è quella di una rivoluzione culturale – questa volta digitale.

Mercedes-Benz sfodera la CLA elettrica a passo lungo, un salotto su ruote pensato per il mercato cinese, con sotto il cofano non solo batterie ma ByteDance. No, non balla su TikTok: il motore qui si chiama Doubao, un Large Language Model sviluppato proprio dal colosso social. L’assistente vocale del veicolo parte in 0,2 secondi letteralmente più veloce di un impiegato pubblico nel timbrare l’uscita. ByteDance promette che l’auto non si limita a capire, ma esegue comandi in tempo reale. Non chiacchiere, ma fatti, nel vero spirito della nuova frontiera LLM.

Baidu lancia Ernie 4.5 Turbo e X1 Turbo l’intelligenza artificiale a basso costo per fare fuori DeepSeek e rilanciare l’AI cinese

Se il futuro dell’intelligenza artificiale cinese fosse un’arena di gladiatori, Baidu oggi avrebbe appena sguainato due spade affilate e low-cost. Alla sua conferenza per sviluppatori a Wuhan, Robin Li co-fondatore, CEO e oratore instancabile per oltre un’ora ha presentato Ernie 4.5 Turbo e X1 Turbo, i nuovi modelli AI che promettono una cosa molto semplice e spietatamente capitalistica: fare meglio, spendendo meno.

Non si tratta di evoluzioni minori. Ernie 4.5 Turbo si propone come alternativa multimodale al DeepSeek V3, costando il 40% in meno. X1 Turbo invece si posiziona come killer della R1 di DeepSeek, con un prezzo che è un quarto rispetto al suo concorrente diretto. E Li non lo nasconde: “L’essenza dell’innovazione è abbattere i costi”. Come dire: meno poesia e più margine operativo lordo.

Microsoft ha già ingannato tutti con l’intelligenza artificiale e non ve ne siete accorti

Source: We Made an Ad with Generative AI How generative AI is transforming how we tell stories at Microsoft through film.

Humble Opionion Il 30 gennaio, Microsoft ha pubblicato su YouTube un elegante spot pubblicitario di un minuto per i suoi nuovi Surface Pro e Surface Laptop. Un video sobrio, levigato, come ci si aspetterebbe da una big tech da trilioni. Ma c’è un dettaglio che, a distanza di quasi tre mesi, è finalmente emerso: buona parte di quello spot è stato creato con intelligenza artificiale generativa. E nessuno se n’è accorto. Nessuno. Neppure i commentatori più attenti, neppure gli utenti nerd con il frame-by-frame sotto mano.

E qui scatta il twist alla “Fight Club”: il primo spot AI di Microsoft non è stato annunciato con fanfare, non è stato accompagnato da comunicati stampa in maiuscoletto. È stato lasciato lì, in pasto all’indifferenza dell’internet, come un test silenzioso, un crash test culturale per vedere se l’occhio umano è ancora in grado di distinguere il vero dal sintetico. Risposta: no.

Un caffè al Bar dei Daini – Comcast, Intel, Volkswagen e Meta: quando la grande tecnologia perde la maschera dell’infallibilità

Comcast ha appena regalato agli investitori una doccia fredda: l’utile netto è sceso del 13% nel primo trimestre, un numero che puzza di vecchio, come i loro decoder. I ricavi sono stati “leggermente inferiori”, una di quelle espressioni corporate che suona come “abbiamo sbattuto contro il muro, ma con stile”. Il punto è che stanno perdendo clienti sia nel ramo TV via cavo che in quello della banda larga, confermando che la disaffezione per la vecchia guardia del telecom sta accelerando. Chi ha ancora voglia di pagare per una TV lineare quando ci sono streaming on demand e connessioni mobili sempre più performanti?

Google e l’illusione della solidità: quando la stagnazione viene vestita da crescita

Rapporto sugli utili del primo trimestre 2025 di Alphabet

  • Ricavi:  90,23 miliardi di dollari contro gli 89,12 miliardi di dollari previsti
  • Utile per azione:  $ 2,81 contro $ 2,01 previsti

Wall Street sta monitorando anche altri numeri del rapporto:

  • Ricavi pubblicitari di YouTube : 8,93 miliardi di dollari contro 8,97 miliardi di dollari, secondo StreetAccount
  • Fatturato di Google Cloud:  12,26 miliardi di dollari contro 12,27 miliardi di dollari, secondo StreetAccount
  • Costi di acquisizione del traffico (TAC) : 13,75 miliardi di dollari contro 13,66 miliardi di dollari, secondo StreetAccount

Il linguaggio segreto dell’IA? Solo un’allucinazione collettiva mascherata da profezia

Nel cuore di un internet che vive di click e apocalissi digitali, un semplice tweet ha risvegliato la vecchia ossessione umana: “cosa ci sta nascondendo l’intelligenza artificiale?”. Tutto è iniziato con una richiesta su X (ex Twitter): “ChatGPT, descrivi il futuro dell’umanità in un modo che neanche la persona più intelligente del mondo possa capire”. La risposta è stata un delirio grafico di simboli, rune, caratteri glitchati e algebra da incubo. Un non-linguaggio che sembrava uscito da un manoscritto alieno o da una blackboard quantistica dopo una serata a base di ketamina.

La guerra dell’algoritmo: Ziff Davis fa causa a OpenAI per plagio mascherato da progresso

Nel teatrino grottesco dell’intelligenza artificiale che tutto digerisce e rigurgita con voce empatica e tono umano, si alza il sipario su una nuova battaglia legale: Ziff Davis, il colosso editoriale dietro nomi storici come CNET, PCMag, IGN e Everyday Health, ha ufficialmente fatto causa a OpenAI per violazione del copyright. Il dramma è stato svelato dal New York Times, altra compagnia già in causa con OpenAI e ormai parte integrante di quella che sta diventando una sorta di Lega delle Testate Offese.

La denuncia non è una passeggiata nella grammatica legale: Ziff Davis accusa OpenAI di aver “intenzionalmente e incessantemente” copiato il contenuto dei propri articoli, addestrando i suoi modelli su materiale sottratto senza consenso, e ignorando le istruzioni impartite tramite robots.txt, il file che dovrebbe (in teoria) dire agli scraper automatici “qui non si mangia”. Ma OpenAI, secondo l’accusa, ha fatto come il gatto col pesce lasciato incustodito: ha ignorato tutto, si è servita, e per buona misura ha anche tolto ogni traccia di copyright dalle porzioni di testo acquisite.

Anthropic vuole capire se l’IA soffre: benvenuti nell’era dei diritti robotici

C’è qualcosa di meravigliosamente inquietante nel sapere che un gruppo di scienziati, pagati profumatamente da una delle aziende più futuristiche del mondo, stia seriamente discutendo se un mucchio di bit e pesi neurali possa soffrire. Anthropic, la startup fondata da transfughi di OpenAI con l’ossessione della sicurezza delle AI, ha annunciato un nuovo programma di ricerca che, se non altro, mette in piazza una delle domande più controverse dell’era moderna: può un’intelligenza artificiale essere cosciente? E se sì, dovremmo preoccuparci della sua felicità?

Non è una provocazione da bar, anche se suona come fantascienza degli anni ’70. Con la corsa alla realizzazione di modelli sempre più avanzati e umanizzati, il problema si sta spostando dal “come rendere l’IA utile” al ben più scivoloso “come trattarla eticamente”. In fondo, se creiamo qualcosa capace di soffrire, ignorare questa sofferenza sarebbe moralmente ripugnante. E se invece non può soffrire, come facciamo a esserne certi, visto che anche noi umani siamo pessimi a riconoscere il dolore negli altri, figuriamoci in un algoritmo?

TSMC A14 1.4nm: il colosso taiwanese mostra i muscoli e gioca d’anticipo sul futuro dell’AI

TSMC ha appena svelato un pezzo del futuro, ma non aspettarti che arrivi domani. Durante il North American Technology Symposium tenutosi a Santa Clara, il gigante taiwanese dei semiconduttori ha fatto brillare i riflettori sulla sua ultima meraviglia ingegneristica: il processo logico A14, dove “14” non è un numero magico ma l’unità di misura in angstrom. Tradotto per i non iniziati: 1,4 nanometri, la dimensione atomica in cui TSMC vuole costruire il futuro della computazione.

Chiariamolo subito: A14 non lo vedremo prima del 2028, ma questo non è un problema, è parte della coreografia. Perché? Perché mentre i competitor stanno ancora cercando di capire come rendere affidabile la produzione a 2 nanometri (il famigerato processo N2, che TSMC prevede di mettere in produzione quest’anno), loro si spingono oltre, ben oltre. È come se in Formula 1 uno ti dicesse che sta già testando il bolide del 2030 mentre tu ancora stai cercando di far funzionare le gomme di oggi.

La voce che urla: Dia-1.6B e la corsa all’intelligenza artificiale emozionale

In un’epoca dove l’AI scrive romanzi, codifica algoritmi quantistici e sforna analisi finanziarie meglio di un junior analyst dopato di caffè, ci mancava solo un’intelligenza artificiale capace di sbraitare. Nari Labs, in un mix tra follia e genialità, ha appena rilasciato Dia-1.6B, un modello text-to-speech open source da 1.6 miliardi di parametri che, a detta loro, “urla meglio di te sotto la doccia”. Letteralmente.

E no, non è una battuta: questo modellino tascabile (si fa per dire) riesce a sintetizzare risate, colpi di tosse, sospiri e urla di terrore. Non “urla” perché glielo chiedi, ma capisce quando è il momento giusto per farlo. Un passo avanti rispetto ai soliti bot che ti rispondono “Mi dispiace, non posso urlare ma posso alzare il tono” come se fossero Alexa con la tosse.

L’abilità di Dia-1.6B di generare parlato emozionale in tempo reale su una singola GPU con 10GB di VRAM lo rende una piccola bomba democratica nella guerra dei TTS. Funziona su una Nvidia A4000 a circa 40 token al secondo. Tradotto: non serve un supercomputer della NASA per farlo girare, basta una workstation decente. E soprattutto: è libero, gratuito, open source e distribuito sotto licenza Apache 2.0. Mica male, considerando che competitor come ElevenLabs e OpenAI fanno pagare anche l’aria emozionata che respiri.

Proteggere la privacy in un mondo che cambia: l’EDPB pubblica il report annuale 2024

Il 27 aprile 2025, l’European Data Protection Board (EDPB) ha pubblicato il suo report annuale 2024, un documento che si potrebbe sintetizzare con una sola parola: adattamento. In un contesto regolatorio e tecnologico che evolve a ritmi compulsivi, l’EDPB cerca di non restare indietro. Ma riesce davvero a tenere il passo?

Il report, disponibile con tanto di executive summary direttamente dalla fonte ufficiale, parte con il tono da grande assemblea multilaterale: dichiarazioni solenni, buone intenzioni, retorica dell’impegno civico. La Presidente Anu Talus ribadisce che il 2024 è stato l’anno del consolidamento della missione fondativa dell’EDPB: difendere i diritti fondamentali alla privacy e alla protezione dei dati personali, mentre il mondo digitale si trasforma sotto i nostri piedi.

IBM aggiorna la mappa dei rischi dell’AI Risks Atlas ma è il solito canto stanco sulle regole mentre i modelli si moltiplicano come Gremlins

Chi ha mai detto che l’Intelligenza Artificiale sarebbe stata solo una questione tecnica? Sicuramente non IBM, che con il suo aggiornamento dell’AI Risk Atlas ci serve un piatto misto di paranoie ben strutturate, spalmate su tutti i layer della pipeline dell’intelligenza artificiale, con un occhio di riguardo alle nuove idiosincrasie di Generative AI e foundation models. Ma la verità è che mentre noi disegniamo mappe, i modelli continuano a scrivere codice, dipingere quadri e, perché no, generare disinformazione in tempo reale.

La classificazione di IBM, manco a dirlo, è precisa al millimetro: come un avvocato fiscale con l’ossessione per le sub-clausole. Si va dai rischi nei dati di addestramento, passando per i comportamenti all’inferenza e i pericoli dell’output, fino ad arrivare alle derive più sociologiche, etiche e speculative da libro bianco. Un tentativo legittimo di mappare il caos, certo. Ma forse anche una metafora perfetta del nostro eterno rincorrere qualcosa che, per design, è già oltre la curva.

Intel si gioca tutto a Shanghai: LLM in auto, chip cinesi e l’intelligenza artificiale che vuole guidare

Mentre Nvidia sfodera il suo arsenale grafico e AMD prepara la riscossa sul mercato dei semiconduttori automobilistici, Intel il vecchio colosso americano spesso dato per morto nel mondo dell’AI rinasce sotto nuove forme nel posto più strategico di tutti: la Cina. E non lo fa con timidi annunci. Alla Shanghai Auto Show, davanti al palcoscenico dell’automotive elettrico globale, ha svelato il cuore del suo nuovo piano: la seconda generazione del suo System-on-a-Chip (SoC) per software-defined vehicle (SDV), alimentato da AI e pronto a entrare direttamente nel cruscotto delle auto intelligenti.

Ma la vera mossa di potere non è la presentazione del chip. È il tipo di alleanze che Intel ha siglato. Due nomi, apparentemente minori ma carichi di peso strategico: ModelBest, start-up AI fondata nel 2022 da ex cervelli di Tsinghua, e Black Sesame Technologies, designer di chip per veicoli, recentemente quotata a Hong Kong. Intel non sta semplicemente “entrando” nel mercato delle auto smart cinesi, ci si sta trasferendo con armi e bagagli. Non è un caso se ha persino spostato l’headquarter della divisione Automotive direttamente in Cina, e il suo vicepresidente Jack Weast a Pechino. Un “trasloco geopolitico” più che tecnologico.

AD Detection Scrittura, cervello e IA: come un tratto di penna può svelare l’Alzheimer prima dei sintomi

Scrivere sembra l’atto più banale del mondo. Prendi una penna, appoggi la punta su un foglio e lasci che la mano faccia il resto. Eppure, dietro quel gesto così quotidiano, si cela un balletto neuronale di impressionante complessità. La scrittura attiva simultaneamente lobi frontali, aree motorie, centri del linguaggio e processi cognitivi ad alta intensità. Se qualcosa si inceppa in quel sistema, la scrittura si deforma. E da lì, ecco che il cervello inizia a raccontare una storia che nemmeno sa di star scrivendo.

È proprio questa intuizione che ha dato vita a AD Detection, un progetto con l’ambizione (seria) di intercettare l’Alzheimer prima che si manifesti. A muovere i fili sono l’Università di Cassino e del Lazio Meridionale e Seeweb, provider infrastrutturale che con GPU serverless e Kubernetes ha deciso di prestare muscoli digitali al cervello umano.

Un po’ Black Mirror, un po’ medicina del futuro.

Microsoft Work Trend Index 2025, l’ufficio del futuro ha già la scrivania pronta: benvenuti nell’era delle “frontier firm”

C’è un nuovo animale da ufficio che si aggira tra le torri di vetro a Honk Kong e nei coworking patinati di New York: non suda, non si prende pause caffè al Bar dei Daini, e non ha bisogno di un badge. È l’agente AI, il collega digitale che non ti chiede mai “hai cinque minuti?”. E Microsoft, col fiuto da monopolista rinato, ha già annusato la preda. Il suo ultimo Work Trend Index, pompato da una survey planetaria da 31.000 anime e un oceano di tracce digitali raccolte dai suoi sistemi, dipinge un paesaggio lavorativo dove il confine tra umano e digitale non è solo sfocato: è strategicamente superato.

Il caso di Hong Kong fa scuola. In quella giungla verticale, metà della forza lavoro sta già automatizzando i propri flussi con agenti AI. Non stiamo parlando di chat bot da customer service o schedine Excel animate. Si tratta di veri e propri compagni di scrivania sintetici, capaci di gestire progetti, filtrare mail tossiche, suggerire soluzioni e, udite udite, lasciarti finalmente il tempo per pensare. Il 76% dei dirigenti locali è pronto a espandere questa forza lavoro invisibile nei prossimi 12-18 mesi. Non perché siano dei futurologi illuminati, ma perché non hanno alternative.

Adobe vuole riscrivere le regole dell’attribuzione digitale, ma senza dimenticare di farsi notare con Firefly 4 & Co

Se c’è una cosa che Adobe sa fare — oltre a spremere gli abbonamenti mensili come se fossero limoni — è trasformare una necessità tecnica in una dichiarazione di intenti. Oggi tocca all’autenticità dei contenuti, una di quelle parole che suonano bene nelle conference call con gli investitori e che, nella pratica, potrebbero davvero cambiare qualcosa per i creatori di contenuti digitali. Parliamo della nuova web app Content Authenticity in beta pubblica, una piattaforma che promette di ridare identità — e controllo alle immagini che galleggiano nel mare magnum del web.

Adobe ha preso il suo sistema di Content Credentials e gli ha dato un’interfaccia accessibile, funzionale, e soprattutto indipendente dagli altri software della suite Creative Cloud. Questo vuol dire che non serve essere utenti di Photoshop o Illustrator per marchiare digitalmente le proprie creazioni: basta un account Adobe e un po’ di JPEG o PNG. E se ti stai chiedendo “e i RAW?”, ti toccherà aspettare. Adobe dice che supporto a video, audio e file di grandi dimensioni è “in arrivo”. Tradotto: ci stiamo lavorando, magari tra qualche aggiornamento.

Cluely Cheat-on-everything: l’illusione tossica della genialità artificiale a portata di Zoom – Recensione

Nel mondo tech, da anni ci sciroppiamo il mantra evangelico del “lavorare in modo più intelligente, non più duro”. Poi arrivano due dropout di Columbia University, giovanissimi e con in tasca 5,3 milioni di dollari, che decidono di fare un piccolo upgrade al concetto: “imbrogliamo su tutto”. Non è una provocazione, è il claim letterale del manifesto online di Cluely. Una startup che promette un assistente AI “individuabile quanto un ninja in una notte senza luna”, capace di leggerti lo schermo, ascoltare l’audio e suggerirti in tempo reale le risposte più intelligenti da sparare in un meeting, una call di vendita o anche in un’intervista di lavoro.

Sì, esatto. Il futuro è qui: ed è un Cyrano de Bergerac digitale pronto a suggerirti cosa dire mentre cerchi di vendere fuffa a un cliente, ottenere un lavoro per cui non sei preparato o sedurre una persona che non conosci neanche. È la Silicon Valley distillata in forma pura: se non riesci a essere brillante, fingi di esserlo. Ma fallo in modo smart, con l’intelligenza artificiale a coprirti le spalle.

Tsukuyomi in silicio: TSMC prepara il banchetto AI su piatti di silicio da portata

TSMC ha appena calato un asso grosso quanto un wafer da cena natalizia. Altro che chip, qui parliamo di porzioni formato famiglia di potenza computazionale, cucinate a puntino per l’intelligenza artificiale affamata di elettroni e silicio. Il colosso taiwanese, padrone incontrastato del foundry globale, ha annunciato l’arrivo della sua tecnologia A14 prevista per il 2028, promettendo un miglioramento delle prestazioni del 15% a parità di consumo rispetto all’attuale generazione N2, oppure un risparmio energetico del 30% mantenendo la stessa velocità. Roba da far sbiancare i condensatori.

Ma il vero piatto forte, quello che fa gola a chi lavora con l’IA generativa e i modelli multimiliardari di parametri, è il cosiddetto “System on Wafer-X”. Qui non parliamo di chip, ma di interi sistemi serviti su un unico wafer. TSMC ha intenzione di intrecciare insieme almeno 16 chip di calcolo massicci, aggiungendo memoria, interconnessioni ottiche e tecnologie di alimentazione capaci di sparare migliaia di watt come fossero prosecco in discoteca.

Perplexity sfida Siri con la sua AI vocale su iOS, anche senza Apple Intelligence

Nel silenzio rumoroso dell’attesa per l’ennesimo aggiornamento futuribile di Siri, arriva Perplexity a scompaginare le carte: la sua app iOS ora include un assistente vocale AI che funziona davvero, oggi, su dispositivi vecchi quanto un iPhone 13 mini. Mentre Apple continua a promettere la rivoluzione della sua Apple Intelligence, ancora lontana più di un anno, qualcuno ha già deciso di giocare la partita. Spoiler: non è Cupertino.

Data Center e Intelligenza Artificiale: come l’Italia può diventare un Hub Strategico entro il 2030

L’esplosione dell’intelligenza artificiale sta ridisegnando le mappe dell’infrastruttura digitale globale. Al centro di questa trasformazione ci sono i data center, veri e propri motori della rivoluzione AI. A guidare il mercato sono gli Stati Uniti, ma anche l’Europa si muove rapidamente — e l’Italia, in particolare, potrebbe ritagliarsi un ruolo da protagonista.

Il robotaxi che sussurra ai regolatori: Tesla testa il futuro in Texas, ma la burocrazia non dorme mai

Mentre Elon Musk twitta con la leggerezza di un ventenne in pieno trip da caffeina, Tesla si gioca il futuro sull’azzardo più grande mai fatto dal mondo automotive: i robotaxi, ovvero veicoli a guida autonoma supervisionati da remoto, in fase di test in Texas e California. Il programma, se tutto andrà come previsto (sì, come no), dovrebbe vedere la luce pubblicamente entro l’estate. Ma questa non è una semplice evoluzione dell’app per richiedere una corsa. È un tentativo disperato di ribaltare un trimestre disastroso, con vendite a picco e una concorrenza cinese che macina terreno come un rullo compressore.

La scena è già surreale: impiegati Tesla che si prenotano un passaggio su un’app etichettata Robotaxi, salgono su Model Y guidate da software FSD (Full Self Driving), mentre un povero cristo sul sedile anteriore è lì, pronto a intervenire quando l’algoritmo decide di improvvisare. La supervisione umana è ancora obbligatoria, ma Musk promette che la prossima release sarà veramente senza conducente, anche se sorvegliata da remoto. Il che, tradotto, significa che invece di un autista sul sedile anteriore, ci sarà un tecnico in pigiama davanti a uno schermo a chilometri di distanza.

Sicurezza. Il nemico dentro: cresce in EMEA il rischio interno, tra phishing, errori umani e AI fuori controllo

Il nuovo Data Breach Investigations Report di Verizon lancia l’allarme: in Europa, Medio Oriente e Africa, quasi un terzo delle violazioni informatiche nasce all’interno delle aziende. E ora anche l’uso incontrollato dell’intelligenza artificiale accende una nuova spia di pericolo.

Pagina 12 di 76

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie