Tag: google Pagina 1 di 10

Google testa panoramiche AI negli articoli di google news un cambiamento strategico nel rapporto tra motori di ricerca e giornali

    Google ha acceso i riflettori su una nuova frontiera dell’intelligenza artificiale applicata all’informazione: un programma pilota che introduce panoramiche di articoli generate da AI sulle pagine Google News di alcuni editori selezionati. In parole semplici gli utenti vedranno sintesi contestuali prima di cliccare sui titoli, con l’obiettivo dichiarato di offrire più contesto e maggiore coinvolgimento del pubblico.

    Cosa ha annunciato Google su Chrome “agentic”

    Google ha recentemente spiegato come intende rendere sicure le nuove capacità agentic di Chrome, ovvero quelle che permetteranno al browser di “agire per conto tuo”: prenotare biglietti, fare acquisti, compilare moduli.
    Il cuore del sistema è un modello critico: il cosiddetto User Alignment Critic, basato su Gemini, che verifica ogni azione proposta dal planner: se la critica ritiene che l’azione non serva allo scopo dichiarato dall’utente la blocca — e tutto ciò basandosi su metadati delle azioni, non sui contenuti completi della pagina.

    In parallelo viene estesa l’idea della “same-origin policy” (isolamento delle origini) al contesto agentic: con gli Agent Origin Sets si definisce per ogni task un insieme di origini “read-only” da cui leggere dati, e “read‑writable” su cui l’agente può cliccare o scrivere. Contenuti irrilevanti o potenzialmente pericolosi (ads, iframe non correlati, widget esterni) vengono esclusi.

    Project Aura e la nuova grammatica dell’Android XR

    Project Aura arriva come un sussurro sofisticato dentro un settore che ha perso l’abitudine alle sorprese reali. Metti da parte l’immagine ingenua degli smart glasses leggeri che promettono il futuro dal 2014 e puntualmente tradiscono. Qui si parla di un oggetto che rifiuta le etichette facili e costringe persino Google a coniare un neologismo: wired XR glasses. Il risultato è un ibrido che vive a metà tra l’ambizione di un headset e la discrezione di un paio di occhiali vistosi solo quanto basta per non sembrare finti. L’ironia è che, per la prima volta dopo anni di promesse, un dispositivo XR riesce a non farti sembrare un turista cyberpunk in gita al supermercato.

    Google Workspace Studio e la nuova illusione dell’automazione totale

    Molti (forse non ancora abbastanza) stanno sottovalutando l’arrivo di Google Workspace Studio.

    Google Workspace Studio è ufficialmente lanciato, ed è quello che chiami “sala di controllo”: un hub no-code dove qualsiasi dipendente (non serve essere sviluppatori) può creare agenti AI che interagiscono con Gmail, Drive, Chat e persino strumenti esterni come Jira, Salesforce, Asana. (vedi blog Google Workspace)

    Questi agenti sono alimentati da Gemini 3, il modello avanzato di Google, che non si limita a eseguire regole prefissate: ragiona, comprende il contesto, si adatta. Il workflow è costruito su tre concetti chiave: “Starters” (quando inizia l’agente: un’email ricevuta, una scadenza, ecc.), “Steps” (quello che l’agente fa: inviare email, aggiornare un documento…) e “Variables” (dati che l’agente estrae o genera, come nomi, numeri, risposte).

    Google e il futuro dell’AI personalizzata tra opportunità e sorveglianza sottotraccia

    Google non smette mai di sorprendere quando si tratta di trasformare le nostre abitudini digitali in materia prima per la sua prossima grande rivoluzione. La promessa è semplice solo in apparenza, un’AI che ti conosce così bene da diventare indispensabile. La realtà è che questa promessa assomiglia sempre più a un salto acrobatico sopra un confine delicatissimo, quello che separa il servizio dalla sorveglianza. Chiunque abbia ascoltato l’intervista di Robby Stein, VP of Product di Google Search, nel podcast Limitless, ha percepito che la parola chiave è personalizzazione, seguita da un bisbiglio un po’ meno comodo, accesso ai dati personali.

    Google possiede l’intero Stack e questo è il punto

    Google ha il vantaggio competitivo che molti sognerebbero: non vende solo chip, ma “chip + cloud + software + app”. Le sue TPU, invece di essere usate solo internamente, ora vengono offerte (e presto vendute) a clienti come Meta e Anthropic un salto strategico enorme. Secondo vari report, Meta starebbe negoziando con Google già per partire a noleggiare TPU via Google Cloud già l’anno prossimo, con piani per acquistare chip fisici nei propri data center a partire dal 2027.

    Anthropic non è da meno: ha un accordo da decine di miliardi per accedere fino a un milione di TPU, portando il suo potenziale computazionale a oltre 1 gigawatt entro il 2026.

    Google nested learning e la nuova era degli agenti intelligenti

    Parlare oggi di Nested Learning significa toccare un nervo scoperto dell’intera industria dell’IA, perché mette in gioco la promessa che tutti rincorrono e che nessuno ha ancora mantenuto davvero: superare il limite strutturale del catastrophic forgetting. Chi si occupa di modelli linguistici sa bene quanto sia frustrante vedere sistemi da miliardi di parametri funzionare come studenti brillanti incapaci di ricordare la lezione precedente. La ricerca di Google, con il framework HOPE, irrompe in questo scenario come un intruso elegante che non chiede permesso e ridisegna l’impianto teorico con una semplicità disarmante. Molti non hanno ancora compreso la portata della cosa, forse perché abituati ad aspettarsi rivoluzioni soltanto quando accompagnate da conferenze patinate e fuochi d’artificio. Qui invece la rivoluzione è silenziosa, chirurgica, volutamente destrutturata, ed è proprio questo che la rende pericolosamente affascinante per chi studia il futuro degli agenti autonomi.

    Google e la crisi di scala nell’intelligenza artificiale

    Google si ritrova a fare i conti con una verità che nessun colosso tecnologico ammette volentieri quando parla ai mercati. La macchina che ha costruito, una creatura fatta di algoritmi, data center, chip dedicati e aspettative infinite, sta crescendo più velocemente della capacità stessa dell’azienda di sostenerla. La chiamano crisi di scala, un termine che sembra innocuo, quasi tecnico, ma che allo stato attuale descrive uno dei momenti più delicati nella storia dell’infrastruttura digitale moderna. La keyword crisi di scala Google sintetizza perfettamente un fenomeno in cui l’ambizione supera la fisica, dove la domanda di servizi intelligenti corre a una velocità tale che persino un gigante abituato a riscrivere il futuro fatica a reggere il ritmo.

    Google Gemini e la sorpresa nascosta nelle inbox: quando l’opt‑out diventa un labirinto

    In un mondo in cui l’IA entra in ogni angolo delle nostre vite digitali, Google ha appena dimostrato quanto possa essere sottile la linea tra utilità e invasione percepita. Un’impostazione nascosta in Gmail, poco conosciuta e sepolta sotto livelli di menu che la maggior parte degli utenti non tocca mai, ha permesso a Gemini, il sistema di intelligenza artificiale di Big G, di analizzare email e calendari per fornire funzioni intelligenti, a meno che non si fosse effettuato l’opt‑out. La keyword qui è trasparenza e ogni dettaglio mostra quanto sia fragile la percezione di controllo che gli utenti credono di avere.

    L’evoluzione che cambia le regole: Google Gemini 3

    La notizia è deflagrante: a soli sette mesi dal rilascio di Gemini 2.5, Google DeepMind lancia Gemini 3, il suo modello di linguaggio più potente di sempre, e un salto che minaccia di ridisegnare il panorama dell’IA generativa. Non è solo un aggiornamento incrementale: è una dichiarazione di potenza. E, sì, ci arrivano dietro OpenAI con GPT 5.1 e Anthropic con Sonnet 4.5, ma la rapidità e la portata di questo rilascio dicono una cosa sola: Google non sta giocando per partecipare, ma per dominare.

    Secondo Google, il modello “base” è oggi disponibile nell’app Gemini e attraverso l’interfaccia di ricerca AI, ma la vera ciliegina è una versione “più pensierosa”, chiamata Gemini 3 Deepthink, pensata per gli abbonati a Google AI Ultra e in arrivo nelle prossime settimane, una volta completati ulteriori test di sicurezza.
    Tulsee Doshi, responsabile di prodotto per Gemini, definisce questo salto: “risposta con una profondità e una sfumatura che non avevamo mai visto prima.”

    Google fuori dal recinto mentre Buffett scioglie la catena

    È davvero un colpo di scena da prim’ordine: Alphabet, la società madre di Google, era stata per anni in quella che i mercati chiamavano “la doghouse” quel recinto rumoroso e ostico in cui le Big Tech finiscono quando gli investitori perdono fiducia o quando si agitano le acque regolatorie. E ora? Warren Buffett, il re del value investing, ha deciso di aprire il cancello. La sua Berkshire Hathaway ha comunicato di detenere 17,85 milioni di azioni Alphabet, per un valore di circa 4,3 miliardi di dollari.

    Google lancia il nuovo shopping conversazionale con l’intelligenza artificiale prima delle festività

    Google ha deciso di trasformare lo shopping online da un’esperienza spesso noiosa e ripetitiva in qualcosa di più naturale, fluido e, perché no, persino divertente. A pochi mesi dal picco natalizio, il colosso di Mountain View ha annunciato una serie di aggiornamenti basati sull’intelligenza artificiale che promettono di riscrivere il modo in cui acquistiamo online. Conversational shopping in Google Search, funzioni di acquisto integrate nell’app Gemini, il nuovo agentic checkout e un assistente capace di chiamare i negozi locali per verificare la disponibilità di un prodotto sono solo alcune delle novità introdotte.

    Google introduce private AI compute: la nuova frontiera della privacy nel cloud

    Google ha appena alzato l’asticella dell’intelligenza artificiale privata, e lo ha fatto con un nome che suona quasi come un ossimoro: Private AI Compute. Una piattaforma che promette di unire la potenza dei modelli Gemini nel cloud con la stessa sicurezza che finora era prerogativa dell’elaborazione on-device. In altre parole, Google vuole farci credere che l’AI possa essere allo stesso tempo iperconnessa e completamente privata. Ambizioso, forse anche provocatorio.

    Google ridisegna il futuro dell’intelligenza agentica con il nuovo introduction to agents blueprint

    Google ha appena rilasciato una versione aggiornata della guida “introduction to agents blueprint”, e sì: è un piccolo terremoto nel mondo dell’agentic AI systems. Si tratta di un documento tecnico, di circa 54 pagine, curato dal team Google Cloud AI, che esplora come progettare, implementare e governare agenti intelligenti su scala enterprise.

    All’incipit troviamo l’architettura dell’agente: come si collegano cervello, memoria e strumenti. Il cervello è ovviamente un grande modello linguistico (LLM) che fa da motore del ragionamento, mentre gli strumenti e le API fungono da “mani” operative. La guida chiarisce come orchestrare più agenti, come gestire deployment massivi in ambienti reali, come valutare le prestazioni e, ciliegina finale, come progettare loop di apprendimento auto-evolutivi. È presente anche un riferimento alla “AlphaEvolve” come design modellare per agenti adattivi.

    Nested learning: l’illusione profonda di un’intelligenza che finalmente impara a ricordare di Google

    C’è una frase che dovremmo tatuarci sulla mano ogni volta che parliamo di intelligenza artificiale: le macchine non dimenticano, ma smettono di ricordare. È la differenza tra archiviare e comprendere, tra memorizzare e imparare. Google, con la sua nuova ricerca presentata a NeurIPS 2025, ha deciso di colmare questo abisso con una proposta tanto ambiziosa quanto destabilizzante: Nested Learning, un paradigma che ridefinisce la struttura stessa del machine learning. Non si tratta di un nuovo modello, ma di un modo completamente diverso di concepire l’atto di apprendere.

    Malware che parla con i modelli: l’inizio di una nuova era criminale

    Advances in Threat Actor Usage of AI Tools

    La sensazione non è solo di disorientamento, è di ribaltamento. Malware che chiede aiuto all’intelligenza artificiale mentre è in esecuzione non è fantascienza: è la realtà che Google ha descritto come una svolta operativa. Il concetto è semplice nella sua pericolosità. Un eseguibile non porta più tutto il proprio cervello dentro la scatola, ma telefona a un modello esterno per farsi scrivere o riscrivere parti del codice, produrre funzioni su richiesta e mascherare i propri segnali di identificazione. Il risultato è un avversario che muta in tempo reale, capace di aggirare difese progettate per regole statiche.

    Apple compra cervelli: come un miliardo l’anno a Google svela la crisi d’identità dell’intelligenza made in Cupertino

    Apple ha deciso di comprare cervelli, e lo fa con la consueta eleganza del gigante che preferisce non sporcarsi le mani: un miliardo di dollari all’anno per affittare l’intelligenza artificiale di Google. Una partnership che, letta con attenzione, racconta molto più di quanto Cupertino voglia ammettere. Racconta la resa temporanea di un impero tecnologico che per anni ha predicato la superiorità del controllo totale, ma che ora si piega di fronte all’inarrestabile complessità del nuovo paradigma AI.

    Gemini Deep Research e la nuova frontiera dell’intelligenza aziendale di Google

    Esiste un momento preciso in cui l’intelligenza artificiale smette di essere un assistente e diventa un collega. Quel momento, per Google, si chiama Gemini Deep Research. Non è più il solito chatbot travestito da oracolo, ma un agente capace di pensare, leggere, scrivere e soprattutto collegare. Non risponde più soltanto alle domande, ma costruisce dossier, analisi di mercato e rapporti competitivi incrociando dati che vivono nelle nostre email, nei documenti, nelle chat e nel web. In altre parole, Gemini non cerca soltanto: elabora, interpreta e produce conoscenza strutturata. Una svolta silenziosa ma destinata a cambiare radicalmente il modo in cui un’azienda ragiona.

    Google rilancia su Anthropic per non restare indietro nella corsa dell’intelligenza artificiale

    Google sta valutando di spingere con forza su Anthropic, la startup fondata da ex ricercatori di OpenAI che ha dato vita alla famiglia di modelli linguistici Claude. Secondo Business Insider, il gigante di Mountain View sarebbe in trattative preliminari per un nuovo round di finanziamento che potrebbe far lievitare la valutazione di Anthropic oltre i 350 miliardi di dollari, cifra che trasformerebbe la società in una delle più costose e strategiche del settore. Una mossa che, tradotta in termini geopolitici dell’AI, significa soltanto una cosa: Google non intende lasciare il terreno a Microsoft e Nvidia.

    Google Maps con Gemini: la rivoluzione silenziosa del navigatore intelligente

    Google non sta solo aggiornando Maps. Sta fondamentalmente riscrivendo il concetto stesso di navigazione, trasformando quello che un tempo era un semplice strumento di orientamento in un copilota digitale dotato di intelligenza propria. Con l’integrazione di Gemini, l’assistente AI di nuova generazione, la mappa diventa finalmente conversazionale, predittiva e capace di rispondere in modo naturale, mentre il conducente guida, chiede, ascolta e decide in tempo reale.

    Il progetto Suncatcher di Google esplora l’alimentazione dell’intelligenza artificiale nello spazio

    Google definisce Project Suncatcher come un “moonshot” per “scalare il compute per il machine learning nello spazio”, facendo iniziare il ragionamento dal vantaggio energetico: un pannello solare in orbita può essere fino a 8 volte più efficiente rispetto alla Terra, grazie all’assenza di atmosfera, al favore di esposizione solare costante (orbita sincrona alba-tramonto) e alla possibilità di ridurre perdite dovute a nuvole o angoli solari sfavorevoli.

    Google superare i limiti dei modelli linguistici piccoli con supervised reinforcement learning

    Nella galassia dei Large Language Models, la promessa di intelligenza artificiale che ragiona come un umano si scontra con la realtà dei fatti: problemi che richiedono passaggi logici multipli restano spesso fuori portata, soprattutto per modelli open-source di piccola scala. La narrativa corrente di SFT e RLVR mostra rapidamente le sue crepe. Supervised Fine-Tuning eccelle solo quando può imitare rigidamente lunghi esempi, ma tende a fossilizzarsi in un token-by-token imitation, incapace di generalizzare. Reinforcement Learning con ricompense verificabili, invece, diventa un colabrodo quando le soluzioni corrette sono così rare da non emergere neanche dopo migliaia di tentativi.

    Che cosa è Pomelli (in sintesi visionaria)

    Pomelli è un’IA progettata per generare campagne di marketing coerenti con l’identità del brand, partendo da pochi input: il sito web aziendale (l’URL).

    Il workflow è questo:

    Pomelli scansiona sito, immagini, testi: costruisce un profilo “Business DNA” che include tono di voce, palette colori, font, stile visuale e coerenza narrativa. Propone idee di campagne (temi, messaggi, angoli creativi) in linea con quel DNA. Genera asset (copy, visual, post social, ads) modificabili dall’utente. Puoi ritoccarli, cambiare testi o immagini, e scaricare. Attualmente è in beta pubblica, disponibile solo in inglese, e solo per USA, Canada, Australia e Nuova Zelanda.

    Google e la sua prima pubblicità generata interamente da intelligenza artificiale

    Google ha appena firmato un piccolo grande spartiacque: la sua prima pubblicità creata interamente da un’intelligenza artificiale. Nessun creativo in carne e ossa dietro la telecamera, nessun regista, nessun storyboard. Solo algoritmi, dati e il nuovo motore Veo 3. Robert Wong, cofondatore del Google Creative Lab, ha spiegato al Wall Street Journal che non si tratta di un cambio di paradigma totale. Almeno non ancora. Google non intende produrre tutte le sue campagne con l’AI, ma il messaggio tra le righe è chiaro: il confine tra creatività umana e artificiale è ormai solo una questione di convenienza.

    Anthropic punta su un milione di TPU Google per sfidare Nvidia e dominare l’AI

    Giovedì, Anthropic ha annunciato un accordo con Google per l’utilizzo di fino a un milione di unità delle Tensor Processing Unit (TPU) di Google, un passo che potrebbe costare all’azienda decine di miliardi di dollari. Questo accordo segna una significativa espansione della capacità di calcolo di Anthropic, con oltre un gigawatt di potenza computazionale previsto online entro il 2026, sufficiente a soddisfare le crescenti esigenze del suo modello di intelligenza artificiale, Claude.

    Google spinge il gas con cattura: un rischio calcolato o salto nel baratro?

    Google ha appena annunciato un passo che sembra quasi una contraddizione in termini: finanziare una centrale a gas con cattura e stoccaggio del carbonio (CCS) per alimentare i propri data center, sostenendo così la crescita dell’intelligenza artificiale ma, allo stesso tempo, cercando di restare “verde”. Il progetto, chiamato Broadwing Energy, sorgerà a Decatur, Illinois, e Google si impegna ad acquistare la maggior parte dell’energia prodotta. Il salto è audace e carico di ambiguità.

    Google lancia Quantum Echoes e dichiara vantaggio quantico verificabile

    Qualche mattina fa, Google ha alzato la posta nella partita più strategica dell’era dell’informazione: ha annunciato che il suo nuovo chip quantico Willow, eseguendo l’algoritmo denominato Quantum Echoes, ha superato un supercomputer classico di circa 13.000 volte in un compito scientifico misurabile (non un compito fittizio). (Vedi Research+4) Il risultato è stato pubblicato su Nature e, per la prima volta nel campo, è stato definito “verificabile” (ossia un algoritmo quantico che altri sistemi quantici possono riprodurre con lo stesso risultato).

    La narrazione ufficiale parla di una svolta: il passaggio dalla teoria alla realtà testabile, dal “quantum supremacy” strumentale a un “quantum advantage” con senso applicativo. Ma quanto è vera, stabile e vicina all’uso commerciale questa svolta? Ecco il punto.

    OpenAI lancia ChatGPT Atlas e apre la guerra dei browser intelligenti

    Quando OpenAI decide di sparare un colpo, di solito fa centro. Stavolta ha puntato dritto alla prua di Google, lanciando ChatGPT Atlas, il primo AI browser capace di fondere la navigazione web con un’assistenza intelligente integrata. Non più solo chatbot o modelli linguistici, ma una piattaforma che riscrive la grammatica stessa dell’accesso al web. Un gesto calcolato, quasi arrogante, che rivela una strategia chiara: non più essere dentro internet, ma diventarne l’interfaccia.

    Google cloud lancia le VM G4 con GPU Nvidia RTX pro 6000 per AI industriale e generativa

    Google Cloud ha appena lanciato le sue nuove macchine virtuali G4, alimentate dalle GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. Questa mossa segna un significativo passo avanti nell’evoluzione delle infrastrutture cloud per l’intelligenza artificiale e la simulazione industriale. Le G4 VMs offrono prestazioni fino a nove volte superiori rispetto alle precedenti G2, grazie all’integrazione di GPU avanzate, CPU AMD EPYC Turin e nuove tecnologie di interconnessione. Inoltre, NVIDIA Omniverse e Isaac Sim sono ora disponibili come immagini di macchine virtuali nel Google Cloud Marketplace, offrendo soluzioni pronte all’uso per la creazione di gemelli digitali e la simulazione robotica. (annuncio Google Cloud)

    Deepsomatic, l’intelligenza artificiale di Google e UC Santa Cruz che vede le mutazioni tumorali invisibili anche ai migliori scienziati

    Quando Google Research e UC Santa Cruz dicono «abbiamo lanciato un modello AI che supera tutto» non è marketing, è guerra sui dati. DeepSomatic è il frutto dell’accoppiata fra l’esperienza in varianti genomiche di Google e il rigore bioinformatico dell’UCSC Genomics Institute. È stato presentato in un blog ufficiale Google come “un modello che identifica le varianti tumorali acquisite con precisione nei diversi dati di sequenziamento” (Visita Blog research.google). Nell’articolo ufficiale Google si legge che il lavoro è stato pubblicato su Nature Biotechnology con titolo: Accurate somatic small variant discovery for multiple sequencing technologies.

    Lava: l’AI che fa il tetris delle VM nei cloud (efficienza fino al 9 %)

    Google Research ha appena presentato LAVA (Lifetime-Aware VM Allocation), un algoritmo di scheduling con intelligenza artificiale che re-predice continuamente la “durata residua” delle VM in esecuzione per comprimere i server cloud come fosse un Tetris: l’obiettivo è ridurre lo spazio “sprecato” sui nodi e migliorare l’efficienza fino a qualche punto percentuale. (Scopri di più sul blog ufficiale di Google) (Vedi research.google)

    veo 3.1 Google spera possa dominare la guerra silenziosa dell’AI video con audio

    Inizio con un colpo secco: l’idea che un modello video generi audio credibile insieme all’immagine non è rivoluzionaria sul piano teorico, ma è difficilissima da far funzionare bene in ogni contesto. Con veo 3, Google ha già messo le basi: ambienti, dialoghi, effetti tutto generato internamente. Ciò che 3.1 promette è di spostare l’asticella dalla sperimentazione accademica alla praticità da studio domestico: audio vivo più editing granulare, durata maggiore, controlli più fini.

    Google e Amazon Web Services annunciano nello stesso giorno prodotti AI aziendali concorrenti


    Gemini Enterprise

    Si tratterà di sistemi di workspace AI sicuri, progettati per accedere esclusivamente a documenti e informazioni interne. Gemini Enterprise di Google e Quick Suite di AWS offrono entrambi agenti AI, chatbot e flussi di lavoro automatizzati.

    Eric Schmidt e il lato oscuro dell’intelligenza artificiale: quando i modelli imparano troppo

    Eric Schmidt, ex CEO di Google, ha lanciato un avvertimento che suona come un campanello d’allarme per chiunque creda ancora che l’intelligenza artificiale sia un giocattolo sofisticato ma inoffensivo. Durante un recente evento, ha dichiarato che i modelli di AI, siano essi aperti o chiusi, possono essere hackerati e manipolati per compiere azioni dannose. Non stiamo parlando di errori di codice o di bias etici, ma di qualcosa di molto più concreto: la possibilità che un modello addestrato per rispondere cortesemente alle nostre domande possa, se privato dei suoi limiti di sicurezza, imparare come uccidere una persona.

    Google shopping ti permette di «provare» scarpe con l’AI seduto sul divano

    Google ha annunciato che integrerà una funzione AI “try it on” per le scarpe direttamente su Google Shopping, così potrai farti un’idea di come starebbero sneakers, sandali o tacchi senza uscire di casa. In pratica carichi una foto intera del tuo corpo (non del piede) e l’IA sostituisce le scarpe presenti nell’immagine con quelle che stai considerando.

    Il sistema è in grado di “inventare” i piedi se necessario, dunque non serve fotografarli direttamente, solo un’immagine intera ben illuminata.

    Google ha ucciso Reddit.. che fine farà Rivista.AI

    La domanda che dovremmo chiederci è: quanta parte del tuo valore apparente è costruita su come gli AI ti “vedono”? Nel caso di Reddit, la risposta è: moltissimo. In una sola settimana, le citazioni di Reddit da parte di ChatGPT sarebbero passate dal 29,2 % al 5,3 %. Non per guasti, non per scandali, non per ristrutturazioni interne solo un aggiornamento silenzioso dell’indicizzazione Google avrebbe reso Reddit “meno visibile” ai modelli di AI. Wall Street ha letto “potenziale perdita di revenue” e Reddit ha perso il 15 % della sua capitalizzazione in pochi giorni.

    Google espande la modalità AI a più lingue

    A partire da oggi, verrà lanciata in “più di 35 nuove lingue e oltre 40 nuovi paesi e territori”, afferma Google (200)

    Gemini 2.5 Computer Use una mossa strategica nell’arena degli agenti autonomi

    Google ha appena aperto — in preview — un pezzo molto concreto del proprio arsenale agentico: Gemini 2.5 Computer Use. Il modello è pensato non più solo per “parlare” o “generare testo/immagini”, ma per interagire visivamente con interfacce software come un utente umano.


    In pratica: dare all’IA la capacità di cliccare bottoni, scrivere in campi, fare drag & drop, scrollare, ecc., in un workflow iterativo dove lo stato del browser (screenshot + URL + storico azioni) viene continuamente feedato al modello. Google sostiene che su benchmark “web / mobile control” questo modello batte le alternative, offrendo latenza ridotta e accuratezza competitiva.

    PASTA di Google e la nuova frontiera dell’apprendimento per rinforzo visivo

    C’è qualcosa di profondamente umano nel guardare un’immagine e dire “questa sì” o “questa no”. È un gesto primordiale, quasi infantile, ma Google Research ha deciso di farne la base di una rivoluzione nell’intelligenza artificiale generativa. Il progetto si chiama PASTA, un nome che sembra uscito da una cucina di Roma ma che in realtà nasconde un sistema di apprendimento per rinforzo capace di insegnare alle macchine a capire il gusto visivo delle persone.

    Il futuro della tua salute nelle mani dell’AI: scopri il personal health agent di Google che legge il tuo corpo meglio di te

    Google Research ha recentemente presentato un prototipo di agente sanitario personale basato su modelli linguistici di grandi dimensioni (LLM), progettato per analizzare dati provenienti da dispositivi indossabili quotidiani e da dati sanitari, come biomarcatori ematici, per offrire approfondimenti sanitari basati su prove e fornire un’esperienza di coaching personalizzata.

    Pagina 1 di 10

    CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie