Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: Google Deepmind

Google Deepmind trasforma l’intelligenza artificiale in 16 personalità umane che discutono e tradiscono come noi

Psychologically Enhanced AI Agents

Google DeepMind ha appena svelato un esperimento che potrebbe sembrare uscito da un romanzo di Pirandello: un’intelligenza artificiale capace di interpretare 16 personalità diverse, con la stessa coerenza di un attore che cambia ruolo senza mai perdere la parte. Il paper “Psychologically Enhanced AI Agents” (2025) introduce il framework MBTI-in-Thoughts, che non richiede alcun riaddestramento del modello, ma semplicemente una “priming” psicologica tramite il prompt.

Google Deepmind Virtual Agent Economies

Economia degli agenti virtuali: quando i mercati diventano più intelligenti degli umani

Non è fantascienza. Non è più un laboratorio segreto da qualche azienda della Silicon Valley. È qui, sulla scrivania digitale di DeepMind, che una “sandbox economy” di agenti virtuali sta prendendo forma. Trenta otto pagine di blueprint che descrivono un mondo in cui agenti autonomi comprano, vendono, negoziano e coordinano risorse a velocità superiore a quella del pensiero umano. Non stiamo parlando di algoritmi che suggeriscono un film o ordinano una pizza. Stiamo parlando di entità digitali che partecipano a mercati autonomi, creano micro economie, si scambiano valuta virtuale, e, sì, possono anche fallire in flash crash più rapidi di quanto qualsiasi trader umano possa reagire.

Google Deepmind rilascia Perch 2.0: l’intelligenza artificiale che non dorme mentre ascolta la vita

Google DeepMind ha liberato nell’open source un update potentissimo: Perch 2.0, la versione dell’intelligenza artificiale specializzata nella bioacustica, addestrata su un dataset multi-tassonomico che va ben oltre i soli uccelli. Il modello è ora in grado di estrarre embedding di qualità superiore, offrire classificazioni “off-the-shelf” per migliaia di specie vocali e stupire con risultati che dominano i benchmark BirdSET e BEANS. Il colpo da maestro? Perch 2.0 supera i modelli marini specializzati nei tasks di transfer learning, pur volando senza quasi dati marini.


Non serve tradurre il mondo in silenzio quando puoi dargli un listener che incastra ogni rumore con precisione chirurgica. La faccia feroce dell’innovazione è che Perch 2.0 usa self-distillation, prototype-learning e un nuovo criterio di source-prediction, reinventando la classification supervisionata come arma fine-tuned e feroce.

Succede che foresti intere, oceani sconosciuti, si trasformano in dataset da interpretare meglio di chi studia i dati. Se vuoi contare cuccioli rari tra i canti degli uccelli o intercettare richiami impossibili, Perch 2.0 fa girare il mondo sonoro in un “embed-and-recognize” senza cerimoni. E ricordi quel plugin di open source che menzionavi, con vector search + active learning? Esiste ed è Hoplite: un sistema agile che saturi embedding, ricerca per somiglianze, etichetta e reclasma classifier nuovi in meno di un’ora (GitHub).

E se pensi che basti, aspetta. Il fratello marino SurfPerch, nato da DeepMind/Google insieme a citizen scientist che hanno ascoltato coralli per ore, già sorveglia le barriere coralline usando audio reef dove i pescatori non vedono, ma i microfoni sì.

La sinfonia delle foreste, degli oceani, persino dei bittern (q porco nome intelligente), è ora codificata in un modello open source che fa parlare la natura. Se fossi un conservazionista austriaco dormi tranquillo: abbiamo finalmente un sensor che capisce la vita quando parla.

AI ancestrale e il culto del neonato finto

C’è qualcosa di inquietante in Ancestra, il nuovo cortometraggio di Eliza McNitt prodotto da Darren Aronofsky insieme a Google DeepMind. Qualcosa che va oltre le immagini lisce e carezzevoli del cuore fetale sintetizzato, oltre i vaghi rimandi cosmici tra buchi neri e amore materno. È l’impressione che si stia tentando di trasformare il processo creativo in un diagramma di flusso ottimizzato, dove il dolore umano – in questo caso, la gravidanza a rischio della regista stessa – diventa una scusa nobile per uno showcase aziendale in stile TED Talk.

Google Deepmind l’Intelligenza Artificiale e la Memoria: Perché Comprendere Come Impara è Cruciale per Regolatori e Avvocati

L’intelligenza artificiale sta velocemente diventando parte integrante di ogni settore, dalla finanza alla medicina, dalle operazioni aziendali alla gestione dei dati. Ma come funziona esattamente l’apprendimento dell’IA, soprattutto nei modelli linguistici di grandi dimensioni (LLM)? La comprensione di questo processo non è solo una questione di curiosità accademica, è fondamentale per chiunque si occupi di regolamentare, interpretare e applicare le normative sull’IA. La recente ricerca di Zucchet et al., intitolata “How Do Language Models Learn Facts? Dynamics, Curricula, and Hallucinations” (2025), fornisce una panoramica fondamentale di come questi modelli apprendano e memorizzino i fatti e, forse ancor più importante, come possano produrre risultati errati che chiamiamo “allucinazioni”.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie