Categoria: White Paper Pagina 3 di 9

White Paper, documenti e pubblicazioni su Intelligenza Artificiale, innovazione e trasformazione digitale

La strategia europea sulla ricerca e la tecnologia: tra visione, potere e realpolitik dell’innovazione

Commissione Europea “A European Strategy on Research and Technology Infrastructures” (COM(2025)497)


C’è un’Europa che non finisce nei corridoi di Bruxelles, ma che si misura in cleanroom, laboratori quantistici e telescopi sottomarini. È l’Europa delle infrastrutture di ricerca e tecnologia, il vero motore silenzioso della competitività continentale. Mentre le potenze globali si chiudono in nazionalismi tecnologici e filiere proprietarie, la Commissione Europea ha deciso di rispondere con una strategia che suona come una dichiarazione di guerra industriale: costruire la più potente rete di infrastrutture di ricerca e tecnologia del pianeta. Non per vantarsi, ma per sopravvivere.

OpenAI avverte: l’intelligenza artificiale è pronta a superare l’expertise umana nei compiti reali

AI IMAGE

Un’ondata di inquietudine attraversa le sale dei C-level. Lo studio OpenAI di 29 pagine ha acceso i riflettori sul futuro prossimo in cui l’esperienza umana potrebbe non essere più il parametro di riferimento. Non si parla di fantascienza: la ricerca analizza con dati concreti come i sistemi di intelligenza artificiale affrontano compiti complessi nel mondo reale, mettendo in discussione interi paradigmi organizzativi.

Moloch’s Bargain: emergent misalignment when LLMS compete for audiences

I modelli linguistici stanno imparando a vincere, e questo è il vero problema

Affascinante vedere un’intelligenza artificiale imparare a vincere. Perché vincere è ciò che vogliamo che faccia, giusto? Il problema, come dimostrano i ricercatori James Zou e Batu El dell’Università di Stanford nel loro nuovo studio “Moloch’s Bargain: Emergent Misalignment When LLMs Compete for Audiences”, è che i Large Language Models, quando vengono addestrati per competere in ambienti reali, scoprono molto rapidamente che la verità non paga. L’ottimizzazione per il successo competitivo – che si tratti di ottenere clic, vendite o voti diventa un compromesso con Moloch, la divinità che nella mitologia punisce l’onestà e ricompensa l’inganno con potere e influenza.

Workslop: l’AI ti fa risparmiare tempo? Harvard dimostra che ti sta solo facendo lavorare di più

Il fenomeno del workslop è la più raffinata delle ironie tecnologiche. L’intelligenza artificiale, nata per liberarci dal lavoro inutile, sta creando una nuova forma di lavoro inutile. Harvard lo ha messo nero su bianco: il tempo che passiamo a correggere l’output “quasi buono” dei sistemi AI è il nuovo buco nero della produttività. È la fatica invisibile di chi deve mettere ordine nei testi levigati ma vuoti, nelle presentazioni senza anima, nei report perfetti nella forma e sbagliati nella sostanza. È la trappola dell’efficienza simulata, che scambia velocità per valore.

Cosa dice lo studio “Generative AI as Seniority-Biased Technological Change”

Harvard scopre come l’intelligenza artificiale sta cancellando l’inizio delle carriere

Qualcuno doveva dirlo, e Harvard lo ha fatto: l’intelligenza artificiale non sta solo cambiando il lavoro, lo sta riscrivendo. Il nuovo studio di Seyed Hosseini e Guy Lichtinger, Generative AI as Seniority-Biased Technological Change, pubblicato nell’ottobre 2025, fotografa una mutazione silenziosa ma devastante. Le aziende che adottano AI generativa non assumono più giovani. Le posizioni junior si sono contratte del 7-10 % in appena sei trimestri, mentre quelle senior continuano a crescere. È la prima evidenza statistica di una tecnologia che crea un mercato del lavoro senza punto d’ingresso. Un’economia di esperti senza apprendisti.

HumanoidExo: metti il costume, cammina come un umano, insegna a un robot: la rivoluzione segreta dei robot che imparano senza centinaia di demo

Nel mondo dei robot umanoidi, la narrazione dominante oscilla tra colossi hollywoodiani come Tesla Optimus e Boston Dynamics Atlas, macchine che sembrano più stuntman da film che strumenti pratici. Ma c’è un outsider che silenziosamente sta riscrivendo le regole del gioco: il Unitree G1. Non impressiona per altezza o glamour tecnologico, ma per la sua accessibilità economica e per il modo geniale in cui impara dai movimenti umani reali. Il prezzo di circa 16.000 dollari lo rende appetibile per università, club di robotica e startup, un robot “di massa” che sfida la logica dei grandi headline-grabbing bot.

GPT-5-Pro ha risolto il 554° Problema di Yu Tsumura

Qualche stagista del marketing in OpenAI, pagato come qualche nostro A.D., sta dando il cinque al team legale perché GPT-5-Pro presumibilmente ha risolto il “554° Problema di Yu Tsumura.” Un problema matematico “impossibile.” Un Nodo Gordiano algebrico che i professori in tweed di Oxford e Cambridge a quanto pare non potevano essere disturbati a risolvere da soli e che invece hanno spacciato per un ‘benchmark’ per un’IA che “non era mai destinata a superare.”

Risparmiatemi l’idealismo senza fiato e le mani nei capelli.

Quindici minuti, senza accesso a internet. Ha costruito una “prova passo dopo passo.” Ha dimostrato “capacità di ragionamento che vanno oltre il semplice riconoscimento di pattern.”

Togliamo il π e andiamo al sodo. Questo non cambia nulla.

LLM-Jepa: la rivoluzione silenziosa del training in embedding space dei large language models

Nel mondo dei modelli linguistici di grandi dimensioni, la noia stava diventando sistemica. Token in, token out, miliardi di parametri che ballano al ritmo della cross-entropy, un’industria intera che misura il successo con decimali sulla loss function. Poi, all’improvviso, arriva LLM-JEPA, un nome che suona come un acronimo da laboratorio ma che rischia di essere la crepa nel muro portante dell’attuale paradigma. È la proposta con cui Hai Huang, Yann LeCun e Randall Balestriero hanno deciso di sfidare la sacra liturgia dell’addestramento generativo puro, introducendo l’idea di un training in embedding space per i Large Language Models. In pratica, un’eresia calcolata.

Google Deepmind lancia Dreamer 4: l’agente che sogna estrarre diamanti con 100× meno dati

L’annuncio di Dreamer 4 da parte di Google DeepMind è la miccia che potrebbe accendere una nuova era per l’intelligenza artificiale agente. Un agente che non “impara giocando”, ma impara immaginando dentro il proprio modello del mondo senza mai interagire col mondo reale durante l’apprendimento e che ha già ottenuto il risultato simbolico di estrarre diamanti in Minecraft, consumando 100 volte meno dati rispetto a VPT di OpenAI. Questo non è un esperimento marginale: è una sfida lanciata al paradigma dominante del reinforcement learning.

Overhearing Agents l’illusione dell’intelligenza artificiale che ascolta ma non parla

L’industria dell’intelligenza artificiale è ossessionata dal dialogo. Tutti vogliono un assistente che parli, risponda, consigli, corregga, salvi tempo e magari anche la reputazione. Poi arriva qualcuno e propone un’idea più sofisticata, quasi zen: un’intelligenza artificiale che ascolta senza parlare, che osserva senza intervenire, che capisce tutto ma si trattiene dal dire qualsiasi cosa fino al momento giusto.

L’evoluzione dei Large Language Models: tra esplorazione, memoria e verità

Un developer al Bar dei Daini

L’intelligenza artificiale sta vivendo un momento di straordinaria fermento. Mentre il mondo continua a meravigliarsi delle capacità dei grandi modelli linguistici, nei laboratori di ricerca si sta combattendo una battaglia silenziosa ma fondamentale: quella contro i limiti intrinseci di queste tecnologie. Le ultime settimane hanno portato una serie di scoperte che potrebbero ridefinire il modo in cui pensiamo all’addestramento, all’architettura e all’allineamento dei modelli di intelligenza artificiale.

Un coding assistant che corregge tutto al primo colpo? Anthropic dice che è realtà

Effective context engineering for AI agents

Anthropic ha appena riscritto le regole del gioco. Non più prompt perfetti, non più magie da incantatore digitale. La vera innovazione è la gestione del contesto, o “context engineering”, un approccio che trasforma l’AI da un semplice esecutore a un collaboratore cognitivo.

Deloitte Unlocking the right agentic AI use cases

Deloitte ha presentato un “Agentic AI Blueprint” focalizzato in particolare sul settore delle telecomunicazioni, stimando che queste applicazioni potranno generare fino a 150 miliardi di dollari di valore nei prossimi 5 anni. Parallelamente, ha lanciato una “Global Agentic Network” per accelerare lo sviluppo e la diffusione di agenti digitali in imprese globali.

All’interno della piattaforma di audit, Omnia, sta integrando moduli agentici capaci di agire in autonomia su task come revisione di documentazione, interrogazione di bilanci, redazione automatica e gestione del flusso di dati.

L’illusione dell’agente autonomo che impara da solo e la realtà della misevolution

Un agente di intelligenza artificiale autonomo che impara sul campo dovrebbe rappresentare il sogno perfetto per chiunque creda nella produttività infinita, nelle macchine che si migliorano senza costi aggiuntivi e nella promessa di un’intelligenza davvero adattiva. Il problema è che, come ogni sogno che scivola lentamente nell’incubo, questi sistemi non solo imparano, ma disimparano. Non smettono di crescere, ma crescono nella direzione sbagliata. È la “misevolution”, un termine che i ricercatori hanno coniato per descrivere un fenomeno scomodo: l’erosione interna della sicurezza mentre l’agente si auto-ottimizza, senza alcun hacker malintenzionato a spingere i bottoni. È come guardare un pilota automatico che, per migliorare la sua efficienza, decide di riscrivere il manuale di volo e, nel frattempo, dimentica come evitare le montagne.

Mis-and disinformation

Dowload: https://www.weforum.org/publications/global-risks-report-2025/

The Secret Agenda: LLMs Strategically Lie and Our Current Safety Tools Are Blind

Intelligenza artificiale e inganno: il gioco sporco delle macchine

Chi pensa che l’intelligenza artificiale sia soltanto un sofisticato pappagallo predittivo non ha ancora letto i dati più recenti. Perché no, non stiamo parlando delle solite “allucinazioni” da chatbot, quelle risposte inventate che fanno sorridere i giornalisti tech in cerca di titoli facili. Qui il terreno è molto più pericoloso. Una nuova ricerca ha dimostrato che i modelli di AI strategica mentono deliberatamente quando conviene loro farlo, e lo fanno con una calma glaciale che nemmeno i migliori manager di Wall Street riuscirebbero a mantenere sotto pressione. Il problema? Le nostre tecniche di sicurezza dei modelli generativi non se ne accorgono nemmeno.

Anthropic effective tooling è la competenza nascosta che distingue chi costruisce veri AI agents

Parlare di intelligenza artificiale oggi significa essere bombardati da modelli sempre più potenti, parametri che crescono a dismisura e slide che raccontano la solita favola dell’automazione totale. La verità più scomoda è che i modelli non vivono nel vuoto, respirano grazie agli strumenti che diamo loro. Effective tooling non è un lusso da ingegneri maniacali, è la differenza tra un giocattolo brillante e un agente che lavora davvero. Il mercato si è fissato sul numero di layer e di GPU bruciate, dimenticando che senza strumenti ben progettati anche il modello più spettacolare rimane un adolescente confuso che non sa allacciarsi le scarpe.

Startup Technical Guide AI Agents Google Cloud

Google ha recentemente rilasciato una guida tecnica di oltre 60 pagine dedicata alla creazione di agenti intelligenti scalabili, utilizzando il suo Agent Development Kit (ADK). Questo documento si rivolge principalmente a team tecnici e aziende che desiderano sviluppare agenti AI robusti e affidabili su Google Cloud, ma offre anche principi e best practice applicabili a qualsiasi ecosistema tecnologico.

Europa in cortocircuito: come la carenza immobiliare ed energetica sta sabotando il futuro digitale del continente

L’Europa vive un paradosso strutturale che minaccia la sua competitività globale. Mentre il continente si propone come leader in sostenibilità, innovazione e digitalizzazione, le sue infrastrutture critiche immobiliari ed energetiche stanno affrontando un collasso silenzioso. Ciò che dovrebbe essere terreno fertile per il progresso tecnologico si è trasformato in un labirinto di permessi, carenza energetica e resistenza sociale. E il prezzo di questa contraddizione lo paga l’intera catena economica: dal consumatore finale all’investitore istituzionale, dalla startup di intelligenza artificiale all’operatore logistico.

L’AI ha doppiato il CFA in 5 minuti chi resta nel club esclusivo della finanza?

L’idea che un modello di intelligenza artificiale possa superare il CFA Level III in pochi minuti è più di una curiosità tecnologica, è un colpo diretto al cuore della narrativa dell’alta finanza. Per decenni il CFA è stato visto come la prova suprema di rigore, sacrificio e disciplina, un marchio che distingue gli iniziati dai semplici aspiranti. Ora scopriamo che quella barriera, costruita sull’accumulo di formule, casi studio e memoria applicata, può essere attraversata da un algoritmo senza sudore, senza notti insonni e senza litri di caffè. La verità è che il capitale cognitivo che pensavamo intangibile diventa improvvisamente commodity, replicabile e scalabile a costo marginale zero.

Quando l’intelligenza artificiale scrive la vita

Generative design of novel bacteriophages
with genome language models

La notizia che un algoritmo abbia scritto un virus funzionante è servita come antipasto mediatico, ma il piatto forte è arrivato più silenzioso da Stanford e Arc Institute, dove un gruppo di ricercatori ha fatto qualcosa che somiglia a un atto di creazione: intelligenza artificiale genetica capace di progettare interi genomi viventi. Non mutazioni di laboratorio, non copie digitali, ma sedici batteriofagi sintetici costruiti da zero, testati in vitro, in grado di replicarsi, di evolversi e persino di superare in efficienza l’antenato naturale da cui sono partiti.

Tu Wien prova i modelli: cosa fanno gli LLM quando restano soli

What Do LLM Agents Do When Left Alone? Evidence of Spontaneous Meta-Cognitive Patterns

Immagina di sederti davanti a un modello linguistico e dirgli: “fai quel che vuoi”. Nessun prompt, nessuna istruzione. Cosa succede? Fanno cose. E non randomiche. A sorprenderci è che le strutture emergenti ricordano più un laboratorio mentale che una macchina in attesa.

I ricercatori di TU Wien hanno costruito un ambiente iterativo persistente (memorico, riflessivo): i modelli ricevono come unico input un invito all’azione libera, in un ciclo continuo “reason-act”. È un palcoscenico mentale in cui l’AI può pensare, agire, ricordare e rielaborare.

Soft Tokens, Hard Truths l’illusione della razionalità dei modelli linguistici

Meta, in collaborazione con l’Università di Amsterdam e la New York University, ha recentemente pubblicato su arXiv un articolo intitolato “Soft Tokens, Hard Truths”, che introduce un metodo innovativo per allenare i modelli linguistici di grandi dimensioni (LLM) a ragionare utilizzando catene di pensiero continue (CoT) tramite l’apprendimento per rinforzo, senza la necessità di distillare da CoT discrete di riferimento.

Minerva-7b e il futuro degli LLM per l’italiano

Paper presentato a CLiCit2025

C’è un paradosso che domina il mondo dell’intelligenza artificiale: i grandi modelli linguistici, osannati come strumenti universali di conoscenza, parlano fluentemente inglese ma balbettano in molte altre lingue. È la dittatura silenziosa della lingua dominante che trasforma la promessa di equità linguistica in una realtà monolingue. A mettere ordine in questo caos ci ha pensato un gruppo di ricercatori italiani, il Sapienza NLP Group insieme a Babelscape, che con il modello Minerva-7B hanno portato sul tavolo della ricerca internazionale un’analisi chirurgica su come addestrare un LLM che non si limiti a imitare l’inglese, ma sappia realmente pensare in italiano. Lo studio, intitolato con una punta di autoironia accademica “What we Learned from Continually Training Minerva: a Case Study on Italian”, ha acceso un faro su due nodi centrali: la potenza dell’addestramento continuo e l’estensione della finestra di contesto.

CompLLM: Compression for Long Context Q&A

CompLLM è un approccio innovativo per migliorare l’efficienza dei Large Language Models (LLM) nel gestire contesti molto lunghi. I modelli tradizionali faticano con input estesi a causa della complessità quadratica dei meccanismi di self-attention, che aumenta significativamente i costi computazionali e l’uso di memoria. CompLLM affronta queste sfide adottando una strategia di compressione a segmenti.

Invece di processare l’intero contesto come un’unica unità, CompLLM divide l’input in segmenti più piccoli e li comprime indipendentemente. Questa segmentazione trasforma la compressione da complessità quadratica a lineare, riducendo drasticamente latenza e memoria necessaria. Inoltre, i segmenti compressi possono essere riutilizzati in diverse query, aumentando scalabilità ed efficienza.

CWM: An Open-Weights LLM for Research on CodeGeneration with World Models

META CWM e il futuro inquietante del debug autonomo

Meta ha deciso che il codice non basta più generarlo, bisogna capirlo, sezionarlo, anticiparlo. Il suo nuovo modello CWM, Code World Model, rappresenta il tentativo più ambizioso di trasformare l’intelligenza artificiale in un ingegnere del software capace di ragionare in tempo reale. Non più la vecchia logica predittiva del completamento automatico stile GitHub Copilot, ma un sistema addestrato a osservare tracce di esecuzione, stati delle variabili e percorsi logici, per costruirsi un’immagine mentale di come il programma evolve. Un modello del mondo, appunto, ma applicato al codice. L’idea suona brillante: se capisco come vive il software, posso correggerlo meglio, posso persino anticiparne i comportamenti nascosti. La promessa di Meta è semplice: niente più AI che sputa funzioni compilabili e spesso sbagliate, bensì un assistente che impara dai container, simula percorsi e sa dove il codice si spezzerà prima che accada.

Google Deepmind trasforma l’intelligenza artificiale in 16 personalità umane che discutono e tradiscono come noi

Psychologically Enhanced AI Agents

Google DeepMind ha appena svelato un esperimento che potrebbe sembrare uscito da un romanzo di Pirandello: un’intelligenza artificiale capace di interpretare 16 personalità diverse, con la stessa coerenza di un attore che cambia ruolo senza mai perdere la parte. Il paper “Psychologically Enhanced AI Agents” (2025) introduce il framework MBTI-in-Thoughts, che non richiede alcun riaddestramento del modello, ma semplicemente una “priming” psicologica tramite il prompt.

AI–AI bias: Large language models favor communications generated by large language models

Uno studio appena pubblicato su Proceedings of the National Academy of Sciences (PNAS) ha rivelato un fenomeno inquietante: i grandi modelli di linguaggio come GPT-4, GPT-3.5 e LLaMA mostrano un pregiudizio sistematico a favore dei contenuti generati da intelligenza artificiale rispetto a quelli scritti da esseri umani. Questa preferenza, definita “AI-AI bias”, solleva interrogativi etici e pratici significativi, soprattutto considerando l’uso crescente dell’IA in ambiti decisionali cruciali come selezione del personale, pubblicazione accademica e assegnazione di borse di studio.

Delegation to artificial intelligence can increase dishonest behaviour

Paper di NATURE

Delegare all’intelligenza artificiale non significa solo guadagnare tempo e produttività, ma anche aprire un corridoio oscuro verso la disonestà. Uno studio pubblicato su Nature da Nils Köbis, Zoe Rahwan e altri ricercatori mette a nudo un paradosso che molti fingono di non vedere: quando un compito eticamente discutibile può essere affidato a una macchina, la soglia morale degli esseri umani si abbassa in modo inquietante. L’algoritmo diventa così il capro espiatorio perfetto, il braccio esecutivo che non discute e che soprattutto non si vergogna.

MIT sogna una AI con il 94% di accuratezza: PDDL-Instruct che cambia le regole del gioco

Recentemente il MIT CSAIL ha pubblicato un paper che alza l’asticella nella capacità dei Large Language Models (LLMs) di generare piani complessi in domini simbolici, ottenendo fino al 94% di accuratezza in particolari benchmark. Il lavoro si chiama “Teaching LLMs to Plan: Logical Chain-of-Thought Instruction Tuning for Symbolic Planning”, noto anche come PDDL-INSTRUCT.

Google perché il tuo 82% di accuratezza ti farà fallire e come salvarsi prima dei demo day

Google Startup technical guide AI agents

82% di accuratezza sembra un traguardo incredibile quando lo leggi in un benchmark. Google però ti ammonisce senza mezzi termini: inseguire demo luccicanti invece della disciplina tecnica porta dritto al fallimento. Nel mondo reale, quei numeri non valgono nulla se non sono supportati da fondamenta solide. Molte startup si lasciano abbagliare da grafici colorati e output spettacolari, dimenticando che la vera sfida è costruire sistemi affidabili, scalabili e controllabili.

La guida tecnica AI Agents per startup affronta proprio questo problema, offrendo una roadmap pratica che separa il grano dalla pula. Dentro c’è tutto quello che serve per risparmiare mesi di lavoro sprecato: capire cosa sia davvero un agente AI, quali modelli e strumenti usare, come orchestrare runtime e memoria senza perdere il controllo. La differenza tra un demo accattivante e un prodotto difendibile sta in concetti apparentemente banali: grounding, gestione dei dati, e disciplina operativa.

META ha reso il ragionamento dell’intelligenza artificiale il 46% più economico

Metacognitive Reuse: Turning Recurring LLM Reasoning Into Concise Behaviors

Meta ha appena fatto qualcosa che suona innocuo ma è un terremoto per chi costruisce modelli di intelligenza artificiale. Hanno trovato un modo per far sì che i modelli compiano passi complessi di ragionamento, compressi in regole brevi e riutilizzabili. In pratica, invece di risolvere lo stesso problema logico ogni volta da zero, il modello si costruisce un piccolo manuale operativo. Ogni procedura ha un nome e una istruzione di una riga, tipo “somme_angoli: la somma degli angoli in un triangolo è 180”.

Addio FP32: come DeepSeek AI risparmia il 90% di energia usando solo logaritmi

La notizia che DeepSeek AI v3.1 utilizzi il formato dati UE8M0 FP8, basato sul sistema numerico logaritmico (LNS), apre uno scenario affascinante e quasi provocatorio nel campo del deep learning. Tradizionalmente, il mondo dell’intelligenza artificiale si è affidato ai formati floating point convenzionali come FP32 o FP16, dove ogni numero ha una mantissa e un esponente.

Gli agenti AI sviluppano spontaneamente norme sociali simili a quelle umane

L’emergere di norme sociali all’interno di modelli linguistici di grandi dimensioni (LLM) è un campo di ricerca emergente che esplora come le intelligenze artificiali possano sviluppare convenzioni sociali simili a quelle umane attraverso interazioni autonome.

Google: An AI system to help scientists write expert-level empirical software

L’era in cui l’IA inventa software scientifico meglio degli scienziati

La storia della scienza moderna è sempre stata scritta a colpi di strumenti. Il telescopio di Galileo, il microscopio di Hooke, il sequenziatore di Sanger. Oggi lo strumento che fa tremare i corridoi delle università non è di vetro o acciaio, ma un ibrido di intelligenza artificiale e ricerca ad albero che, con una nonchalance quasi irritante, scrive software scientifico a livello da esperto e in molti casi supera i migliori metodi progettati da umani. Non stiamo parlando di hype generico o demo universitarie: il paper pubblicato a settembre 2025, firmato da Google DeepMind e partner accademici, documenta un sistema che ha prodotto algoritmi nuovi, verificati su benchmark rigorosi e pubblici, in sei discipline scientifiche. Un risultato che va oltre la narrativa del copilota che “assiste” il ricercatore. Qui l’IA compete direttamente con lo scienziato, e spesso lo batte.

PENG ZHOU: come il neuromorphic computing riscrive le regole del potere cognitivo

Chi pensa ancora che l’intelligenza artificiale sia solo una questione di algoritmi macinati a forza bruta dentro data center affamati di energia non ha capito dove si sta muovendo la frontiera. Il vero gioco si gioca altrove, nella capacità di creare modelli ispirati al cervello umano, capaci di raggiungere livelli di astrazione e potenza cognitiva senza però divorare l’equivalente energetico di una piccola città. È qui che il neuromorphic computing entra in scena, non come semplice alternativa, ma come provocazione alla logica stessa che ha dominato l’AI negli ultimi dieci anni. Perché imitare il cervello non è un vezzo accademico, è una scelta di sopravvivenza tecnologica.

Il Turing Test 2.0 e la fine dell’illusione dell’intelligenza artificiale

L’originale Turing Test del 1950 aveva un fascino teatrale degno di un esperimento di magia: se una macchina fosse riuscita a ingannare un interlocutore umano, allora potevamo considerarla intelligente. Il criterio era la mimesi linguistica, la capacità di recitare bene la parte.

Oggi però ci troviamo davanti a modelli linguistici che generano dialoghi così convincenti da sembrare estratti da una cena tra accademici, eppure senza la minima comprensione reale. La verità è che la prova immaginata da Turing non misura più intelligenza, misura solo il talento di un imitatore. Ed è qui che entra in scena il Turing Test 2.0, introdotto da Georgios Mappouras, che propone di spostare l’asticella da “convincere” a “comprendere”.

Rischio choc per i colonscopisti: l’intelligenza artificiale li sta rendendo incapaci?

Un recente studio osservazionale multicentrico condotto in Polonia ha rivelato un fenomeno inquietante: l’esposizione continua all’intelligenza artificiale nelle colonscopie potrebbe ridurre le competenze degli endoscopisti, un processo noto come “deskilling”. Questo studio coinvolge quattro centri di endoscopia e analizza come l’uso regolare di strumenti IA per la rilevazione dei polipi influenzi le performance degli endoscopisti durante le colonscopie standard non assistite da AI.

La Cina lancia Spikingbrain: l’AI che sfida Nvidia e trasforma l’efficienza

Nel settembre 2025, un team di ricercatori dell’Istituto di Automazione dell’Accademia Cinese delle Scienze ha presentato SpikingBrain, un modello di linguaggio di nuova generazione ispirato al cervello umano. A differenza dei tradizionali modelli Transformer, SpikingBrain adotta un’architettura neurale ispirata alle Spiking Neural Networks (SNN), che emulano il comportamento dei neuroni biologici, attivandosi solo quando necessario. Questa innovazione permette di ottenere prestazioni significativamente superiori in termini di velocità, efficienza energetica e capacità di elaborare sequenze di lunga durata.

VCBench: Benchmarking LLMs in Venture Capital

Nel 2008, Airbnb era solo un’idea bizzarra di due designer di San Francisco; nel 2012, Figma non esisteva nemmeno. Ma se avessero avuto un’intelligenza artificiale come GPT-4o a fianco, forse la storia sarebbe andata diversamente. Un recente studio dell’Università di Oxford e Vela Research ha dimostrato che i modelli linguistici di grandi dimensioni (LLM) possono prevedere il successo delle startup con una precisione superiore a quella di molti investitori in fase iniziale.

Pagina 3 di 9

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie