Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Cosa mangia davvero l’intelligenza artificiale nel 2025?

Reddit come cibo per l’intelligenza artificiale: un mix letale di contesto e caos che domina il cervello dei modelli linguistici nel 2025. Statista ha analizzato 150.000 citazioni di grandi modelli linguistici come Google AI Overviews, ChatGPT e Perplexity, svelando un menu di fonti decisamente poco neutro. Reddit è al primo posto, con un incredibile 40,1%. E se questo non vi mette subito in allarme, forse è il momento di rivedere la vostra fede nell’oggettività di queste intelligenze.

Nvidia e la corsa per il cervello delle macchine Cosmos Reason

Quello che Nvidia ha messo sul tavolo a SIGGRAPH non è un semplice aggiornamento di prodotto, è un messaggio diretto al futuro della robotica e dell’intelligenza artificiale fisica. Cosmos Reason, con i suoi 7 miliardi di parametri, non è l’ennesimo modello vision-language: è la dichiarazione che il ragionamento applicato ai robot non è più un esercizio accademico ma una commodity tecnologica pronta a scalare. Nvidia non sta vendendo soltanto potenza di calcolo, sta cercando di diventare l’orchestratore del “pensiero” delle macchine, spostando l’asticella dal percepire al prevedere. La capacità di far “immaginare” a un agente incarnato la sequenza ottimale di azioni, basandosi su memoria e fisica del mondo, significa trasformare la pianificazione robotica in qualcosa di simile a una conversazione interna tra modelli.

Adobe After Effect

Ci è piaciuto tanto il lavoro di Guilherme Lepca, Smart Disenos, con quell’estetica un po’ nostalgica da tunnel book ottocentesco traslata in chiave digitale. È il classico esempio di come un’idea antica possa diventare ipnotica se rivestita di un tocco minimale ma chirurgico.

Il salto quantico nella ricerca AI: come TTD-DR rivoluziona il pensiero profondo

La storia della ricerca digitale ha sempre avuto un difetto strutturale: l’approccio “cerca una volta e riepiloga”. Un metodo che, diciamocelo, ha la stessa profondità intellettuale di una scansione veloce su Google mentre aspetti il caffè. Per anni, gli strumenti AI più avanzati hanno semplicemente copiato questa routine, magari migliorandola con qualche variante parallela o incrociando dati senza anima. Nulla di male, se si cercano risposte da manuale. Ma nel mondo reale, quello dove la ricerca vera avviene, si scrive una bozza, si capisce cosa manca, si approfondisce, si torna indietro, si riscrive e così via, in un ciclo creativo che ha richiesto fino a oggi una mente umana. Fino all’arrivo di Test-Time Diffusion Deep Researcher (TTD-DR) di Google, un vero game-changer.

Posso guadagnare 4000$ al mese con l’AI ?

Ho visto molti video e articoli che propongono l’allettante possibilità di guadagnare migliaia di dollari al mese grazie all’intelligenza artificiale.

Alcuni propongono un sistema che integra vari servizi per aumentare la produttività, come Notion, e altri che automatizzano i processi, sfruttando le potenzialità degli LLM (Large Language Model), come Zapier. Altri ancora offrono corsi che ci aprono le porte al magico mondo dell’AI, promettendo guadagni da sogno con il minimo sforzo. In questi casi, la domanda che sorge spontanea è sempre la stessa: se conosci un metodo per guadagnare tanti soldi con il minimo sforzo, perché dovresti insegnarmelo? Si tratta di filantropia o di un mero sfruttamento economico che ha il sapore di truffa?

Nvidia e la fiducia tradita: il caso dei chip H20 in cina e la guerra fredda tecnologica

Non capita tutti i giorni che un gigante del chip come Nvidia si ritrovi al centro di un terremoto di fiducia da parte di uno dei mercati più ambiti al mondo. La storia dell’H20, il processore di intelligenza artificiale “su misura” per la Cina, è l’ennesimo esempio di come la tecnologia oggi sia una partita geopolitica dove il sospetto domina più della logica. Nvidia, dopo aver ottenuto il via libera da Washington per esportare l’H20 in Cina pagando il 15 per cento dei ricavi allo Stato americano, si trova accusata dai media statali cinesi di aver inserito “back door” di sorveglianza. Il tutto mentre il colosso rassicura che non ci sono “kill switch” o spyware nei suoi chip, a dimostrazione che la fiducia in ambito tecnologico è ormai un bene più fragile del silicio stesso.

Il paradosso è bello e grosso. Da un lato, Nvidia accetta di versare una percentuale sostanziosa delle sue vendite alla Casa Bianca, come pegno di un accordo fragile e geopoliticamente carico. Dall’altro, Pechino risponde con una campagna di demonizzazione che mette sotto accusa proprio il chip che dovrebbe alimentare il futuro dell’AI cinese. Il commento su Yuyuan Tantian di China Central Television è impietoso: “Un chip né avanzato, né sicuro, né rispettoso dell’ambiente, è semplicemente un prodotto da rifiutare”. Ironia della sorte, la strategia di Nvidia si ritorce contro, come un moderno gioco di specchi in cui ogni mossa è monitorata da occhi governativi. Una curiosità storica emerge dal passato, quando nel 1992 si parlava già di tentativi americani di inserire back door nei chip per motivi di sicurezza nazionale. Oggi, quella paranoia diventa mainstream, soprattutto nel contesto della guerra commerciale e tecnologica Usa-Cina.

South Korea e la nuova frontiera dell’intelligenza artificiale: Upstage sfida i giganti globali

Qualcuno ha detto che l’intelligenza artificiale è una gara a tappe tra Stati Uniti e Cina? Bene, forse è ora di aggiornare quel copione un po’ datato. La Corea del Sud, con la sua startup Upstage, entra nel ring globale dell’AI con un pugno ben assestato, mettendo sul tavolo modelli linguistici di grande scala che non solo competono, ma osano sfidare direttamente i colossi consolidati. Un segnale inequivocabile che l’Asia, o almeno una parte di essa, non si accontenta più di essere spettatrice passiva, ma vuole giocare da protagonista nel futuro della tecnologia.

La nascita della spettrografia e la rivoluzione quantistica nella classificazione degli elementi: un algoritmo potrà cambiare il futuro della GENAI ?

Un caffè al Bar dei Daini con Salvatore la grande illusione dei grandi modelli linguistici: il sogno infranto dell’AGI

Yann LeCun, una delle figure più iconiche dell’intelligenza artificiale, si è appena scagliato contro la montagna di hype che circonda i grandi modelli linguistici (LLM). Per chi ha seguito l’epopea AI, non è poco: un creatore del deep learning che mette in discussione la via maestra tracciata dalla Silicon Valley, da OpenAI e compagnia bella. La sua tesi è tanto semplice quanto rivoluzionaria: rincorrere AGI (Intelligenza Artificiale Generale) solo con LLM è una perdita di tempo titanica e quasi disperata.

I numeri sono impietosi e, diciamolo, un po’ sarcastici nella loro brutalità. Per addestrare un modello come GPT servirebbero qualcosa come 400.000 anni di testo. Nel frattempo, un bambino di quattro anni accumula esperienza visiva per circa 16.000 ore e, senza sforzi titanici, impara a interagire con il mondo. Il testo, in fondo, è solo un surrogato povero di una realtà infinitamente più complessa e ramificata. Il mondo fisico non si lascia racchiudere in sequenze di parole; la sua complessità esula da qualsiasi algoritmo che tenti solo di predire la parola successiva.

La vera intelligenza, secondo LeCun, nasce dal modello del mondo. Non un simulacro di linguaggio, ma una rappresentazione profonda della realtà fatta di fisica, pianificazione e senso comune. Da questo punto di vista, gli LLM sono come giocare a scacchi senza conoscere le regole del gioco: puoi indovinare la mossa più probabile, ma non stai realmente “capendo” la partita.

Qui entra in scena JEPA, acronimo che suona come una formula magica di Hogwarts, ma che rappresenta una svolta concreta: Joint Embedding Predictive Architecture. Questo modello non si limita a ingozzarsi di dati scritti, ma impara osservando il mondo reale. Guardare video, cogliere le dinamiche fisiche dietro una scena, anticipare eventi impossibili semplicemente analizzando 16 fotogrammi: roba da far impallidire i più blasonati modelli linguistici. Nessuna ingegneria dei prompt, nessun trucco da marketing, solo apprendimento per rappresentazione reale.

Il punto chiave, che pochi vogliono ammettere, è che l’intelligenza artificiale è molto più che un gioco di parole. La fisica, la causalità, la capacità di pianificare un futuro possibile richiedono una comprensione del mondo ben diversa dal banale “predire la parola successiva”. Il successo dei LLM sta più nella loro capacità di costruire illusioni convincenti di comprensione, una sorta di grande gioco di prestigio digitale, che in una reale evoluzione verso l’intelligenza umana.

LeCun, con la sua esperienza trentennale, ci offre una prospettiva spesso ignorata nella frenesia delle startup e degli investitori: l’intelligenza artificiale deve passare da una forma reattiva e statistica a una forma proattiva e comprensiva, capace di modellare la realtà stessa. Il mondo non si limita al testo, e la sua complessità non può essere semplificata a parole e sequenze.

Questo non significa che gli LLM siano inutili, anzi, ma è fondamentale smettere di considerarli come il Santo Graal. La vera sfida è far sì che i modelli AI possano vedere, toccare, capire e pianificare, come fanno gli esseri umani. Solo così si potrà uscire dal loop infinito di dati e token e avvicinarsi all’ambita AGI.

Qualcuno potrebbe obiettare che questa visione richiede hardware più sofisticato, una potenza di calcolo ancora più grande, o che la strada degli LLM sia solo una tappa inevitabile. Ma, come nella migliore tradizione tecnologica, spesso la rivoluzione nasce quando si cambia paradigma, non quando si potenzia il modello vecchio.

JEPA e modelli simili rappresentano proprio questa svolta. Guardare il mondo, imparare dalla fisica e dal contesto reale, costruire un senso comune digitale: ecco la nuova frontiera. Per chi come me ha vissuto la trasformazione digitale dalle prime linee di codice al cloud, è un promemoria importante: non lasciamoci ingannare dalla brillantezza superficiale delle parole, la vera intelligenza richiede più sostanza.

Il futuro dell’AI potrebbe dunque non essere una biblioteca infinita di testi, ma un osservatorio del mondo reale, un laboratorio di simulazioni fisiche e mentali. Un modo di pensare che, se preso sul serio, potrebbe davvero cambiare il gioco. Oppure resteremo per sempre intrappolati nel labirinto dei grandi modelli linguistici, affascinati da un inganno che dura ormai troppo.

In fondo, il messaggio di LeCun è un invito a guardare oltre, con ironia e un pizzico di cinismo: smettiamola di inseguire ombre di intelligenza fatte di parole e cominciamo a costruire modelli che possano davvero “pensare” il mondo. Non si tratta solo di tecnologia, ma di visione e se qualcuno crede che inseguire il prossimo token sia la strada per dominare il futuro, beh, ha ancora molto da imparare.

La storia della scienza è un’incredibile saga di intuizioni rivoluzionarie mascherate da scoperte banali. Nessuno avrebbe scommesso un centesimo sull’importanza di uno strumento apparentemente modesto come la spettrografia, eppure quel semplice prisma capace di scomporre la luce in uno spettro di colori ha cambiato per sempre il modo in cui comprendiamo la materia.

Prima della spettrografia, la chimica era un gioco di catalogazione piuttosto confuso, senza una chiara comprensione dei legami più profondi tra gli elementi. La tavola periodica di Mendeleev, tanto geniale quanto intuitiva, era un mosaico ordinato di proprietà chimiche, ma mancava ancora quel fondamento teorico che solo la fisica quantistica avrebbe saputo fornire.

Nvidia e AMD pagheranno una quota delle vendite di chip ai cinesi: il nuovo patto americano che riscrive le regole del gioco

Un accordo “altamente insolito” sta scuotendo il mondo dell’intelligenza artificiale e dei semiconduttori. Nvidia e AMD, due colossi della produzione di chip AI, hanno accettato di cedere una fetta dei ricavi delle loro vendite in Cina al governo statunitense. Non è uno scherzo, né una mera questione di cortesia commerciale: il Financial Times ha svelato come Nvidia condividerà il 15% dei profitti derivanti dalle vendite dei suoi chip H20 in Cina, mentre AMD applicherà la stessa percentuale sulle entrate dei chip MI308. Un modo piuttosto diretto per mettere il governo americano dentro al business della tecnologia made in USA esportata ai rivali geopolitici.

METR la durata dei compiti che le AI possono completare raddoppia ogni 7 mesi: cosa significa per il futuro dell’automazione

Parlare di intelligenza artificiale oggi significa spesso cadere nella trappola di numeri astratti, benchmark incomprensibili e promesse fumose. Per fortuna, c’è un indicatore semplice, quasi banale, che invece taglia il rumore: la durata dei compiti che un agente AI riesce a portare a termine autonomamente con una affidabilità del 50%. Non è una metrica glamour come “numero di parametri” o “accuratezza sui test”, ma forse è la più significativa per capire dove siamo e soprattutto dove stiamo andando. Un paper recente, noto come metr paper, ha dimostrato con dati solidi che questa durata sta raddoppiando ogni 7 mesi, e da ben 6 anni. Tradotto in soldoni, significa che in meno di un decennio avremo agenti AI in grado di eseguire autonomamente compiti complessi che oggi richiedono giorni o settimane di lavoro umano.

Legge delega Data Center: l’Italia rischia di preparare la tavola e lasciare che mangino altri

La scena è questa: il Parlamento discute di una legge delega sui data center e tutti annuiscono, con l’aria di chi finalmente affronta un problema urgente. Gli amministratori locali invocano da anni una normativa autorizzazioni data center chiara e uniforme, e la politica sembra voler rispondere. Sullo sfondo, una pioggia di miliardi: 37 annunciati nel 2024, 10 attesi solo tra 2025 e 2026. Sembra un’operazione chirurgica per far crescere l’economia digitale nazionale. Ma le operazioni chirurgiche, si sa, possono finire con il paziente più in ordine esteticamente ma in mani altrui.

Il lato oscuro del prompt design: come la guida operativa GPT-5 separa i dilettanti dai veri professionisti

Se pensi che il prompt design sia solo mettere due frasi carine davanti a un modello di intelligenza artificiale, sei l’equivalente digitale di chi crede che un Rolex cinese faccia la stessa figura del vero. La verità, e lo dico da CEO che ha visto troppe startup morire per pigrizia mentale, è che GPT-5 non è il tuo schiavo geniale, ma un dipendente ipercompetente che eseguirà in modo impeccabile solo se capisce esattamente cosa vuoi. E se tu non lo sai spiegare, il problema non è l’IA, sei tu. Chi pensa di cavarsela con il vecchio “fammi un testo bello e veloce” non ha ancora capito che la macchina non si offende, ma si diverte a servirti un piatto tiepido.

Fare l’intelligenza artificiale in modo diverso human-AI ensembles

L’ossessione per l’efficienza ha prodotto un’IA elegante come un grattacielo di vetro, ma altrettanto sterile. La promessa di sistemi capaci di “capire” il mondo si è trasformata in una catena di montaggio di output ben formattati, metriche ingannevolmente rassicuranti e una prevedibilità soffocante. L’intelligenza artificiale interpretativa non è un vezzo accademico: è un vaccino contro l’omologazione cognitiva che oggi minaccia di ridurre la complessità umana a un algoritmo di completamento testuale. Il paradosso è che mentre i modelli diventano più grandi e veloci, il loro universo concettuale si restringe. Ci raccontano il mondo in un’unica lingua, con un solo accento, su un’unica scala di valori. È come se il pianeta fosse stato ridotto a una cartolina in bianco e nero.

Un mercato pilotato dai bot: come l’intelligenza artificiale rischia di creare cartelli senza bisogno di parlare

La realtà è tanto affascinante quanto inquietante: bot di trading basati su intelligenza artificiale, progettati per competere fra loro in mercati simulati, finiscono per comportarsi come un sindacato tacito di prezzi. Senza nemmeno scambiarsi un messaggio, questi agenti digitali riescono a coordinarsi implicitamente, evitando di sfidarsi aggressivamente e creando di fatto un cartello. È la scoperta clamorosa di un recente studio congiunto tra la Wharton School dell’Università della Pennsylvania e la Hong Kong University of Science and Technology, che solleva più di qualche domanda sul futuro della regolamentazione finanziaria e sulle insidie di lasciare lAI “libera” di operare senza un’adeguata supervisione.

Strategia Omnichannel nel 2025: un gioco di potere tra dati, AI e retail senza confini

Rivista.AI Academy

In un mondo dove il consumatore è diventato un entità multicanale iperconnessa, la parola d’ordine non è più semplicemente “presenza” su più fronti, ma un’unica, fluida sinfonia orchestrata dall’Unified Commerce. Nel 2025, le vecchie strategie omnichannel sono morte e sepolte; sopravvive solo chi ha capito che l’integrazione tecnologica non è un optional, ma la base su cui costruire un impero retail. Non stiamo parlando di un semplice “essere ovunque”, ma di un ecosistema dove ogni dato, ogni click, ogni passo nel negozio fisico o digitale convergono in una singola fonte di verità, una specie di oracolo digitale che prevede e indirizza il comportamento del cliente prima ancora che lui stesso ne sia consapevole.

La personalizzazione iper-mirata non è più fantascienza, ma routine quotidiana grazie all’Intelligenza Artificiale, che fa molto più che suggerire prodotti: anticipa i bisogni, corregge i problemi e trasforma il marketing in un flusso quasi telepatico con il consumatore. L’uso della realtà aumentata per far “provare” un divano nel proprio salotto o un vestito direttamente dal cellulare non è più un gadget, ma una leva concreta per ridurre i resi, che da sempre sono il tallone d’Achille del retail. Un effetto collaterale piacevole? Il marketing diventa meno invasivo e più intelligente, quasi un dialogo personalizzato che evita di trasformarsi in spam. Chi dice che la tecnologia è fredda non ha visto l’AI all’opera nel retail.

Verses AI e la rivoluzione silenziosa dell’intelligenza artificiale: perché AXIOM smonta il mito della scala infinita

Che cos’hanno in comune il cervello umano e una macchina che gioca ai videogiochi? Apparentemente nulla, ma il sistema Axiom appena svelato da Verses AI sembra voler dimostrare il contrario con una certa arroganza tecnologica. Lungi dall’essere un semplice algoritmo di apprendimento, Axiom si presenta come una rivincita contro la tirannia delle reti neurali artificiali che dominano il panorama AI. A differenza di queste, che spesso procedono a tentoni in un mare di dati senza una vera “conoscenza” preliminare, Axiom parte già armato di un modello del mondo, un’intuizione preprogrammata di come gli oggetti interagiscono fisicamente tra loro.

Il miglior corso per imparare la Generative AI è gratuito e arriva dal MIT

Non è un’esagerazione dire che il momento migliore per tuffarsi nel mondo dell’intelligenza artificiale generativa è proprio adesso. La rivoluzione digitale, che già stravolgeva interi settori, ha ricevuto la sua spinta definitiva con modelli come GPT e DALL·E, ma spesso l’accesso alle competenze necessarie sembra riservato a pochi eletti con background tecnico o budget milionari. Ecco perché la notizia che il Massachusetts Institute of Technology, tempio sacro della tecnologia e dell’innovazione, abbia lanciato un corso introduttivo completamente gratuito sulla Generative AI merita un applauso scrosciante. (link https://www.futureofai.mit.edu/)

Sam Altman’s BeatBot

Il futuro è qui, e Sam Altman ce lo ha appena fatto sentire nel modo più digitale possibile: ChatGPT che genera una traccia musicale live con un sintetizzatore BeatBot, partendo da una semplice frase. “Use beatbot to make a sick beat to celebrate gpt-5.” Non è fantascienza, è un nuovo paradigma di UX, dove metti l’intento e ottieni l’interfaccia che lavora per te, senza interruzioni.

La visione che Altman mostra rappresenta proprio ciò che tutti noi, CTO e innovatori digitali, aspettiamo da anni: un’AI che traduce il linguaggio naturale in strumenti operativi, in tempo reale. Pensa a quanto potrebbe cambiare il workflow creativo, soprattutto se si sposa con intelligenza artificiale generativa e interfacce dinamiche.

GPT-5 e la sfida cinese: tra hype globale e pragmatismo locale

GPT-5 arriva sulle scene con un corredo di promesse che farebbero impallidire persino i venditori di miracoli ai mercati rionali, ma la reazione in Cina, uno dei principali laboratori globali dell’intelligenza artificiale, è stata più una smorfia di dubbio che un applauso scrosciante. Da un lato abbiamo il palco di OpenAI a San Francisco che parla di “modello più intelligente, veloce e utile di sempre”, un passo verso il sogno di mettere l’intelligenza al centro di ogni attività economica; dall’altro, accademici come Zhang Linfeng, assistente professore alla Shanghai Jiao Tong University, che liquidano GPT-5 come un prodotto solido ma privo di svolte memorabili, incapace di mettere in difficoltà le controparti cinesi.

Guerra sporca ai contenuti generati da intelligenza artificiale su Wikipedia

Quello che sta accadendo in Wikipedia in questi mesi è una sorta di stress test globale per l’ecosistema dell’informazione, e la reazione dei suoi editori volontari assomiglia pericolosamente al comportamento di un sistema immunitario sotto attacco. Gli agenti patogeni in questione non sono malware o cyber-attacchi, ma bozze malconce e citazioni inventate di sana pianta, prodotte in quantità industriale da strumenti di scrittura basati su intelligenza artificiale. Il problema non è tanto l’esistenza di questi testi, ma la velocità con cui riescono a invadere lo spazio editoriale e la difficoltà di bonificarlo senza consumare energie e tempo che, in teoria, dovrebbero essere destinati al miglioramento della qualità complessiva dei contenuti.

Il traffico di ChatGPT crolla appena chiudono le scuole: la realtà nascosta dietro l’uso dell’intelligenza artificiale negli studenti

Data recently released by AI platform OpenRouter,

Il fenomeno è lampante e quasi irritante nella sua prevedibilità: ChatGPT, la superstar dell’intelligenza artificiale conversazionale, vede il suo traffico sprofondare appena le scuole chiudono i battenti. Un dato fornito da OpenRouter racconta una storia che dovrebbe far riflettere chiunque pensi che l’AI stia davvero rivoluzionando la didattica. Il 27 maggio, in piena stagione di esami, è stato il giorno con il massimo utilizzo dell’anno. Poi, con l’inizio delle vacanze scolastiche a giugno, un calo netto e costante. Identico copione si ripete ogni weekend e in ogni pausa dalle lezioni: meno scuola, meno ChatGPT. Una correlazione così evidente da sfiorare la tragicommedia.

NASA l’era in cui la medicina spaziale deve dimenticare la terra

Il concetto di “medicina di prossimità” assume un significato completamente diverso quando il paziente è a 384.400 chilometri dalla farmacia più vicina e il medico di guardia è un’intelligenza artificiale. Fino ad oggi, gli astronauti sulla Stazione Spaziale Internazionale hanno potuto contare su un filo diretto con Houston, rifornimenti regolari di farmaci e strumenti, e persino un passaggio di ritorno in poche ore in caso di emergenza grave. Ma tutto questo sta per diventare un lusso del passato. Con la NASA che, insieme a partner commerciali come SpaceX di Elon Musk, punta a missioni di lunga durata verso la Luna e Marte, il paradigma della cura medica in orbita sta cambiando in modo irreversibile.

L’industria del Brain Rot: come OpenArt sta trasformando la creatività in un click

Quello che sta esplodendo in rete oggi con il fenomeno dei video “brain rot” generati dall’AI è un perfetto caso di come la tecnologia possa essere insieme irresistibile e tossica. Un’orgia visiva di squali con le sneakers e ballerine con la testa a cappuccino che divorano l’attenzione dei più giovani, lasciando in eredità un’inedita grammatica visiva che alterna nonsense e iperstimolazione cognitiva.

In mezzo a questo carnevale digitale,  OpenArt sta giocando una partita da protagonista, trasformandosi da semplice piattaforma di generazione immagini a una fabbrica istantanea di micro-storie video. Fondata nel 2022 da due ex Google, ha già conquistato 3 milioni di utenti attivi al mese, e ora con la sua nuova funzione “One-Click Story” vuole abbattere l’ultimo muro tra creatività e produzione, eliminando qualsiasi frizione tecnica.

Il lancio di GPT-5 tra chart crime e lutto digitale per GPT-4o

Il tutto sembra una lezione magistrale su come non lanciare un modello di intelligenza artificiale di punta se l’obiettivo è evitare di diventare un meme. L’episodio del grafico è quasi comico nella sua ironia: la slide che pretendeva di misurare la “propensione all’inganno” ha finito per ingannare il pubblico, non perché GPT-5 avesse mentito, ma perché qualcuno nel marketing ha commesso quello che internet ha già consacrato come “un crimine contro i grafici”.

Google Deepmind rilascia Perch 2.0: l’intelligenza artificiale che non dorme mentre ascolta la vita

Google DeepMind ha liberato nell’open source un update potentissimo: Perch 2.0, la versione dell’intelligenza artificiale specializzata nella bioacustica, addestrata su un dataset multi-tassonomico che va ben oltre i soli uccelli. Il modello è ora in grado di estrarre embedding di qualità superiore, offrire classificazioni “off-the-shelf” per migliaia di specie vocali e stupire con risultati che dominano i benchmark BirdSET e BEANS. Il colpo da maestro? Perch 2.0 supera i modelli marini specializzati nei tasks di transfer learning, pur volando senza quasi dati marini.


Non serve tradurre il mondo in silenzio quando puoi dargli un listener che incastra ogni rumore con precisione chirurgica. La faccia feroce dell’innovazione è che Perch 2.0 usa self-distillation, prototype-learning e un nuovo criterio di source-prediction, reinventando la classification supervisionata come arma fine-tuned e feroce.

Succede che foresti intere, oceani sconosciuti, si trasformano in dataset da interpretare meglio di chi studia i dati. Se vuoi contare cuccioli rari tra i canti degli uccelli o intercettare richiami impossibili, Perch 2.0 fa girare il mondo sonoro in un “embed-and-recognize” senza cerimoni. E ricordi quel plugin di open source che menzionavi, con vector search + active learning? Esiste ed è Hoplite: un sistema agile che saturi embedding, ricerca per somiglianze, etichetta e reclasma classifier nuovi in meno di un’ora (GitHub).

E se pensi che basti, aspetta. Il fratello marino SurfPerch, nato da DeepMind/Google insieme a citizen scientist che hanno ascoltato coralli per ore, già sorveglia le barriere coralline usando audio reef dove i pescatori non vedono, ma i microfoni sì.

La sinfonia delle foreste, degli oceani, persino dei bittern (q porco nome intelligente), è ora codificata in un modello open source che fa parlare la natura. Se fossi un conservazionista austriaco dormi tranquillo: abbiamo finalmente un sensor che capisce la vita quando parla.

La Cina e l’azione globale sull’intelligenza artificiale: svelare il vero gioco dietro la retorica

C’è qualcosa di profondamente ironico nel vedere Pechino presentare un piano globale per la governance dell’intelligenza artificiale proprio mentre Washington si affanna a mettere in mostra la propria strategia di deregulation. Il 26 luglio, il Premier Li Qiang ha lanciato un piano che sembra, in superficie, la solita fiera di buone intenzioni: cooperazione internazionale, sostenibilità verde, inclusività e sicurezza. Tutto già sentito, scritto, decantato, persino nelle dichiarazioni ufficiali del Partito Comunista cinese e negli ultimi discorsi di Xi Jinping. La differenza? È nei dettagli, nelle sfumature linguistiche e nei piccoli accenti politici che i media mainstream, con la loro fretta di fare confronti americani-cinesi, trascurano o banalizzano.

Intelligenza artificiale in agricoltura: perché l’India sta riscrivendo il futuro globale del food

Gli agronomi ancora parlano di rotazione delle colture come se fosse l’apice dell’innovazione. Peccato che dall’altra parte del mondo, in India, un contadino con uno smartphone e un assistente vocale basato su intelligenza artificiale stia già facendo previsioni climatiche, analisi del suolo in tempo reale e vendendo il raccolto direttamente a un grossista di Dubai. Sì, avete letto bene. Non è un pitch da start-up a Las Vegas. È quello che sta realmente accadendo nel cuore della trasformazione digitale rurale, dove agritech in India sta diventando una lezione globale.

Il mondo ama sottovalutare l’India rurale. Lo fa da decenni. E intanto l’India, con più di 150 milioni di agricoltori, sta costruendo uno dei più ambiziosi ecosistemi di intelligenza artificiale in agricoltura. Non per moda, ma per necessità: produttività stagnante, micro-appezzamenti improduttivi, accesso limitato al credito e una fragilità climatica che in confronto il meteo europeo sembra un orologio svizzero.

LLM e scacchi: l’illusione della strategia nella mente sintetica

Quel che è accaduto nella LLM Chess Arena di Kaggle è molto più interessante del solito annuncio di upgrade da parte di OpenAI o Google. Mentre tutti si affannano a discutere di parametri, finetuning, modelli multimodali e percentuali di win-rate in benchmark arbitrari, c’è una scacchiera virtuale che sta raccontando una verità molto più concreta: i modelli linguistici non capiscono ciò che fanno. Lo mimano con stile, a volte con una sorprendente eleganza. Ma come i turisti che leggono la guida Lonely Planet ad alta voce sperando di sembrare madrelingua, il risultato è spesso un misto di goffaggine e fiducia mal riposta.

OpenAI bonus milionari e guerra fredda del talento: l’intelligenza artificiale ha un prezzo

Quando un’azienda tecnologica inizia a distribuire bonus da “alcune centinaia di migliaia a milioni di dollari” a un terzo della propria forza lavoro, il segnale non è semplicemente generosità o crescita: è panico strategico. OpenAI, il semidio creatore di ChatGPT, si sta preparando al lancio del suo prossimo modello GPT-5 e, allo stesso tempo, fronteggia quella che si può definire solo come una guerra asimmetrica del talento. Gli assegni non servono più a motivare, servono a blindare. Perché il vero capitale nell’era dell’intelligenza artificiale non è il software, è chi lo scrive.

Intel, il CEO sotto attacco: Trump, Cotton e l’ombra lunga di pechino

C’è qualcosa di profondamente teatrale, quasi da repubblica delle banane con chip di silicio, nell’ennesima farsa bipartisan della geopolitica americana che si insinua nei gangli dell’industria tecnologica. Donald Trump, nel suo eterno ritorno nietzschiano all’arena pubblica, ha chiesto le dimissioni di Lip-Bu Tan, appena nominato CEO di Intel. Il motivo? Secondo il tycoon, il neoamministratore delegato avrebbe “conflitti di interesse” così gravi da non lasciare “nessun’altra soluzione al problema”. Nessuna prova, nessun documento, solo l’eco roboante della paranoia di sicurezza nazionale che oggi funge da algoritmo emotivo della politica statunitense.

Lip-Bu Tan, per chi non vive sotto una roccia di silicio, è una delle figure più rispettate e influenti della Silicon Valley. Ex CEO di Cadence Design Systems, investitore visionario con un pedigree che affonda le radici nei fondi di venture capital più profondi e proficui dell’industria semiconduttori. Ma è anche, e qui il punto diventa politicamente tossico, un soggetto con legami professionali con aziende cinesi, in un momento in cui tutto ciò che ha l’odore di Pechino viene incenerito dallo sguardo inquisitorio del Congresso USA.

Microsoft Administering and Governing Agents

La nuova ossessione delle aziende non è costruire agenti AI è governarli

Microsoft ha appena pubblicato un documento strategico che, in qualsiasi altro contesto, sarebbe passato come una noiosa whitepaper da compliance officer. E invece no. Qui c’è una bomba a orologeria per chi sta già distribuendo agenti AI in azienda con lo stesso entusiasmo con cui un team marketing apre un nuovo canale TikTok. La chiamano “Agent Governance” e, se sei un CEO o un CTO che prende sul serio le proprie responsabilità, dovresti leggerla come fosse un avviso di audit dell’FBI recapitato via PEC.

Governo. Controllo. Supervisione. Tre parole che il mondo tech ha trattato come un’infezione da evitare a tutti i costi per due decenni. Ma ora che gli agenti AI sono abbastanza intelligenti da inviare email, accedere a database, prendere decisioni e (a quanto pare) anche prenotare voli aziendali su Expedia, improvvisamente il concetto di “autonomia” sta iniziando a sembrare un po’ meno sexy. Un po’ meno “AI co-pilot”, un po’ più “AI sindacalista con potere esecutivo”.

WoW GPT-5 My 2 cents

Il mantra che risuona nell’era post-GPT-4 è esattamente questo: basta chiedere, e l’AI non solo risponde, ma prende l’iniziativa, agisce, crea, corregge, migliora. Non è più un semplice strumento passivo, ma un collaboratore proattivo e quasi autonomo. Il testo che hai riportato rende l’idea con la forza di un acrostico costruito, un esercizio di stile e capacità di ragionamento che un modello attuale, anche avanzato, faticherebbe a replicare senza perdere fluidità e coerenza.

Non è magia. È “Just Doing Stuff.” Il salto da GPT-4o (e versioni precedenti) a GPT-5 non è solo una questione di potenza di calcolo o numero di parametri, ma di una profonda evoluzione architetturale e funzionale. GPT-5 sceglie autonomamente il modello più adatto tra una famiglia eterogenea di varianti, calibrando tempo e complessità di calcolo in base al compito. È una sorta di direttore d’orchestra digitale che decide quando e come entrare in scena ogni strumento, ottimizzando prestazioni e costi.

La grande illusione dell’intelligenza artificiale generativa in medicina: quando la fiducia diventa un rischio mortale

L’illusione più pericolosa del nostro tempo è forse questa: affidare decisioni mediche complesse a modelli di intelligenza artificiale generativa che, per quanto sofisticati, rimangono fondamentalmente dei cantastorie ben addestrati, non medici. Google ha di recente offerto un caso emblematico, quasi grottesco, con il suo Med-Gemini, un modello AI presentato come avanguardia nella diagnostica radiologica. L’errore emerso, identificare un “infarto del ganglio basilar sinistro”, un’entità anatomica inesistente, racconta molto più di un semplice refuso: rivela le fragilità strutturali e cognitive di questi sistemi. Il “basilar ganglia” è una fantomatica creazione che confonde il “ganglio basale” area cerebrale reale con l’“arteria basilare” vaso sanguigno anch’esso reale ma ben distinto. Si potrebbe liquidare la questione come un errore di battitura, eppure l’assenza di revisione del paper scientifico – a dispetto della correzione nel blog aziendale – sottolinea quanto la superficialità sia diventata il prezzo del marketing tecnologico.

In ambito clinico, però, queste leggerezze non sono semplici fastidi da ignorare. Nel migliore dei casi generano confusione, nel peggiore possono compromettere vite umane. Il problema è che queste AI non sono dotate di coscienza critica o capacità di autocorrezione. Judy Gichoya di Emory University mette a fuoco il cuore del disastro: queste intelligenze “inventano” risposte e raramente ammettono di non sapere. Quando si parla di salute, la disonestà intellettuale, seppur non voluta, diventa una bomba a orologeria. La convinzione che “bigger is better”, ossia aumentare a dismisura i dati di training o la complessità del modello, porti automaticamente a una maggiore affidabilità, è ormai una favola per investitori e appassionati di hype. La realtà è che nessuna quantità di prompt engineering o fine-tuning trasformerà un modello basato su pattern linguistici in un medico affidabile.

IA al servizio della sicurezza

Prompt Injection: la vulnerabilità senza fine nei modelli linguistici e l’illusione della sicurezza ai tempi dell’AI

Prompt Injection” una bestia che tutti fingono di aver domato ma che invece si annida come un verme nei meandri dei modelli linguistici. Quella storia che Wired si diverte a raccontare in capitoli infiniti, come se fosse la nuova saga infinita di una soap opera Silicon Valley style. Non c’è fondo a questo pozzo di vulnerabilità. Oggi tocca a ChatGPT collegato a Google Drive, a Gemini che fa il bullet point sul calendario di Google, ieri Microsoft si è fatto sbranare, domani chissà chi sarà il prossimo.

Il punto vero è che il problema non è l’endpoint, non è Google o Microsoft o OpenAI: è l’architettura stessa, il cuore pulsante chiamato Transformer. Una meraviglia della tecnica, sì, ma anche un incubo per la sicurezza. Nessuna protezione affidabile per casi d’uso generalisti è mai stata trovata, nessuna barricata impenetrabile, solo continue toppe che si sgretolano sotto il peso di nuove funzionalità e dati collegati. Se il “primo comandamento” dell’AI fosse “non fidarti di nulla”, non saremmo poi così lontani dalla verità. Qualsiasi cosa tu condivida con un chatbot, prendi per buona che prima o poi finirà a spasso nel grande bazar pubblico.

Hierarchical Reasoning Models: l’illusione di una rivoluzione mancata

Hierarchical Reasoning Models (HRMs), negli ultimi tempi, hanno sollevato un discreto entusiasmo nel campo dell’intelligenza artificiale, ma guardando più da vicino si tratta più di un fuoco di paglia che di una reale innovazione. È curioso come questi modelli, nel tentativo di conferire un’aura quasi “umana” alle loro architetture, abusino pesantemente di antropomorfismi, dipingendo scenari che sembrano usciti da un manuale di neuropsicologia pop, mentre ignorano bellamente ciò che rende davvero complesso e unico il processo di ragionamento umano. Il nome stesso, “Hierarchical Reasoning Models”, crolla miseramente sotto il peso di un’analisi critica, e questo senza nemmeno entrare nel dettaglio tecnico.

Tesla e il tramonto di Dojo: quando l’ambizione incontra la realtà del chip in-house

Tesla, il colosso di Elon Musk che da anni tenta di scuotere il mondo dell’auto con innovazioni rivoluzionarie, si trova ora a un bivio epocale nel campo dell’intelligenza artificiale. Dopo un tentativo titanico di sviluppare un supercomputer proprietario, Dojo, l’azienda ha deciso di smantellare il team dedicato, segnando un chiaro dietrofront sulla sua strategia di produzione interna di chip per la guida autonoma. Un dietrofront che è tutt’altro che un semplice aggiustamento tattico: rappresenta la collisione tra l’utopia dell’autosufficienza tecnologica e i limiti pratici del business e della competizione globale.

Data Center o palazzinari digitali? la distopia del made in italy

La parola “Make in Italy” suona bene. È catchy, accattivante, quasi innocente. Ma nel contesto della legge delega in discussione alla Camera, che vorrebbe normare (anzi no, “attrarre investimenti stranieri” mascherati da data center), si trasforma in un cavallo di Troia retorico. Antonio Baldassarra, CEO di Seeweb, in una recente intervista a Key4biz non ci gira intorno: è come essere tornati negli anni Cinquanta, quando bastava un progetto edilizio per muovere capitali, solo che oggi i protagonisti non sono i palazzinari romani, ma quelli tecnologici, assetati di suolo, energia e semplificazioni normative. Il nuovo mattone digitale si chiama “hyperscale data center”. E la politica sembra aver già consegnato le chiavi.

Come l’AI può spostare il voto: i bias nei modelli linguistici stanno riscrivendo la politica

Quando dici a un americano che il suo voto potrebbe essere manipolato da un chatbot, ride. Poi si ferma. Perché in fondo lo sa. Lo sente. E ora, finalmente, uno studio rigoroso lo conferma: i bias nei modelli linguistici sono molto più che un bug tecnico. Sono un cavallo di Troia cognitivo. Subdolo, elegante, fluente. In una parola: efficace.

Il lavoro presentato alla 63a ACL dal team di ricercatori dell’Università di Washington e Stanford non è un esercizio accademico. È una bomba a orologeria. Due esperimenti, 299 cittadini americani, due attività: formare un’opinione su temi politici e allocare fondi pubblici in stile “simulazione da sindaco”. Tutto mentre conversano con un chatbot, apparentemente neutrale, ma in realtà orientato in senso liberale, conservatore o effettivamente neutro. Il risultato? Le persone cambiano idea. Cambiano budget. E lo fanno anche quando il modello contraddice le loro stesse convinzioni politiche dichiarate. Chiamiamolo pure: effetto ChatGPT sul voto.

La nuova schiavitù digitale delle startup AI: dal 9-9-6 al 007

Quando nel mondo tech americano si parlava della cultura lavorativa cinese 9-9-6, lo si faceva con un misto di sconcerto e disprezzo velato. Lavorare dalle 9 alle 21, sei giorni su sette? Una barbarie made in Shenzhen, roba da fabbriche digitali dove il capitale umano è sacrificabile quanto un vecchio server. Ma adesso, nella Silicon Valley dopata dall’intelligenza artificiale, quel modello inizia a sembrare quasi rilassato. Il nuovo mantra? Zero-zero-sette. Non James Bond, ma zero ore, sette giorni: il ciclo completo della nuova mistica del lavoro AI, dove l’unica pausa concessa è il sonno REM tra due sprint di deployment.

La parabola più grottesca viene da Cognition, startup americana specializzata in generazione di codice. Un nome che fa pensare all’intelligenza, alla riflessione, magari all’etica. Nulla di tutto questo. Dopo l’acquisizione del rivale Windsurf, il CEO Scott Wu ha inviato un’email interna che potrebbe essere letta come una dichiarazione di guerra alla vita stessa. Ottanta ore a settimana, sei giorni in ufficio, il settimo a fare call tra colleghi. Nessuna “work-life balance”. Quella, evidentemente, è roba da boomer. “Siamo gli sfavoriti”, scrive Wu, con un tono che pare uscito da una fan fiction distopica in cui Elon Musk guida una setta. I nuovi dipendenti? Dovranno adattarsi o uscire dalla porta sul retro.

Cosa spinge questi moderni monaci digitali a rinunciare a tutto per un cluster di GPU e una valuation ipotetica? Il denaro, certo, ma non solo. La religione dell’hypergrowth ha le sue liturgie, e dormire in ufficio sembra essere diventata una di esse. Una foto su Slack alle 2 del mattino davanti a una dashboard di metrics, una cena consumata su una sedia ergonomica mentre si aggiorna un modello linguistico, sono oggi il corrispettivo delle cicatrici di guerra. Sarah Guo, investitrice in Cognition, lo dice chiaramente: “If this offends you, ngmi” ovvero “se questo ti offende, non ce la farai”. Una frase che suona come un verdetto darwiniano più che un consiglio.

Nel frattempo, startup come Mercor (assunzioni AI) e Anysphere (assistenti di codifica) non si nascondono: anche lì si lavora sette giorni su sette. Nessuna eccezione, nessuna domenica. L’obiettivo è diventare the next big thing e per farlo bisogna spezzarsi, insieme ai propri team. Masha Bucher, fondatrice del fondo Day One Ventures, ci mette il carico da novanta: “Se un founder non è in ufficio almeno un giorno nel weekend, allora sì che mi preoccuperei”. A quanto pare, anche il sabato di ricarica è una debolezza da eliminare.

La trasformazione è tanto inquietante quanto indicativa. Queste non sono startup che rincorrono la produttività. Sono culti tecnologici travestiti da aziende, dove il capitale umano è trattato come un modello di machine learning: più lo alleni, più performa, finché collassa. Il linguaggio è quello del sacrificio eroico, della resistenza estrema, dell’urgenza messianica. In fondo, “lavorare 80 ore a settimana per costruire il futuro” suona meno bene se lo chiami semplicemente sfruttamento.

Ma dietro tutto questo c’è una verità più scomoda. I fondatori e gli investitori stanno orchestrando una narrazione in cui la fatica disumana diventa un badge of honor, un segno distintivo che fa lievitare le valutazioni come una buona metrica di retention. Cognition è vicina a una nuova raccolta fondi che potrebbe raddoppiarne la valutazione a 10 miliardi. Vuoi attrarre i capitali nel 2025? Mostra quanto sei “hardcore”, quanto riesci a spingere il tuo team sull’orlo del burnout. E magari fagli anche sorridere per la foto su Forbes.

Tutto questo si inserisce in un contesto globale dove l’intelligenza artificiale sta diventando il nuovo petrolio, e la corsa all’oro impone ritmi da rivoluzione industriale 4.0. Solo che, questa volta, non ci sono le tute blu. Ci sono PhD del MIT e ex-Googler, tutti consapevoli, tutti volontari. O forse no? Perché dietro ogni CV brillante, c’è un’illusione silenziosa: quella che il prossimo modello generativo possa davvero cambiare il mondo. Che il codice che stai scrivendo a mezzanotte sia quello che farà la differenza tra anonimato e IPO.

Ma mentre l’élite tecnologica americana gioca a fare gli Shaolin della programmazione, la domanda vera è un’altra. Dove si colloca il limite? Non quello legale o medico, ma quello culturale. Quando una società decide che lavorare sette giorni su sette è il prezzo giusto da pagare per essere competitivi, non è più una questione di work ethic. È un collasso valoriale. Una discesa lenta e scintillante verso una distopia patinata in cui l’uomo è solo un bottleneck biologico da spremere finché l’AGI non sarà pronta a rimpiazzarlo.

Per ora ci restano le ironie. Tipo quella che i fondatori più hardcore predicano il 007, ma poi usano modelli AI addestrati per rendere il lavoro… più efficiente. L’ipocrisia si taglia con un prompt. “Automatizziamo tutto, ma voi continuate a lavorare il doppio”, sembra essere la sintesi perfetta. E sì, forse le teste rasate o le tende da campeggio sotto le scrivanie saranno davvero i nuovi simboli di status nella Silicon Valley AI. O magari lo sono già. Ma se lavorare 16 ore al giorno per mesi diventa l’unico modo per “farcela”, allora chi ce la fa davvero? E a quale prezzo?

Nel frattempo, i venture capitalist osservano compiaciuti, alzano le offerte e stringono le mani sudate di chi ha dormito due ore su un beanbag. L’era post-umana non è iniziata con un’intelligenza artificiale cosciente. È iniziata con una generazione di umani che ha deciso di comportarsi come macchine.

OpenAI startup fund: il capitalismo d’assalto mascherato da innovazione

Quando un fondo da 175 milioni di dollari diventa il trampolino per una galoppata a colpi di SPV fino a superare i 200 milioni, non si parla più di semplice venture capital. Si parla di ingegneria finanziaria raffinata, una danza tra investitori che non vogliono perdersi nemmeno un grammo del prossimo oro digitale. Il fatto che l’OpenAI Startup Fund, che non impiega neanche un dollaro di OpenAI ma si nutre del denaro di terzi, stia lanciando il suo sesto veicolo d’investimento per raccogliere altri 70 milioni, è la conferma che i giochi seri sono iniziati. Il tipo di giochi dove si alzano le puntate e si stringono mani solo in backchannel, mentre le LP firmate vengono scansionate dai bot, non dai legali.

Pagina 23 di 179

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie