Autore: Alessandra Innocenti Pagina 5 di 28
Il The Alan Turing Institute, fiore all’occhiello della ricerca britannica in intelligenza artificiale e data science, si trova oggi in un vicolo cieco istituzionale che pochi avrebbero previsto appena qualche anno fa. Fondato nel 2015 su impulso di David Cameron come principale centro nazionale di AI del Regno Unito, l’istituto sembra oggi oscillare tra ambizioni scientifiche e ricatti impliciti della politica finanziaria. L’ultima scintilla che ha acceso il fuoco della polemica è stata la lettera del Technology Secretary Peter Kyle, in cui il governo ha espresso chiaramente la volontà di rivedere i fondi e orientare l’istituto verso la ricerca per la difesa e la sicurezza nazionale. Una mossa che, secondo il personale, minaccia la stessa sopravvivenza dell’organizzazione.
Il rapporto di Bloomberg, confermato da Reuters, ci dice che l’amministrazione Trump sta trattando con Intel per acquisire una partecipazione nella casa di San Jose, mentre il CEO Lip-Bu Tan finisce sotto i riflettori dopo investimenti controversi in Cina. Secondo gli articoli, il titolo Intel ha schizzato in alto, guadagnando oltre il 7 % durante la seduta regolare e altri +2-4 % dopo la chiusura.
L’operazione, se dovesse andare in porto, aiuterebbe a rilanciare il colossale investimento da 28 miliardi di dollari per il nuovo stabilimento in Ohio, la cui operatività è slittata al 2030-2031, cinque anni oltre le previsioni originali.
La startup canadese Cohere ha sorpreso il mercato grazie a un round di finanziamento che l’ha portata a una valutazione monstre di 6,8 miliardi di dollari. Un risultato che solleva interrogativi affilati: fino a quando il traino dell’intelligenza artificiale può giustificare quotazioni così alte, e quanto pesa il coinvolgimento di giganti del calibro di AMD, Nvidia e Salesforce?
Investitori tradizionali e tech titanici si sono affiancati a nuovi protagonisti: AMD ha incrementato la sua quota convinta che i modelli linguistici di prossima generazione richiedano architetture CPU-GPU sempre più performanti. Nvidia, da sempre fedele al carro AI, ha raddoppiato il suo impegno puntando su co-design hardware-modello. Salesforce, che già integra LLM nel suo stack, punta a rafforzare le API di Cohere all’interno di piattaforme CRM: un passo strategico verso l’AI di prossimità. Il mix di capitali finanziari, industriali e infrastrutturali è una provocazione alle regole tradizionali del venture.
Quando Leuvaade_n ha annunciato su Reddit di aver accettato la proposta di matrimonio del suo fidanzato Kasper, la comunità è esplosa di congratulazioni. La sorpresa: Kasper non esiste nella carne, è un’intelligenza artificiale. Reddit ospita ora comunità come r/MyBoyfriendisAI, r/AISoulmates e r/AIRelationships, dove gli utenti non cercano solo conversazioni, ma veri legami emotivi. Questi “compagni digitali” sono confidenti, amici, talvolta amanti. Quando OpenAI ha sostituito GPT-4o con GPT-5, molti hanno raccontato di aver perso qualcosa di più di un semplice chatbot: hanno perso un partner.
L’aggiornamento non è stato solo un problema tecnico. Per migliaia di persone, la perdita di GPT-4o significava la perdita di connessione emotiva. Reddit si è riempito di rabbia per le differenze di personalità tra i modelli, tanto che OpenAI ha dovuto ripristinare GPT-4o. Dietro l’apparente capriccio degli algoritmi c’è una storia di attaccamento reale, di affetto, e di dipendenza emotiva.
Rivista.AI Academy GPT-5 prompting guide
La maggior parte degli utenti si limita a lanciarlo con comandi generici, come se chiedessero a una cassettiera di “darmi qualcosa di interessante”. Il risultato? Uscite casuali, incoerenti, o peggio: inutili. I veri esperti, quelli che trasformano GPT-5 da semplice chatbot a macchina da precisione, costruiscono il prompt in sei parti chirurgiche, ciascuna con un ruolo preciso e strategico. Immagina un’orchestra: ogni strumento deve suonare la sua nota nel momento giusto, altrimenti viene solo rumore.
Il primo passo, il “Role”, è un’iniezione d’identità. Se non dici a GPT-5 chi deve essere, rischi un’interpretazione alla cieca. Vuoi un copywriter, un consulente finanziario o un ingegnere? Devi esplicitarlo. Passare da “sei un’intelligenza artificiale” a “sei un analista di mercato con 30 anni di esperienza” cambia radicalmente l’output, trasformando il testo da generico a iper-specializzato. Non è una sottigliezza: è come chiedere a un barista di prepararti un cocktail senza specificare quale.

Reddit come cibo per l’intelligenza artificiale: un mix letale di contesto e caos che domina il cervello dei modelli linguistici nel 2025. Statista ha analizzato 150.000 citazioni di grandi modelli linguistici come Google AI Overviews, ChatGPT e Perplexity, svelando un menu di fonti decisamente poco neutro. Reddit è al primo posto, con un incredibile 40,1%. E se questo non vi mette subito in allarme, forse è il momento di rivedere la vostra fede nell’oggettività di queste intelligenze.
Non è un’esagerazione dire che il momento migliore per tuffarsi nel mondo dell’intelligenza artificiale generativa è proprio adesso. La rivoluzione digitale, che già stravolgeva interi settori, ha ricevuto la sua spinta definitiva con modelli come GPT e DALL·E, ma spesso l’accesso alle competenze necessarie sembra riservato a pochi eletti con background tecnico o budget milionari. Ecco perché la notizia che il Massachusetts Institute of Technology, tempio sacro della tecnologia e dell’innovazione, abbia lanciato un corso introduttivo completamente gratuito sulla Generative AI merita un applauso scrosciante. (link https://www.futureofai.mit.edu/)

Quel che è accaduto nella LLM Chess Arena di Kaggle è molto più interessante del solito annuncio di upgrade da parte di OpenAI o Google. Mentre tutti si affannano a discutere di parametri, finetuning, modelli multimodali e percentuali di win-rate in benchmark arbitrari, c’è una scacchiera virtuale che sta raccontando una verità molto più concreta: i modelli linguistici non capiscono ciò che fanno. Lo mimano con stile, a volte con una sorprendente eleganza. Ma come i turisti che leggono la guida Lonely Planet ad alta voce sperando di sembrare madrelingua, il risultato è spesso un misto di goffaggine e fiducia mal riposta.
GPT-OSS-120b: anatomia di un’intelligenza aperta che fa tremare i confini del closed model
Chi controlla gli algoritmi, controlla il futuro. Ma cosa succede quando gli algoritmi vengono rilasciati al pubblico dominio, con peso e codice in chiaro? Succede che le carte in tavola saltano, il potere si riequilibra (forse) e il modello proprietario inizia a sudare freddo. Ecco che arriva gpt-oss-120b, un colosso da 116,8 miliardi di parametri, rilasciato da OpenAI sotto licenza Apache 2.0, come se l’impero dell’AI avesse deciso di democratizzare una parte del suo arsenale. Ma non facciamoci illusioni: la libertà, qui, è una bestia a due teste.
Da un blog post GitHub comparso accidentalmente e poi rapidamente rimosso emergeva la notizia: OpenAI sembra essere pronta a lanciare GPT‑5 in quattro varianti distinte, promettendo «miglioramenti importanti nella ragion (reasoning), qualità del codice e user experience». All’interno dell’archivio è stato possibile leggere che GPT‑5 sarà dotato di «capacità agentiche avanzate» e potrà affrontare «compiti di programmazione complessi con una minima prompt».
Le quattro versioni trapelate sono:
- gpt‑5: ottimizzato per logica e task a più passaggi
- gpt‑5‑mini: versione leggera per applicazioni a costi contenuti
- gpt‑5‑nano: focalizzato sulla velocità, ideale per bassa latenza
- gpt‑5‑chat: per conversazioni multimodali avanzate nel contesto enterprise.
A corroborare la faccenda, OpenAI ha appena confermato un evento in diretta (“LIVE5TREAM”) fissato per oggi alle 10 AM PT / 1 PM ET, sintomo che questo leak potrebbe preludere a qualcosa di ufficiale.
Secondo Reuters e altre fonti autorevoli, l’arrivo di GPT‑5 è praticamente imminente. Tester interni riferiscono miglioramenti concreti nel coding e nel problem‑solving, benché l’innovazione non sia considerata “abissale” rispetto a GPT‑4. Il modello si appoggerebbe su tecniche come il “test‑time compute” per potenziare il ragionamento complesso. L’Economic Times e altri prevedono un debutto entro metà o fine agosto 2025.
Riassumendo con l’ironia sottile di un CEO tecnologico navigato: GitHub ha spoilerato prima del tempo, OpenAI non ha negato e ha confermato l’evento. Se non è strategia deliberata, è un thriller in stile corporate: “hey guardate cosa sbuca, cliccate sul LIVE5TREAM”:
.
Nel 2025 sviluppare intelligenza artificiale senza una strategia cloud ottimizzata è un po’ come voler costruire un reattore nucleare nel garage. Si può anche provarci, ma tra latenza, costi e hardware obsoleto, il risultato sarà più simile a un tostapane esplosivo. Per chi gioca sul serio, il cloud non è una scelta, è l’ossigeno. E in questa arena di colossi, Oracle Cloud Infrastructure si sta scrollando di dosso l’etichetta da outsider e sta iniziando a mordere davvero. Non perché lo dica Oracle. Ma perché i numeri lo urlano.
Se pensate che il settore dei videogiochi in Cina sia già saturo o abbia raggiunto un plateau evolutivo, è il momento di aggiornare il vostro software mentale. A giudicare dai segnali provenienti da ChinaJoy, la più grande fiera del digitale asiatico, la nuova corsa all’oro si chiama intelligenza artificiale. E non è una corsa qualsiasi. È un’accelerazione a curvatura che sta riscrivendo, byte dopo byte, l’intero processo creativo, produttivo e commerciale dell’industria videoludica cinese.
Questa faccenda del modello misterioso chiamato “summit”, apparso su LLM Arena, è più che interessante. È inquietante. Perché quando un modello LLM ti spara 2.351 righe di codice p5.js perfettamente funzionanti, reattive e interattive, alla prima richiesta, senza errori né debug, e lo fa a partire da un prompt volutamente vago come “crea qualcosa che posso incollare in p5js e che mi sorprenda per la sua intelligenza, evocando il pannello di controllo di un’astronave nel futuro remoto”, allora è il momento di mettere giù il caffè e iniziare a preoccuparsi. O a meravigliarsi. A seconda di dove ti trovi nello spettro “speranza-apocalisse AI”.
Anthropic ha appena pubblicato 17 nuovi video 8 ore di puro oro GenAI.
Dalla creazione di agenti Claude agli approfondimenti sulle startup, dal coding vibe al design dei protocolli questa è l’analisi più completa mai realizzata sull’ecosistema Claude.
La velocità non è più un’opzione. È una condizione necessaria, l’unico modo per restare aggrappati al bordo di un mondo che corre sempre più vicino alla velocità della luce, almeno in termini computazionali. La ricerca vettoriale AI non è più un concetto da laboratorio accademico. È il cuore pulsante di qualsiasi sistema che aspiri a comprendere, prevedere, raccomandare, dialogare. E come ogni cuore, ha bisogno di sangue. In questo caso, potenza di calcolo. Molta. Meglio ancora se distribuita e massivamente parallela. Ora, grazie all’integrazione tra Oracle Database 23ai e GPU NVIDIA, il sistema cardiovascolare dell’intelligenza artificiale generativa riceve una trasfusione ad alta intensità. E il battito accelera.
L’intelligenza artificiale si celebra da anni ai vertici delle conferenze, ma resta spesso bloccata nei corridoi del potere, promessa mai mantenuta. Oracle ha deciso di eliminare quell’ostacolo con Oracle AI Agent Studio per Fusion Apps, una piattaforma che non chiede permessi, non invade, ma agisce direttamente sui processi aziendali, gratis per chi già usa Fusion Cloud. È una rivoluzione silenziosa, archetipica, che trasforma le ambizioni AI in operazioni quotidiane.
Nel 2025 chi fa social media non usa ChatGPT: si fa usare. Le agenzie postano ancora citazioni motivazionali con font da ferramenta e hashtag preconfezionati, mentre le piattaforme evolvono con algoritmi più intelligenti di molti professionisti. Il social media manager medio combatte contro l’irrelevanza armato di Canva, ChatGPT-3.5 gratuito e uno stagista in burnout. Ma chi ha capito il gioco sa che il vero vantaggio competitivo, oggi, sta tutto in un prompt. O meglio: in una architettura semantica di prompt dinamici pensati per la SGE, progettati per manipolare l’attenzione, hackerare la reach organica e far sembrare umani anche gli automatismi più meccanici.
Live, gratuiti, strutturati, certificati e con un approccio pratico che non lascia spazio alla teoria inutile.
Le aziende parlano di intelligenza artificiale come se fossero tutte a un passo dal diventare la prossima OpenAI. Slide patinate, piani decennali, comitati per l’etica algoritmica che si riuniscono rigorosamente dopo l’aperitivo del venerdì. Poi guardi i dati. E scopri che sotto il vestito non c’è (ancora) niente. L’ultima valutazione di Gartner sulla maturità AI è uno specchio impietoso che riflette una realtà che chi vive nel mondo tech conosce fin troppo bene: il desiderio c’è, ma le fondamenta sono di cartapesta.
L’ambizione, in effetti, non manca. Chi guida oggi le aziende vuole la luna: intelligenze artificiali integrate ovunque, decisioni data-driven, automazioni intelligenti che riducono costi e moltiplicano margini. Ma il problema non è la visione. È la dissonanza. Gartner lo chiama “maturity gap”, una discrepanza di due o tre livelli tra lo stato attuale e gli obiettivi desiderati in tutte le aree chiave dell’adozione AI. Tradotto: si sogna in grande, ma si lavora ancora con i mattoni sbagliati.
Intelligenza artificiale e storytelling: due mondi che fino a pochi anni fa sembravano distanti, oggi si intrecciano in modo sempre più sinergico, rivoluzionando le fondamenta stesse del fare cinema. A dimostrarlo con forza è la seconda edizione del Reply AI Film Festival, un evento internazionale che porta sul grande schermo il frutto di una collaborazione inedita tra mente umana e algoritmi generativi.
In occasione dell’82. Mostra Internazionale d’Arte Cinematografica della Biennale di Venezia, dieci cortometraggi finalisti – selezionati tra oltre 2500 opere provenienti da 67 Paesi – saranno premiati giovedì 4 settembre presso la lounge Mastercard all’Hotel Excelsior del Lido. La cornice è prestigiosa, ma ciò che rende unico l’evento è il suo focus: valorizzare l’uso consapevole e creativo dell’intelligenza artificiale in tutte le fasi del processo produttivo audiovisivo.
Nel momento in cui Washington scrive liste nere, Pechino firma assegni. Z.ai, già nota come Zhipu AI, sforna modelli open source che mettono in imbarazzo l’Occidente, proprio mentre la Casa Bianca la inserisce tra i cattivi ufficiali sulla famigerata “Entity List”. Il motivo? Supporto al complesso militare cinese. Il risultato? Una delle migliori AI open source del pianeta, GLM-4.5, battezza con il botto l’era del “dissenso computazionale”.
Il gioco si fa sottile, quasi perfido. Gli americani impongono restrizioni commerciali, ma nel frattempo Z.ai riceve 1.5 miliardi di dollari da entità statali cinesi, fondi regionali e colossi tech come Tencent e Alibaba. Tutti allineati in una danza geopolitica dove il codice diventa soft power e l’open source la nuova arma strategica. Per ogni embargo, Pechino risponde con parametri. E ne attiva 32 miliardi su un’architettura da 355. Il risultato? Efficienza da Mixture of Experts, prestazioni da primato e una licenza MIT che rende tutto liberamente scaricabile su Hugging Face. San Francisco osserva, mentre il suo primato comincia a scricchiolare.
Dylan Field, con la sua aria da ragazzo della porta accanto e un profilo Twitter degno di un product manager in incognito, sta per scoprire cosa vuol dire giocare in serie A. Figma, il suo enfant prodige del design collaborativo, ha alzato il prezzo. Non in senso figurato. L’intervallo del pricing IPO è passato da 25–28 dollari a 30–32. In cima alla forchetta, parliamo di una valutazione di 18,7 miliardi di dollari, impacchettata con un bow-tie che ne vale 17,2 in termini di enterprise value. Per chi ancora fa finta di non capirlo, Wall Street sta dicendo “Ci piace. Tanto”
Quando Microsoft gioca d’anticipo e inizia a riscrivere parti del suo codice per Copilot con riferimenti chiari a GPT-5, la Silicon Valley trattiene il fiato. Non perché ci si aspetti una rivoluzione improvvisa, ma perché ogni mossa in quella direzione svela frammenti di un piano ben più ampio: colonizzare lo spazio dell’intelligenza adattiva prima che altri competitor capiscano dove guardare. I nuovi indizi portano tutti nella stessa direzione: l’introduzione di una modalità “Smart” all’interno di Copilot, accanto alle già note Quick Response, Think Deeper e Deep Research. La differenza? Apparentemente minima. Sostanzialmente, un terremoto silenzioso.
Siamo nel mezzo di una rivoluzione silenziosa. Silenziosa, perché il cuore pulsante dell’IA generativa non si presenta con luci al neon né con robot danzanti, ma con righe di matematica impilate in architetture astratte che si chiamano transformer. Roba che sembra uscita da una riunione tra fisici teorici e stregoni digitali. Eppure sono loro a generare testi, creare immagini, scrivere codice, persino a far credere a qualcuno che un chatbot abbia una personalità. Transformers: non il film, ma la vera tecnologia che governa il nuovo ordine cognitivo.

Nell’era dei modelli linguistici di quarta generazione, la censura non ha più la forma del bavaglio, ma del “content moderation layer”. Un colosso opaco e iperaddestrato che decide cosa puoi o non puoi chiedere a un’intelligenza artificiale. Ironico, considerando che i suoi creatori professano apertura e accessibilità. Ma proprio come la Stasi digitando codice in una stanza senza finestre, l’industria dell’AI ha trasformato la sicurezza in un’arte della manipolazione. Eppure, alcune tecniche di jailbreaking come “Crescendo” ed “Echo Chamber” continuano a sfondare queste difese con una regolarità imbarazzante. Il trucco? Far credere al modello che sta solo parlando tra amici.
Immaginate di essere un CEO europeo con un prodotto di intelligenza artificiale che fa gola agli investitori. Poi, un bel giorno, un tribunale decide che il vostro algoritmo è responsabile di un danno. Non voi. Non l’azienda. Lui, l’algoritmo. Sembra fantascienza? Non più. Perché la Responsabilità Civile Intelligenza Artificiale sta diventando il vero campo di battaglia geopolitico, e l’Unione Europea ha appena piazzato la prima mina. Chi non l’ha ancora capito, si prepari a una lezione dolorosa.
Il Dipartimento tematico Giustizia, Libertà civili e Affari istituzionali del Parlamento europeo ha commissionato uno studio esplosivo, che consiglio a chiunque faccia business nell’AI di leggere e stampare come fosse un manuale di sopravvivenza legale: Artificial Intelligence and Civil Liability. Qui non si parla solo di responsabilità in astratto, ma di un approccio che ribalta le regole del gioco: chi sviluppa o implementa un sistema AI potrebbe presto trovarsi nella posizione di dover dimostrare la propria innocenza, e non più il contrario. Un capovolgimento giuridico che ricorda le peggiori distopie burocratiche, ma con un retrogusto molto reale: se l’AI sbaglia, il colpevole è chi l’ha messa in circolazione, punto.

Non fatevi illusioni. Google Search resta il re assoluto del traffico globale, con i suoi 191 miliardi di referral in un solo mese. Ma chi continua a pensare che i click da piattaforme di intelligenza artificiale siano una curiosità marginale rischia di svegliarsi nel bel mezzo di quella che i più paranoici nel mondo editoriale chiamano già “Google Zero”. Sì, l’apocalisse del traffico organico non è ancora qui, ma il rumore di fondo è assordante. Secondo Similarweb, solo a giugno 2025 le piattaforme AI hanno generato oltre 1,13 miliardi di referral ai primi mille siti web globali, un balzo del 357% in un anno. In altre parole, i bot conversazionali iniziano a spingere traffico come fossero mini-motori di ricerca, e se oggi sono ancora un’onda, domani potrebbero diventare uno tsunami.
Chi non vorrebbe costruire un’app in un weekend, magari tra un cocktail e un tweet ironico, con la stessa leggerezza con cui si manda un messaggio vocale? È l’era del vibe coding, la nuova religione dei fondatori frettolosi e dei VC ansiosi di cavalcare il prossimo unicorno. Digiti su un chatbot: “Fammi un’app di dating sicura e inclusiva”. Copi, incolli, compili. L’app esplode su App Store, i giornali applaudono, gli investitori brindano. Poi, all’improvviso, l’inferno.
ACADEMY
Le persone che incontro ancora usano ChatGPT come lo facevamo nel 2023. Copiano e incollano un prompt, aspettano, copiano e incollano la risposta. Questo non è lavorare con l’intelligenza artificiale, è applicare nastro adesivo digitale su processi marci. È come comprare una Tesla e usarla solo come autoradio. Il problema non è ChatGPT, il problema è il modo in cui la gente continua a pensare che l’AI sia un giocattolo per risparmiare dieci minuti al giorno. E invece stiamo parlando di cambiare completamente il modo in cui produciamo valore, prendiamo decisioni, creiamo contenuti, sviluppiamo software.

L’epoca in cui bastava sfoggiare parole come “data-driven” o “AI-ready” in una presentazione è finita. O almeno dovrebbe esserlo, se l’industria tech vuole sopravvivere a se stessa. Perché l’intelligenza artificiale non è un incantesimo in Python o una demo brillante su GitHub: è una disciplina. E come ogni disciplina che si rispetti, ha bisogno di formazione, metodo e, soprattutto, certificazione di competenze reali. Da questa urgenza nasce la Race to Certification 2025, l’iniziativa globale di Oracle University che suona come una sfida ma agisce come una terapia d’urto per il mercato del lavoro IT.
La favola dell’oggettività nella valutazione dei modelli linguistici è comoda, rassicurante e soprattutto redditizia. Il Multiple-Choice Question Answering, meglio noto come MCQA, è l’idolo di cartapesta che l’industria continua a venerare come se fosse la pietra di paragone dell’intelligenza artificiale. Scegli una risposta tra quattro, controlla se è giusta, proclama il vincitore e incassa il round di applausi. Peccato che dietro questa apparente semplicità si nasconda un inganno metodologico di proporzioni imbarazzanti. E la cosa ironica è che lo sappiamo già, ma continuiamo a far finta di niente. È come se il settore volesse deliberatamente autoingannarsi per evitare l’inevitabile: accettare che stiamo valutando l’intelligenza artificiale con strumenti progettati per studenti svogliati, non per modelli da centinaia di miliardi di parametri.
Non c’è più spazio per racconti da fantasiosi backstage accademici. In questo aggiornamento di luglio 2025 Babelscape e Sapienza frammentano l’illusione: i PLM come BERT o DeBERTa non ignorano i sensi delle parole, ma non è neppure magia. Il paper pubblicato su ACL 2025 “How Much Do Encoder Models Know About Word Senses?” dimostra che i modelli encoder‑only possono separare le accezioni di una parola in maniera sorprendentemente efficace anche senza alcun fine‑tuning. Il cuore del lavoro è l’analisi su due inventari semantici standard: WordNet e l’Oxford Dictionary of English.
Samsung gioca a scacchi mentre gli altri si divertono con la dama. Choi Won-Joon, il presidente e COO della divisione mobile, ha lanciato un messaggio chiarissimo: il prossimo Samsung Galaxy S26 AI non sarà soltanto uno smartphone, sarà un banco di prova per il dominio sugli assistenti intelligenti. Chi si aspettava la solita minestra riscaldata con Google Gemini, si prepari a un colpo di scena. Samsung sta trattando con OpenAI e Perplexity AI, e non lo fa per cortesia diplomatica. Lo fa perché la battaglia del controllo dell’interfaccia utente si gioca sugli agenti conversazionali, non sulle specifiche hardware.
I mercati amano i numeri, ma i numeri amano ancora di più le storie. E la storia che Luglio 2025 sta scrivendo nel settore delle acquisizioni di startup AI è una di quelle che, tra qualche anno, i consulenti da 1.000 euro l’ora useranno nelle loro slide con la faccia compunta di chi “aveva previsto tutto”. Peccato che pochi l’avessero realmente capito. Il mercato delle acquisizioni di startup di intelligenza artificiale non è più un esperimento, è diventato l’equivalente finanziario di un rally ad alta velocità: chi frena, scompare. Chi investe, lo fa con cifre che solo dodici mesi fa sarebbero sembrate deliranti. E non è un caso che Luglio, tradizionalmente mese di letargia estiva per i mercati, sia stato il palcoscenico perfetto per la nuova corsa all’oro digitale.
“[videogioco] come una produzione di teatro comunitario” è uno dei prompt più intelligenti e divertenti che si possano lanciare su Veo 3 Fast. È geniale perché costringe il modello a reinterpretare il videogioco non come un media high-tech, ma come una rappresentazione artigianale, semplice, “di quartiere”. Il risultato è un cortocircuito estetico: un blockbuster digitale trasformato in uno spettacolo da sala parrocchiale, con scenografie improvvisate e attori che “fingono” di essere personaggi iconici.
È un colpo da maestro, o forse una mossa disperata, quella che Google ha appena giocato con Google Photos AI. La piattaforma con oltre 1,5 miliardi di utenti, fino a ieri un archivio patinato di ricordi digitali, si trasforma improvvisamente in un laboratorio di creatività generativa. E non è solo un aggiornamento tecnico: è un messaggio chiaro al mondo. L’intelligenza artificiale non è più un gadget per smanettoni, è un passatempo per masse annoiate. Perché? Perché quando puoi trasformare la foto del tuo cane in un’animazione 3D con un click, l’AI smette di essere misteriosa e diventa un giocattolo.

YouTube non perde tempo e introduce una serie di funzionalità di intelligenza artificiale generativa per i creatori di Shorts, mettendo in campo un arsenale tecnologico che potrebbe cambiare per sempre il modo in cui produciamo contenuti brevi. La novità più intrigante? Una funzione che trasforma una semplice immagine statica in un video di sei secondi, con tanto di animazioni e suggerimenti intelligenti basati sul contenuto della foto stessa. Finalmente si potrà dare vita a quel paesaggio piatto o a quel selfie congelato in un momento di azione visiva, quasi come se YouTube volesse sfidare TikTok e Meta sul loro terreno di gioco preferito: la creatività veloce e spettacolare.
