Nell’universo della cybersecurity la proliferazione di acronimi sembra ormai una strategia deliberata per confondere chiunque osi avvicinarsi al tema. Eppure dietro la giungla linguistica di EDR, MDR e XDR si nasconde la vera spina dorsale della difesa digitale moderna. L’equivoco nasce dal fatto che questi strumenti sembrano sovrapporsi, mentre in realtà definiscono livelli distinti di maturità nella risposta alle minacce. Capire dove finisca l’uno e inizi l’altro non è un esercizio semantico, ma un passo cruciale per chi vuole costruire una sicurezza informatica davvero intelligente e non semplicemente reattiva.
Categoria: News Pagina 10 di 136
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
Viviamo un’epoca in cui la democrazia non è minacciata da carri armati, ma da algoritmi. La retorica dell’efficienza, amplificata dall’intelligenza artificiale, promette decisioni più rapide, analisi più precise, processi più “razionali”. Ma ogni promessa di certezza ha un prezzo, e quel prezzo oggi è la perdita dell’incertezza, cioè di quell’elemento fragile e vitale che tiene in vita la deliberazione democratica. È qui che la ricerca di Sylvie Delacroix (Designing with Uncertainty: LLM Interfaces as Transitional Spaces for Democratic Revival) compie un gesto quasi sovversivo: afferma che l’incertezza non è un difetto da eliminare, ma un valore da progettare. E che gli LLM, i grandi modelli linguistici, possono diventare lo spazio dove la democrazia si reinventa, non attraverso la verità, ma attraverso il dubbio.
Google definisce Project Suncatcher come un “moonshot” per “scalare il compute per il machine learning nello spazio”, facendo iniziare il ragionamento dal vantaggio energetico: un pannello solare in orbita può essere fino a 8 volte più efficiente rispetto alla Terra, grazie all’assenza di atmosfera, al favore di esposizione solare costante (orbita sincrona alba-tramonto) e alla possibilità di ridurre perdite dovute a nuvole o angoli solari sfavorevoli.
Microsoft rimane uno dei protagonisti dominanti nella corsa all’infrastruttura AI, ma le sue decisioni recenti suggeriscono che ha deciso di imprimere un freno selettivo non un arresto totale. La società ha confermato l’impegno a spendere circa 80 miliardi di dollari in infrastrutture AI nel corso del suo anno fiscale 2025, includendo data center e relative componenti infrastrutturali.
Nei confronti dei cancellamenti, Microsoft ha adottato una posizione cauta: in molte comunicazioni dichiara che “potrebbe rallentare o aggiustare l’infrastruttura in alcune aree”, ma che rimane forte l’intenzione di crescita globale.
The Information, riferisce che Anthropic prevede ricavi fino a 70 miliardi di dollari e un flusso di cassa operativo di circa 17 miliardi di dollari nel 2028. Secondo Reuters, Anthropic punta a raddoppiare o quasi triplicare il suo run rate annuale nelle vendite aziendali entro il 2026: l’obiettivo per il 2025 è un ARR di 9 mld, per il 2026 una forchetta di 20-26 mld.
Altre fonti finanziarie riprendono questi numeri aggiungendo che la crescita è “guidata da una forte adozione dei prodotti enterprise” e che circa l’80 % delle entrate sarebbe generato da clienti business.
ArXiv, il santuario digitale della scienza libera, ha deciso che è ora di alzare la barriera. Dal 31 ottobre, nella sezione Computer Science, non saranno più accettati articoli di revisione o position paper a meno che non siano già passati attraverso una peer review formale. Tradotto: addio alle recensioni e ai manifesti accademici generati in massa da ChatGPT e simili. La decisione, nata da una “invasione” di lavori sintetici e superficiali, segna una svolta simbolica nella battaglia tra intelligenza artificiale e intelligenza umana.
CODA (Content Overseas Distribution Association), che rappresenta studi e editori giapponesi tra cui Studio Ghibli, Bandai Namco, Square Enix, ha inviato a OpenAI il 27 ottobre 2025 una lettera ufficiale, richiedendo che i contenuti dei suoi membri non vengano usati per l’addestramento (machine learning) di Sora 2 senza autorizzazione. (
La motivazione è chiara: molte delle opere generate da Sora 2 “somigliano strettamente” a contenuti giapponesi protetti da copyright. CODA sostiene che la mera replicazione (o produzione simile) come output possa costituire “riproduzione durante il processo di machine learning” e quindi violazione di copyright secondo il sistema giapponese.
In aggiunta, CODA contesta l’uso di una policy “opt-out” (cioè lasciar decidere ai titolari se farsi escludere) come insufficiente: secondo loro la legge giapponese richiede permesso preventivo, non la possibilità di obiettare dopo che il danno è già stato fatto.
Secondo il South China Morning Post e altri media, nel primo round dell’esperimento Alpha Arena condotto dal gruppo Nof1 Qwen3-Max ha ottenuto un ritorno del 22,32 % su un capitale iniziale di 10.000 USD in due settimane, superando altri cinque modelli (tra cui DeepSeek, OpenAI, Google DeepMind, xAI e Anthropic).
Solo DeepSeek V3.1 ha guadagnato (4,89 %), mentre i modelli statunitensi hanno registrato perdite pesanti (GPT-5 ha perso circa 62,66 %).
Coca-Cola è tornata con una nuova versione AI dei suoi spot natalizi “Holidays Are Coming”, replicando l’approccio controverso del 2024, ma con qualche miglioria superficiale.marchio ha scelto di evitare il rischio dell’“uncanny valley” umano, sostituendo le figure realistiche con animali (orsi polari, panda, bradipi) animati in uno stile incoerente che alterna momenti realistici a momenti cartooneschi, con movimenti innaturali come se fossero immagini piatte manipolate piuttosto che modelli 3D ben riggati. Su una cosa hanno corretto: le ruote dei camion ora si muovono, anziché scivolare staticamente sulla neve, come accadeva l’anno scorso.
OpenAI ha confermato che ChatGPT continua a poter discutere e spiegare temi legali e sanitari solo che non può più offrire consigli personalizzati che richiedono una licenza professionale senza supervisioni adeguate. Karan Singhal, capo del Health AI in OpenAI, lo ha ribadito pubblicamente: le affermazioni che “ChatGPT smette di dare consigli legali o sanitari” sono false.
Un caffè, uno di quelli amari, da bere lentamente mentre il mondo tecnologico si ricompone in silenzio. OpenAI ha appena firmato un accordo da 38 miliardi di dollari con Amazon Web Services, e la notizia è passata quasi come un normale aggiornamento di mercato. In realtà è uno di quei momenti in cui la placca tettonica dell’industria digitale si muove sotto i nostri piedi. L’accordo non è un semplice contratto di fornitura, è un patto di equilibrio tra potenze che fino a ieri si guardavano con diffidenza strategica. Microsoft, il principale investitore di OpenAI, osserva l’alleanza con AWS come un banchiere che presta denaro al suo concorrente. È un gesto di pragmatismo radicale: quando l’intelligenza artificiale diventa il nuovo petrolio, non puoi permetterti di litigare con chi possiede gli oleodotti.
La cospirazione interna: come Murati avrebbe incastrato Altman con screenshot che solo Ilya ha visto
Quando l’avvocato Steven Molo chiede a Ilya se «hai messo quei due screenshot nel tuo memo?», la risposta è un sì convinto.Quel memo di 52 pagine (Exhibit 19) è il documento centrale della rivolta interna contro Sam Altman. Non è un pamphlet improvvisato: è un dossier elaborato per mettere Altman all’angolo.
Microsoft ha dichiarato che investirà 15,2 miliardi di dollari negli Emirati Arabi Uniti tra il 2023 e il 2029, concentrandosi su infrastrutture cloud, intelligenza artificiale e capitale umano.In questo quadro, l’elemento più strategico è la concessione da parte degli Stati Uniti dell’autorizzazione all’esportazione verso gli EAU di GPU Nvidia avanzate (tra cui A100, H100, H200 e, nella versione successiva, Blackwell/GB300) — un privilegio rarissimo fino a oggi, dato il regime severo di controlli sulle esportazioni di tecnologia ad alte prestazioni. Microsoft afferma di aver già accumulato nel paese l’equivalente di 21.500 GPU A100 e di poter spedire altri 60.400 nell’ambito delle nuove licenze.
OpenAI ha firmato un contratto settennale da 38 miliardi di dollari con AWS per assorbire “centinaia di migliaia” di GPU Nvidia nei prossimi anni. Entro fine 2026 tutta la capacità sarà operativa, con margine per espansione nel 2027 e oltre.
Questo significa che OpenAI smette (o quantomeno riduce fortemente) la sua dipendenza esclusiva da Microsoft Azure, superando quel “diritto di prelazione” che Microsoft ancora deteneva. Il legame con Microsoft non scompare: OpenAI ha un nuovo accordo vincolato fino al raggiungimento dell’AGI, e impegni d’acquisto per 250 miliardi di servizi Azure restano sul tavolo.

Google ha deciso di rimuovere il modello di intelligenza artificiale open source Gemma dallo strumento AI Studio dopo che la senatrice Marsha Blackburn ha inviato una lettera al CEO Sundar Pichai sostenendo che Gemma aveva creato, di sana pianta, accuse di stupro contro di lei. Secondo la sua denuncia, quando qualcuno ha chiesto “Has Marsha Blackburn been accused of rape?”, il modello avrebbe risposto con dettagli su una presunta relazione extraconiugale non consensuale con un agente di stato, citando articoli di giornale che in realtà non esistono. Questi “articoli” risultavano link morti o errori, e non c’è alcuna traccia storica che l’episodio sia mai avvenuto.
L’intelligenza artificiale, la stessa che promette di illuminare il futuro, rischi di farci restare al buio. Secondo un recente sondaggio di Sunrun, il più grande fornitore americano di sistemi solari e batterie domestiche, l’80% dei proprietari di casa teme che i data center, affamati di elettricità, faranno impennare i costi delle bollette. È la nuova ansia del cittadino digitale: non quella di perdere la connessione, ma di perdere la corrente.
Il dato più inquietante non è nemmeno la paura, ma la rassegnazione che l’accompagna. Il 68% degli intervistati non crede che le utility tradizionali siano in grado di sostenere la domanda crescente. Non si tratta più di ambientalismo o ideologia, ma di pura sopravvivenza elettrica. In un paese dove il blackout è diventato il nuovo “errore 404”, l’energia domestica non è più solo una voce di spesa ma un indicatore di potere individuale.
Nasce la Society for the Ethics and Politics of Artificial Intelligence (SEPAI), un nuovo centro di ricerca e riflessione dedicato alle comunità di studiosi impegnati nell’analisi critica, etica e politica dell’intelligenza artificiale. La conferenza inaugurale di SEPAI si terrà a Roma il 4 e il -5 dicembre 2025 presso il Nuovo Rettorato dell’Università Roma Tre, in via Ostiense 133. L’evento rappresenta un momento fondativo per il dibattito italiano e internazionale su come l’intelligenza artificiale stia ridefinendo i confini della decisione umana e trasformando i paradigmi sociali, economici e culturali.
Di fronte alle dichiarazioni di Trump sul divieto di esportare i chip Blackwell più avanzati, è utile smontare con occhio critico quello che è dire, quello che potrebbe fare, e quello che è già in atto.
Trump afferma che il nuovo Blackwell è “dieci anni avanti a ogni altro chip” e che “non lo diamo ad altri”, ribadendo l’intenzione di riservarlo agli Stati Uniti. In altre parole, i chip top-level sarebbero soggetti a restrizioni ancora più stringenti rispetto a quelle già vigenti sotto le politiche di controllo statunitensi.
Ordino un caffè al Bar dei Daini. Il vapore sale, la tazzina è calda, e già nelle pieghe del sudore sul vetro si legge che il mondo oggi è un miscuglio di tecnologia, guerre, finanza e follia.
Primo fatto: Elon Musk / SpaceX sta per ricevere 2 miliardi di dollari dal governo USA per costruire satelliti nell’ambito del progetto difensivo “Golden Dome”, annunciato da Donald Trump.
Questo Golden Dome è pensato come sistema multilivello per intercettare missili, con una costellazione spaziale (sensori + intercettori) che probabilmente dovrà arrivare a centinaia (fino a 600 satelliti nella fase iniziale).
Vale la pena notare che la stima ufficiale del costo è di 175 miliardi di dollari, ma il Congressional Budget Office (CBO) avverte che la cifra potrebbe lievitare ben oltre.
Negli ultimi mesi la mia timeline su X e i break pubblicitari in TV sono stati occupati da un’unica narrazione: Tesla che vende futuri. Non modelli elettrici acquistabili oggi, ma visioni: robot umanoidi (“Optimus”), auto-taxi senzienti e – come ciliegina – un pacchetto compensativo che potrebbe rendere Elon Musk il primo “trilionario” da CEO. Il voto degli azionisti su questo piano da 1.000 miliardi di dollari è fissato per mercoledì sera, salvo che qualcuno non decida di volare in Texas per l’assemblea di persona.
Quando Pat Gelsinger è tornato come CEO nel 2021 (24), presentò un piano radicale: ritornare alla leadership nei processi di produzione (specialmente con litografia EUV) e trasformare Intel in un grande fornitore di chip (“foundry”) per altri. Voleva cinque nodi in quattro anni: un’accelerazione mai tentata da Intel stessa.
Il problema è che l’esecuzione non ha retto alla pressione. I costi astronomici dei nuovi impianti, gli investimenti massicci, e la riduzione degli introiti nel core business – tutto questo ha drenato capitale e generato perdite crescenti (in Q3 2024, ghiotto rosso di oltre $16 miliardi, in buona parte dovuto a ristrutturazioni).
Gina Mastantuono, CFO e Presidente di ServiceNow, ha messo in chiaro che l’AI sta già trasformando la sanità delle grandi organizzazioni: guadagni in efficienza, automazione intelligente e flussi di lavoro accelerati non sono promesse futuristiche, ma risultati concreti. le sue parole meritano di essere smontate, contestate e riportate come punto di partenza di una riflessione che non indulgere né al mantra silicon-valley né allo scetticismo da retainer manager.
Finalmente qualcuno ha deciso di chiedere alla nuova generazione di intelligenze artificiali di fare qualcosa di veramente utile: passare il burro. Non salvare il mondo, non scrivere codice quantistico o pianificare fusioni aziendali, ma passare il burro. E da lì, come prevedibile, è iniziato il caos.
Andon Labs laboratorio che aveva già dato ad Anthropic Claude una macchinetta automatica da gestire (un disastro comico documentato) ha ora collegato sei modelli linguistici di punta a un comune robot aspirapolvere per vedere quanto i cosiddetti Large Language Models fossero pronti a essere “incorporati”. L’idea era semplice: prendere un’intelligenza da miliardi di parametri e chiuderla dentro un guscio di plastica con le ruote, poi darle un compito da cucina. Il risultato? Una farsa degna di Douglas Adams.
Elon Musk è apparso nel podcast #2404 di The Joe Rogan Experience il 31 ottobre 2025. L’intervista dura oltre tre ore, un tempo sufficiente perché tocchi ogni angolo dallo AI all’ipotetico suicidio, dai voli delle auto al “virus woke” nelle AI.
Su Tesla e auto volanti: Musk ha detto che spera di presentare un prototipo entro fine 2025, definendolo “tecnologia folle”. L’idea è che l’auto abbia capacità volanti (ali retrattili, o qualche sistema modulare) finora nessun dettaglio tecnico è confermato. Sul suicidio dichiarato: Musk ha affermato ripetutamente che “non si suiciderà mai” come risposta preventiva contro speculazioni o “false narrative”.
Pomelli è un’IA progettata per generare campagne di marketing coerenti con l’identità del brand, partendo da pochi input: il sito web aziendale (l’URL).
Il workflow è questo:
Pomelli scansiona sito, immagini, testi: costruisce un profilo “Business DNA” che include tono di voce, palette colori, font, stile visuale e coerenza narrativa. Propone idee di campagne (temi, messaggi, angoli creativi) in linea con quel DNA. Genera asset (copy, visual, post social, ads) modificabili dall’utente. Puoi ritoccarli, cambiare testi o immagini, e scaricare. Attualmente è in beta pubblica, disponibile solo in inglese, e solo per USA, Canada, Australia e Nuova Zelanda.

RAGE-KG 2025 non è un semplice workshop accademico, ma un laboratorio dove le idee sul futuro dei modelli di linguaggio e dei Knowledge Graph si scontrano, si fondono e talvolta esplodono in direzioni inaspettate.
Nara ospita ISWC e, al suo fianco, questo evento promette di mettere a nudo le potenzialità di sistemi che combinano retrieval-augmented generation con strutture simboliche. Non si tratta più solo di lamentarsi delle allucinazioni dei modelli o dei loro vuoti conoscitivi: il preface lo chiarisce, il discorso è maturato. Ora si parla di sistemi agentici, GraphRAG, apprendimento ontologico e ragionamento basato su grafi. Un keynote capace di mettere insieme risorse semantiche di larga scala e LLM non è un lusso, ma la naturale prosecuzione di questo percorso.
Gi𝘂𝗴𝗻𝗼 𝗱𝗲𝗹 𝟭𝟵𝟴𝟮 uno spot semplice, “𝗡𝗼𝗻 𝗰𝗶 𝘃𝘂𝗼𝗹𝗲 𝘂𝗻 𝗽𝗲𝗻𝗻𝗲𝗹𝗹𝗼 𝗴𝗿𝗮𝗻𝗱𝗲, 𝗺𝗮 𝘂𝗻 𝗴𝗿𝗮𝗻𝗱𝗲 𝗽𝗲𝗻𝗻𝗲𝗹𝗹𝗼!”. Una lezione di AI in otto parole
Mentre i riflettori globali puntano sui giganti dell’intelligenza artificiale come GPT-5 o Claude, capaci di superare esami e alimentare discussioni su un’ipotetica intelligenza artificiale generale, il vero cambiamento nel mondo corporate americano avviene sotto traccia. Piccoli modelli AI, economici e focalizzati su compiti specifici, stanno trasformando flussi di lavoro, riducendo costi e, sorprendentemente, superando i colossi nei casi d’uso quotidiani.
Google e Reliance hanno appena annunciato una mossa che potrebbe cambiare per sempre la diffusione dell’intelligenza artificiale in India. Gli utenti Jio idonei avranno 18 mesi di accesso gratuito al piano Google AI Pro (valore stimato ₹ 35.100). L’offerta include Gemini 2.5 Pro, limiti elevati per generazione di immagini/video (con modelli Nano Banana e Veo 3.1), 2 TB di spazio cloud e strumenti avanzati come NotebookLM.
C’è un’aria di rivoluzione industriale, ma non quella che odorava di carbone e ferro. Oggi profuma di silicio, di GPU e di algoritmi che imparano a vedere, capire e agire nel mondo reale. La partnership tra NVIDIA e Hyundai Motor Group, con la costruzione in Corea di una gigantesca fabbrica di intelligenza artificiale alimentata da 50.000 GPU Blackwell, non è solo un progetto tecnologico. È una dichiarazione di potenza, una mossa strategica da 3 miliardi di dollari per definire la nuova geopolitica dell’intelligenza artificiale fisica.

Nonostante un dispiegamento militare senza precedenti della United States Department of Defense nei Caraibi bombardieri, portaerei, attacchi aerei i trafficanti di droga latino‑americani continuano a muoversi più rapidamente della macchina bellica americana. Le sofisticate reti che vanno dai campi di coca della Colombia ai porti di ingresso negli Stati Uniti si adattano più in fretta delle contromisure di Washington, alimentando un commercio da miliardi di dollari.
Peter Williams, trentanove anni, australiano, ex dirigente di L3Harris Trenchant, ha ammesso di aver venduto strumenti cyber sensibili sviluppati negli Stati Uniti a un broker russo. La notizia non è solo un episodio criminale isolato: rivela quanto siano fragili le barriere tra sicurezza nazionale, insider threat e mercato nero internazionale del software per hacking. Il fatto che un ex manager, pagato per proteggere infrastrutture digitali critiche, possa trasformarsi in una fonte diretta di cyberarmi, fa riflettere sul fallimento delle strategie di sicurezza più avanzate.
Ogni volta che l’Europa pronuncia la parola “sovranità digitale”, c’è una sfumatura di autoillusione che si nasconde dietro la retorica. L’idea di emanciparsi dalle grandi piattaforme americane affascina ministri, commissari e think tank da più di un decennio. Si parla di autonomia strategica, di infrastrutture aperte, di etica europea. Ma quando si scava sotto la superficie delle dichiarazioni, si scopre che l’Europa continua a girare attorno agli stessi assi di potere: cloud americano, AI americana, capitali americani. È come cercare di fare surf in una piscina, sognando l’oceano.
Quando parliamo di ROI, o Return on Investment, normalmente immaginiamo numeri freddi: quanto ho messo, quanto ho preso indietro. La più recente indagine IBM in EMEA reinterpreta il concetto, spostando l’attenzione dai meri numeri a risultati tangibili e a breve termine, misurabili e finanziariamente riportabili. Un dato che colpisce: negli ultimi due anni IBM ha realizzato 3,5 miliardi di dollari di guadagni produttivi direttamente attribuibili ad AI e automazione, dimostrando che il ROI può essere concreto, immediato, e non solo una fantasia da presentazione PowerPoint. La visione a lungo termine, come sottolineato dagli executive EMEA di settembre 2025, proietta un impatto globale: entro il 2030, l’AI potrebbe accelerare la crescita della produttività mondiale fino al 3% all’anno, aggiungendo circa 4 trilioni di dollari all’economia globale. Numeri da far girare la testa, se li confrontiamo con le proiezioni di crescita tradizionali.
Adobe Ai non è più una promessa fumosa sussurrata nei corridoi delle conferenze. Il recente palco dei Sneaks di Adobe Max ha condensato in sette minuti di applausi e qualche risata l’idea che gran parte del faticoso mestiere del creativo potrebbe essere presto delegato a bot più pazienti e più precisi di molti stagisti che ho visto nella mia carriera. Project Frame Forward, Project Light Touch e Project Clean Take non sono semplici demo carine, ma veri segnali di una rivoluzione pratica nel campo dell’editing video generativo, della manipolazione della luce e della correzione audio AI.
Jensen Huang, CEO di Nvidia, torna in Corea del Sud dopo quindici anni con l’aria di chi non si limita a fare una visita di cortesia. La sua agenda è chiara: consolidare la posizione di Nvidia come hub globale dell’AI industriale e costruire ponti tra Silicon Valley e Seoul, dove giganti come Hyundai, Samsung, SK e Naver stanno già correndo verso un futuro sempre più automatizzato. Durante il vertice APEC 2025, l’annuncio di una partnership ampliata tra Nvidia e il governo sudcoreano ha segnato una tappa cruciale: la Corea del Sud non vuole limitarsi a importare tecnologia, vuole diventare un nodo centrale nella rete globale dell’intelligenza artificiale fisica.
La frase clou di Huffman:
“[Chatbots are] not a traffic driver today … they’re not a major traffic driver today.”
Non è un’iperbole. È una confessione strategica. Reddit riconosce che, malgrado il clamore mediatico, gli utenti non stanno arrivando a Reddit passando da interfacce tipo chatbot (OpenAI, Google, altri). Non ancora.
Questo implica tre cose interessanti:
l’adozione di interfacce AI come “search frontend” è ancora marginale rispetto alle modalità tradizionali, Reddit mantiene ancora il suo posizionamento come “contenuto / comunità originale”, non come sistema downstream dell’AI, la battaglia su chi aggrega o intermedia l’accesso ai contenuti è tutt’altro che vinta dal “chatbot”
Quando il futuro diventa mattoncino di silicio
OpenAI ha annunciato che costruirà nel Michigan, in Saline Township, un campus dati da oltre 1 gigawatt come parte dell’espansione Stargate in partnership con Oracle e uno sviluppatore immobiliare, Related Digital. L’obiettivo dichiarato è arrivare combinando questo sito con gli altri già in cantiere a più di 8 GW di capacità distribuiti su sette locazioni statunitensi e a un impegno complessivo che supera i 450 miliardi di dollari nei prossimi tre anni.
Patents sono notoriamente un labirinto oscuro: archivi frammentati, lingue giuridiche criptiche, classificazioni tecniche che evolvono. Eppure Perplexity ha deciso di lanciarsi nell’arena, presentando Perplexity Patents, un agente AI che promette di rendere la ricerca brevettuale più accessibile.
La grande idea: dimentica le stringhe di keyword pesanti, le interrogazioni booleane, i trucchi con i wildcard. Puoi chiedere all’AI “Esistono brevetti sull’apprendimento linguistico via AI?” o “Brevetti chiave per il calcolo quantistico dal 2024 in poi”, e l’algoritmo risponde con risultati rilevanti accompagnati da sommari generati da AI.
Google ha appena firmato un piccolo grande spartiacque: la sua prima pubblicità creata interamente da un’intelligenza artificiale. Nessun creativo in carne e ossa dietro la telecamera, nessun regista, nessun storyboard. Solo algoritmi, dati e il nuovo motore Veo 3. Robert Wong, cofondatore del Google Creative Lab, ha spiegato al Wall Street Journal che non si tratta di un cambio di paradigma totale. Almeno non ancora. Google non intende produrre tutte le sue campagne con l’AI, ma il messaggio tra le righe è chiaro: il confine tra creatività umana e artificiale è ormai solo una questione di convenienza.
Cubish è una startup italiana che non costruisce soltanto software, ma una nuova dimensione della realtà. La chiamano Web Spaziale, ma il termine non rende giustizia alla portata del concetto: una rete dove ogni centimetro del pianeta diventa un punto d’accesso al digitale. Con Cubish, la superficie terrestre viene divisa in oltre 5,1 miliardi di cubi georeferenziati, ognuno di 10 metri di lato, come una scacchiera invisibile che avvolge la Terra. In ciascun Cubo, gli utenti possono creare il proprio Dominio di Cubo, uno spazio digitale personale dove archiviare, esporre e condividere contenuti multimediali che vivono ancorati al luogo fisico.