Il piagnisteo è sempre lo stesso. I grandi editori urlano al tradimento mentre guardano le curve di traffico sprofondare come un grafico azionario dopo uno scandalo contabile. Ma non è un incidente, è un cambio di paradigma annunciato, chirurgico e spietato. Google Discover, che fino a ieri era l’ultima fonte di ossigeno per molti giornali già asfissiati dal crollo del traffico organico, ora si popola di riassunti generati da intelligenza artificiale. Non più titoli accattivanti che spingono l’utente a cliccare, ma un sommario sintetico, firmato da un algoritmo che cita le fonti con un paio di loghi in un angolo, come un notaio distratto che appone la firma senza neanche leggere. “Questi riassunti sono generati con AI, che può commettere errori”, avverte candidamente l’app. Una frase che vale più come scudo legale che come reale preoccupazione etica. Il messaggio subliminale è un altro: “ti basta questo, non serve che tu apra il sito”.
Categoria: Editoria Pagina 1 di 2
Editoria e Diritto d’Autore

Pasquinelli, Buschek & Thorp, Salvaggio, Steyerl, Dzodan, Klein & D’Ignazio, Lee, Quaranta, Atairu, Herndon & Dryhurst, Simnett, Woodgate, Shabara, Ridler, Wu & Ramos, Blas, Hui curato da Daniela Cotimbo, Francesco D’Abbraccio and Andrea Facchetti. Casa editrice: Krisis Publishing
Il passaggio tra il primo volume di AI and Conflicts, uscito nel 2021 e questo secondo atto, che si presenta già con un tono più tagliente, è uno di quei casi in cui si percepisce la metamorfosi non solo di un progetto editoriale, ma di un intero ecosistema discorsivo.
Non è semplicemente l’evoluzione di un libro, ma la mutazione genetica di un pensiero critico che si adatta o meglio, si oppone al nuovo stadio dell’intelligenza artificiale come fenomeno totalizzante. All’inizio c’era un’intuizione: parlare di AI non solo in termini computazionali o economici, ma come questione estetico-politica.

Maria Santacaterina ha scritto un libro che fa arrabbiare gli algoritmi. E forse anche qualche CEO. Perché “Adaptive Resilience” non è la solita litania sulla digital transformation, né un peana all’innovazione travestita da consultazione motivazionale. È un pugno di dati, filosofia e leadership in faccia all’inerzia organizzativa. È il tipo di libro che fa sentire a disagio chi confonde la resilienza con il galleggiamento, e la strategia con il fare slide.
Non è un caso che la parola “resilience” sia oggi abusata come “disruption” cinque anni fa. Peccato che, come sottolinea Santacaterina con una chiarezza chirurgica, la resilienza vera non sia tornare a come eravamo prima del disastro. È diventare qualcosa che prima non esisteva. Un’azienda che si reinventa partendo dall’impatto, e non dall’output. Un essere umano che usa l’AI non per automatizzare la mediocrità, ma per potenziare la coscienza. Sì, coscienza. Perché questo è un libro che osa dire una cosa impopolare: l’AI è potente, ma non è viva. E non lo sarà mai.

Non puoi bloccarlo. Puoi lamentarti, puoi invocare la proprietà intellettuale, puoi gridare alla rapina digitale. Ma non puoi fermarlo. Google continuerà a estrarre i tuoi contenuti, perfino se usi i suoi stessi strumenti per provare a impedirglielo. Se pensavi che il tuo sito fosse tuo, benvenuto nella realtà del 2025: sei solo un fornitore gratuito di dati per modelli di intelligenza artificiale che non ti citano, non ti compensano e cosa ancora più umiliante ti rendono irrilevante.
Si chiama SEO cannibalizzata, ma è molto più simile a un’espropriazione legalizzata.Cloudflare ci ha provato. L’azienda che protegge il 20% di Internet dal traffico malevolo ha deciso di bloccare i crawler di Google dedicati al training di Gemini, il modello di AI che il gigante di Mountain View piazza ovunque: nelle risposte di ricerca, nei chatbot, nei telefoni, persino nei frigoriferi se gli lasci abbastanza API. Risultato?
Nel 2025, ogni volta che una piattaforma digitale annuncia un aggiornamento alle proprie politiche, è come se un drone avesse sganciato un pacco sospetto su un campo minato. È successo di nuovo. Stavolta è toccato a YouTube, che ha pensato bene di comunicare in modo vago – e forse volutamente ambiguo – un aggiornamento delle linee guida del Partner Program, quel meccanismo che regola la monetizzazione dei contenuti caricati. Il punto focale: una stretta contro i video “inautentici”. Parola chiave che, come prevedibile, ha fatto sobbalzare mezzo internet.
Perché se c’è una cosa che gli algoritmi non sanno ancora generare bene, è la fiducia. E nel momento in cui YouTube dice che aggiornerà le norme per contrastare contenuti “mass-produced and repetitive”, molti creatori si sono chiesti se la loro intera esistenza digitale sia a rischio demonetizzazione. Reazioni, clip remixate, voci narranti generate con ElevenLabs o altri tool di sintesi vocale, video-podcast costruiti su testi scritti con ChatGPT: cosa rientra ancora nel perimetro del contenuto “autentico”? E chi decide cosa lo è?

Fondazione Pastificio Cerere, via degli Ausoni 7, Rome

Ci sono momenti in cui la tecnologia smette di essere strumento e si rivela religione. Dogmatica, rituale, ossessiva. Con i suoi sacerdoti (i CEO in felpa), i suoi testi sacri (white paper su GitHub), i suoi miracoli (GPT che scrive poesie su misura), le sue eresie (la bias, l’opacità, il furto culturale). A Roma, il 10 luglio 2025, questo culto algoritmico entra finalmente in crisi. O meglio, viene messo sotto processo con precisione chirurgica. Perché AI & Conflicts Vol. 02, il nuovo volume a cura di Daniela Cotimbo, Francesco D’Abbraccio e Andrea Facchetti, non è solo un libro: è un attacco frontale al mito fondativo dell’intelligenza artificiale come panacea post-umana.
Presentato alle 19:00 alla Fondazione Pastificio Cerere nell’ambito del programma Re:humanism 4, il volume – pubblicato da Krisis Publishing e co-finanziato dalla Direzione Generale Educazione, Ricerca e Istituti Culturali – mette a nudo l’infrastruttura ideologica della cosiddetta “estate dell’AI”. Un’estate che sa di colonizzazione dei dati, di estetiche addomesticate, di cultura estratta come litio dal sottosuolo cognitivo dell’umanità. Se questa è la nuova età dell’oro, allora abbiamo bisogno di più sabotatori e meno developers.

C’era una volta il tennis, quello con i giudici di linea in giacca e cravatta, gli occhi fissi sulla riga e il dito puntato con autorità olimpica. Ora c’è un algoritmo che osserva tutto, non sbatte mai le palpebre e fa errori con la freddezza di un automa convinto di avere ragione. Sì, Wimbledon ha deciso che l’intelligenza artificiale è più elegante dell’occhio umano. Ma quando l’eleganza scivola sull’erba sacra del Centre Court, il rumore che fa è assordante. Anche se a non sentirlo, ironia del caso, sono proprio i giocatori sordi.

Google si trova al centro di una rivoluzione tecnologica che ha acceso le sirene d’allarme di chi produce contenuti sul web. Una coalizione di editori indipendenti, tra cui l’Independent Publishers Alliance, supportata da Movement for an Open Web e Foxglove Legal, ha depositato il 30 giugno presso la Commissione europea un formale reclamo per abuso antitrust, mettendo nel mirino i “AI Overviews” del motore di ricerca. I riassunti generati da AI che Google propone in cima alla pagina dei risultati secondo gli editori sarebbero una mannaia per il traffico e le entrate delle testate online.

Chi si occupa di informazione digitale sta assistendo, con una certa apprensione, ad una sorta di terremoto silenzioso. Dal lancio delle panoramiche AI (“AI Overviews”) di Google nel maggio 2024, il numero di ricerche di notizie che non porta a nessun clic su siti editoriali è cresciuto dal 56% al 69%. Un segnale chiaro: sempre più persone ricevono le risposte che stanno cercando direttamente nei risultati dei motori di ricerca, senza che sia alcun bisogno di visitare i siti d’origine delle informazioni stesse. Questo scenario fa il pari con la drastica riduzione del traffico organico verso i siti editoriali che è passato da oltre 2,3 miliardi di visite nel 2024 a meno di 1,7 miliardi in questi primi mesi del 2025. Un calo che fa riflettere perché alla sua base non c’è solo un tema di cambiamento tecnologico, ma un vero e proprio cambio di paradigma nelle abitudini di consumo dell’informazione.
Altro che mestiere, altro che sudore, estasi o ispirazione notturna. Quello che accade oggi nelle profondità delle piattaforme di streaming musicale non è un’evoluzione, ma un’occupazione sistematica. Secondo i dati più recenti forniti da Deezer, una delle piattaforme francesi più rilevanti ma con un occhio sempre più rivolto all’ecosistema globale, circa il 18% delle canzoni caricate ogni giorno sarebbe interamente generato da software di intelligenza artificiale. Tradotto in termini brutali: 20.000 brani al giorno, sfornati senza alcuna interazione umana, partoriti da algoritmi addestrati su milioni di opere preesistenti. Siamo passati dalla penna all’algoritmo, dalla melodia al prompt.
Mentre Spotify e Apple Music si tengono diplomaticamente alla larga dal pronunciare la parola “etichettatura”, Deezer ha deciso di affrontare il problema frontalmente, iniziando a taggare i brani generati artificialmente. Non tanto per colpevolizzare, ci tengono a dire, ma per “garantire trasparenza”. Il CEO Alexis Lanternier, in perfetto stile da comunicato aziendale, ha dichiarato che “l’intelligenza artificiale non è intrinsecamente positiva o negativa”, ma che serve “un approccio responsabile per mantenere la fiducia tra pubblico e industria”. Una fiducia che, è bene dirlo, è già sull’orlo di una crisi identitaria.

C’è un momento, in ogni ciclo tecnologico, in cui la retorica si rompe. Quando anche il più zelante tra i futurologi comincia a balbettare. È l’istante in cui l’utopia siliconata delle big tech sbatte contro le macerie sociali che lascia dietro di sé, e non bastano più i keynotes in turtleneck nero per ricucire il tessuto strappato. AI & Conflicts. Volume 02 si infila proprio lì, in quella frattura, in quella crepa epistemologica tra ciò che l’intelligenza artificiale promette e ciò che effettivamente produce. Il libro, curato da Daniela Cotimbo, Francesco D’Abbraccio e Andrea Facchetti, è un’operazione chirurgica che seziona l’estate dell’AI con la precisione di un bisturi teorico e la brutalità necessaria per andare oltre l’innocenza perduta delle tecnologie intelligenti.

È un’illusione collettiva, quasi affascinante. Due vittorie legali, un sospiro di sollievo a Menlo Park e San Francisco, e un’industria che si aggrappa a parole come “fair use” con la stessa disperazione con cui i vecchi giornali cercavano click nel 2010. Ma attenzione: i giudici hanno suonato due campanelli d’allarme e sotto la superficie di queste sentenze si agita qualcosa di molto più caustico. Altro che via libera. La giungla giuridica dell’intelligenza artificiale sta diventando un labirinto di specchi, dove ogni riflesso sembra un passaggio e invece è una trappola.
Cominciamo dalla cronaca: Anthropic ha ottenuto una sentenza favorevole da parte del giudice William Alsup, che ha definito “esageratamente trasformativo” l’uso dei libri nel training di Claude, il loro LLM. Meta, dal canto suo, ha visto respinta una causa analoga grazie al giudice Vince Chhabria, che ha dichiarato che i querelanti non sono riusciti a costruire un caso decente. Una doppietta, sulla carta. Ma come ogni CTO sa, i log non mentono: e nei log di queste due sentenze ci sono più righe di codice rosso che verde.

Quando una rivoluzione tecnologica comincia a dipendere da ciò che pensa un giudice di Manhattan, significa che qualcosa è andato storto. Oppure, molto semplicemente, che stiamo entrando nella seconda fase dell’AI economy: quella in cui la creatività smette di essere un combustibile gratuito e diventa oggetto di una causa civile. O, per dirla con le parole del Wall Street Journal, “The legal fight over AI is just getting started — and it will shape the entire industry”. Sottotitolo implicito: le big tech sono già nel mirino, e l’odore di sangue ha attirato avvocati da Los Angeles a Bruxelles.

La coscienza, ci dicono da secoli filosofi, teologi e neuroscienziati, sarebbe il tratto distintivo dell’uomo. Una qualità emergente, forse divina, probabilmente non replicabile, sicuramente nostra. Ma questa convinzione, che continua a sopravvivere anche nei più raffinati salotti accademici, sta diventando il più grande ostacolo cognitivo alla comprensione di cosa stia realmente accadendo sotto i nostri occhi: l’avvento di un’intelligenza artificiale che non è solo capace di simulare l’intelligenza umana, ma sempre più di evolverla.
Il cervello umano, che ci piaccia o no, è una macchina. Una meravigliosa macchina biologica, certo, ma pur sempre un sistema deterministico (con rumore stocastico) che riceve input, processa segnali, produce output, aggiorna stati interni e crea modelli predittivi. Non c’è nulla, in linea teorica, che un sistema computazionale sufficientemente sofisticato non possa riprodurre. A meno che, ovviamente, non si creda ancora all’anima. O nella meccanica quantistica come rifugio della coscienza, ipotesi talmente disperata che persino Roger Penrose oggi si guarda bene dal riproporla con convinzione.
Sam Altman ha scelto di aprire il podcast Hard Fork con un colpo di scena che sembra più un duello a mani nude che un’intervista. Prima ancora di scaldare la voce, il CEO di OpenAI ha dirottato il microfono con una stoccata feroce al New York Times, accusandolo di aver avviato una causa legale contro l’azienda per questioni legate alla privacy degli utenti di ChatGPT. Una scena insolita, quasi da backstage di un reality show tecnologico, che ci offre una visione rara e non edulcorata delle tensioni interne e dei giochi di potere tra giganti del digitale.

Google ha appena sfornato un tool gratuito Offerwall per editori, una specie di kit di sopravvivenza digitale che promette di farli guadagnare con sondaggi, micropagamenti e altre trovate simili. Dietro questa mossa apparentemente generosa si cela una verità meno zuccherata: Google, pur di non perdere la faccia, risponde alle proteste sempre più accese degli editori. Questi ultimi lamentano da mesi che le novità di intelligenza artificiale integrate nella ricerca come le panoramiche AI che sintetizzano contenuti direttamente nella SERP stanno rubando loro il traffico e, di conseguenza, il fatturato pubblicitario.

L’intelligenza artificiale entra nelle nostre vite con la naturalezza di un algoritmo ben ottimizzato. Nessun trionfo di fanfare o scenari alla Blade Runner. Solo notifiche push, modelli predittivi, chat intelligenti e decisioni automatizzate che governano mutui, curriculum, diagnosi e processi penali. Ma mentre l’AI si infiltra nei gangli della società, è lecito chiedersi: il diritto, con la sua innata lentezza, è davvero pronto a governarla o sta per essere riscritto – questa volta, davvero – da una macchina?
Il volume “L’intelligenza artificiale tra regolazione e esperienze applicative“, edito da Cacucci e promosso da GP4AI – Global Professionals for Artificial Intelligence, non si accontenta di ripetere slogan sull’etica digitale. Mette le mani nel codice giuridico, esplorando come l’AI Act dell’Unione Europea, il primo tentativo di normare algoritmi su scala continentale, si confronti con il contesto italiano, spesso più normativo che normato, più prudente che predittivo.

In un mondo che si preoccupa dell’etica dell’intelligenza artificiale, la Cina si preoccupa del bitrate. Mentre Hollywood affoga nel dibattito su diritti digitali e attori sintetici, Pechino risponde con un roundhouse kick da 14 milioni di dollari: lanciando il Kung Fu Film Heritage Project, un’iniziativa per restaurare digitalmente 100 classici del cinema marziale con la grazia millimetrica dell’AI.

Nel sottobosco sempre meno segreto dell’intelligenza artificiale, dove i dati sono la nuova valuta e gli algoritmi i nuovi colonizzatori, un colosso centenario ha deciso di alzare la voce. Non si tratta di un’azienda tech o di un think tank accademico, ma della ben nota e apparentemente compassata British Broadcasting Corporation. Sì, la BBC, emblema della compostezza britannica, ha improvvisamente sfoderato le zanne contro uno degli emergenti predoni del contenuto digitale: Perplexity AI.

C’erano una volta le società di consulenza, con i loro PowerPoint statici e le soluzioni preconfezionate da appiccicare come cerotti su ferite aziendali che urlavano trasformazione. Poi è arrivata la rivoluzione digitale, l’intelligenza artificiale, la cybersicurezza e una nuova generazione di CEO cresciuti a pane e disruption. Ed è in questo contesto, già saturo di sigle e buzzword, che Kyndryl — lo spin-off “muscoloso” di IBM — decide di giocarsi una carta inaspettata: creare un luogo fisico e intellettuale dove l’innovazione si interseca (e spesso si scontra) con il business. Lo hanno chiamato The Kyndryl Institute. E no, non è l’ennesima fabbrica di white paper.
C’è qualcosa di inquietante in Ancestra, il nuovo cortometraggio di Eliza McNitt prodotto da Darren Aronofsky insieme a Google DeepMind. Qualcosa che va oltre le immagini lisce e carezzevoli del cuore fetale sintetizzato, oltre i vaghi rimandi cosmici tra buchi neri e amore materno. È l’impressione che si stia tentando di trasformare il processo creativo in un diagramma di flusso ottimizzato, dove il dolore umano – in questo caso, la gravidanza a rischio della regista stessa – diventa una scusa nobile per uno showcase aziendale in stile TED Talk.
CANNES — È bastato un video sgranato di 19 secondi, un elefante, uno zoo e un ragazzo impacciato per iniziare la rivoluzione. Vent’anni dopo “Me at the Zoo”, YouTube non è più solo la piattaforma dove perdi tempo guardando video di gatti o tutorial su come sbucciare un mango con un trapano. È diventato — parola di Neal Mohan — “il centro della cultura con la C maiuscola”. Non una battuta, ma una tesi geopolitica. Mohan, oggi CEO del colosso, l’ha rilanciata sul palco del Festival di Cannes Lions 2025, e lo ha fatto con la sicurezza tipica di chi non solo annusa il futuro, ma lo brevetta.

New York – Se bastasse un nome ben scelto per garantire l’efficienza aziendale, Microsoft 365 Copilot sarebbe già un caso di studio in economia comportamentale. Purtroppo, non è così. E lo ha appena ricordato, con tono educato ma chirurgico, il National Advertising Division (NAD), l’organo autoregolamentare della BBB National Programs che vigila sulla correttezza pubblicitaria nel mercato statunitense. Al centro dell’indagine: il modo in cui Microsoft ha venduto — o forse è meglio dire “promesso” — le meraviglie della sua AI integrata.
Manus AI è diventato come quel tipo alla festa che non solo arriva in anticipo, ma si presenta anche con lo champagne migliore e un DJ al seguito. Era già considerato un “agent” AI piuttosto solido, una di quelle piattaforme che prometteva bene tra prompt, video e automazione. Ma adesso, con l’integrazione di Veo3, il salto non è solo evolutivo, è cinematografico. Letteralmente.
Facciamola breve, perché il tempo è l’unica cosa che l’AI non può restituirci: Manus ora permette non solo di generare video, ma esperienze visive che sfiorano l’ossessione maniacale per il dettaglio. Stiamo parlando di qualità visiva superiore, sincronizzazione audio-labiale finalmente credibile, e scene che non sembrano uscite da un generatore di meme con l’ambizione di Kubrick. Il passaggio al supporto per Google Slides e PowerPoint è solo un preambolo, un assaggio della direzione in cui sta andando il vero game changer.
Se l’hai vista, non te la dimentichi più. Un alieno che beve birra. Un vecchio con un chihuahua e un cappello da cowboy. Un tizio che nuota in una piscina piena di uova. E no, non è il trailer di un film trash anni ’90 o un esperimento dadaista di Spike Jonze: è una pubblicità mandata in onda durante le NBA Finals. Il budget? Due spiccioli: 2.000 dollari. Il regista? Un tizio solo con un laptop e Google Veo 3. Benvenuti nell’era del slopvertising, la pubblicità generativa AI che mescola delirio e strategia come uno shaker senza coperchio.

Se Shrek, Darth Vader e Buzz Lightyear potessero parlare, probabilmente oggi avrebbero già consultato un avvocato. E non per discutere di nuovi contratti o reboot, ma per affrontare la loro resurrezione involontaria nel circo dell’intelligenza artificiale generativa. Il 2025 non ha ancora portato veicoli volanti, ma ha spalancato le porte a una battaglia epocale: Disney e Universal hanno trascinato in tribunale Midjourney, accusandola di essere una “macchina distributrice virtuale di copie non autorizzate”. Un’accusa pesante, che ha tutta l’aria di voler diventare il precedente giudiziario che Hollywood aspettava come un sequel troppo a lungo rimandato.

La scena è questa: una redazione vuota, le luci ancora accese, le tastiere ferme. Sulle scrivanie, gli ultimi numeri stampati di un quotidiano digitale, ormai irrilevante. Là fuori, milioni di utenti digitano domande sui loro smartphone, ma le risposte non arrivano più dai giornalisti. Arrivano da una macchina. È l’era della post-search, e Google non è più un motore, ma un oracolo.
L’apocalisse silenziosa è cominciata con una frase: “Google is shifting from being a search engine to an answer engine.” Traduzione: cari editori, potete anche spegnere il modem.
La keyword che brucia è chatbot, con le sue sorelle semantiche traffico organico e AI generativa. In tre anni, secondo dati di Similarweb riportati dal Wall Street Journal, HuffPost ha perso più della metà del traffico proveniente da Google. Il Washington Post quasi altrettanto. Business Insider ha tagliato un quinto della forza lavoro. E no, Zuckerberg stavolta non c’entra. Il nemico è molto più vicino, e molto più silenzioso.

L’AI non ha bisogno di genitori, ma di filosofi: perché l’etica digitale è troppo seria per lasciarla ai tecnologi
Se ogni generazione ha i suoi mostri, la nostra li programma. Ma invece di affrontare la questione con il rigore che richiederebbe l’ascesa di un’intelligenza artificiale generalizzata, sembriamo preferire metafore da manuale di psicologia infantile. Ecco quindi che De Kai, decano gentile del machine learning, ci propone il suo Raising AI come una guida alla genitorialità dell’algoritmo, una Bibbia digitale che ci invita a trattare ChatGPT e compagnia come bambini da educare. La tesi? L’AI va cresciuta con amore, empatia e valori universali. Peccato che i bambini veri non abbiano una GPU con 70 miliardi di parametri e non siano addestrati leggendo interi archivi di Reddit.
Parlare di AI come se fosse un neonato non è solo fuorviante, è pericolosamente consolatorio. Il paragone piace perché rassicura: se l’AI è un bambino, allora possiamo guidarla, plasmarla, correggerla. Ma la realtà è che l’AI non ha infanzia, non ha pubertà, non ha crisi adolescenziali. L’AI non cresce: esplode. E il salto tra GPT-3.5 e GPT-4.5 ce lo ricorda con brutalità industriale.

Il paradosso perfetto è servito. In un’epoca in cui le Big Tech si fanno guerre epiche a colpi di etica e algoritmi, a tradire la promessa di riservatezza non è un CEO distopico né una falla nella sicurezza: è un’ordinanza giudiziaria. OpenAI, la regina madre dei modelli generativi, è costretta per ordine del tribunale a violare una delle sue stesse policy fondanti: la cancellazione delle conversazioni su richiesta dell’utente. Cancellazione, si fa per dire.
Quello che accade dietro le quinte di ChatGPT oggi non è un incidente tecnico né una svista legale. È un ribaltamento formale della logica contrattuale tra utente e piattaforma, e rappresenta un passaggio simbolico nella guerra fredda tra intelligenza artificiale e diritto d’autore. Il tutto, ovviamente, con in mezzo il cadavere illustre della privacy digitale.

Nel mondo del giornalismo, dove la penna umana ha da sempre dettato legge, ecco arrivare una svolta che profuma di Silicon Valley: il Washington Post, di proprietà di Jeff Bezos, si prepara ad aprire il suo prestigioso spazio alle opinioni di chi non è professionista, affidandosi a un allenatore d’intelligenza artificiale chiamato Ember. Un nome che suona come il bagliore residuo di un fuoco antico, pronto a riaccendersi in chiave digitale.
Secondo il New York Times, questa mossa non è solo un tentativo di ampliare il ventaglio di voci, ma una vera rivoluzione nel processo editoriale. Ember non sarà un semplice correttore di bozze, ma un sistema che automatizza molte delle funzioni tradizionalmente riservate ai redattori umani. In altre parole, una redazione in miniatura dentro uno strumento AI che monitora la “forza della storia,” valuta la solidità del pezzo, e accompagna il neofita con un sidebar che scompone la narrazione in elementi base: la tesi iniziale, i punti a supporto, e il gran finale memorabile.

Quando Luca Guadagnino si muove, lo fa con la grazia di un chirurgo estetico milanese e la velocità di un algoritmo impazzito. Il suo prossimo film, provvisoriamente intitolato Artificial, promette di essere una bomba culturale, un Frankenstein digitale che mescola la Silicon Valley con il cinema d’autore. La trama? Il colpo di stato da operetta avvenuto nel novembre 2023 dentro OpenAI, con Sam Altman licenziato e reincoronato CEO nel giro di 72 ore. Un thriller aziendale in salsa neuronale.

C’erano una volta i brand che si lanciavano nel feed di TikTok con la grazia di un elefante bendato in un negozio di cristalli, sperando che qualche balletto virale o trend con l’hashtag giusto li catapultasse nell’algoritmo. Oggi, quel romanticismo caotico ha i giorni contati. Il 3 giugno, TikTok ha annunciato una valanga di nuovi strumenti per gli inserzionisti, e il messaggio è chiarissimo: il futuro è programmabile, tracciabile, prevedibile e profondamente data-driven.

Nel grande teatro della proprietà intellettuale, Getty Images recita il ruolo dell’eroe stanco ma determinato, intento a difendere la sua galleria di milioni di immagini da un nemico nuovo, veloce e sfuggente: l’intelligenza artificiale generativa.

La notizia è di quelle che fanno alzare il sopracciglio anche ai più abituati al cinismo del capitalismo digitale. Il New York Times, simbolo storico del giornalismo d’élite, ha stretto un accordo pluriennale con Amazon per concedere in licenza la propria intelligenza editoriale. Tradotto: articoli, ricette, risultati sportivi e micro-pillole informative verranno digeriti, frammentati e recitati da Alexa, il pappagallo AI che ti sveglia la mattina e ti ricorda che hai finito il latte. E ovviamente, serviranno anche per allenare i cervelli artificiali di Amazon. Così, con un colpo solo, Bezos si compra l’eloquenza della Gray Lady e un po’ del suo cervello.
Certo, l’operazione viene incorniciata nella retorica del “giornalismo di qualità che merita di essere pagato”, ma sotto la lacca da comunicato stampa si intravede chiaramente il vero motore: una guerra di trincea tra editori tradizionali e giganti dell’IA per stabilire chi paga chi, quanto e per cosa. Dopo aver querelato OpenAI e Microsoft per “furto su larga scala” di contenuti più di qualche milione di articoli usati per addestrare modelli linguistici il New York Times si è infilato nel letto con un altro dei grandi predatori della Silicon Valley.
Benvenuti nell’epoca in cui anche il vostro cane potrà dirigere un cortometraggio, purché mastichi qualche comando testuale e abbia accesso a Runway o a Google Veo. Il cortometraggio My Robot & Me è il manifesto involontario o forse sottilmente intenzionale di questa nuova era: l’AI può fare (quasi) tutto, ma la creatività resta l’ultimo baluardo umano. Per ora.
Parliamoci chiaro: la storia parte con un incipit da presentazione TEDx. “Silenzia il cellulare, mastica piano il popcorn, e ricordati che tutto ciò che vedi è stato generato dall’intelligenza artificiale”. Eppure non è solo un esercizio di stile o una demo per geek con troppo tempo libero. È una provocazione culturale, un test sul campo, un assaggio di un futuro dove la produzione video e forse tutto il settore creativo sarà riscritto, una prompt alla volta.

Questa settimana Piero Savastano ci ha fatto riflettere e ricordato che dieci anni fa Erik Brynjolfsson e Andrew McAfee hanno provato a raccontarcelo con chiarezza. “The Second Machine Age” era un libro elegante, leggibile, quasi gentile nei toni. Un saggio che guardava avanti e provava a spiegarci come il mondo stesse entrando nella seconda grande rivoluzione industriale. La prima, quella che abbiamo imparato a scuola, aveva reso superflua gran parte della forza muscolare umana. La seconda, quella che stiamo vivendo adesso con un misto di euforia e panico, sta smantellando la centralità della nostra intelligenza operativa.

Brian Eno, l’architetto sonoro che nel 1995 ha dato vita al celebre avvio di Windows, ha deciso di rompere il silenzio. Non con una nuova composizione ambient, ma con un’accusa frontale: Microsoft, la stessa azienda che un tempo gli commissionava suoni per rendere più umana la tecnologia, oggi sarebbe complice di un sistema di oppressione e violenza in Palestina. In un post su Instagram,

Karen Hao ha scritto un libro che avrebbe potuto cambiare la narrazione sull’intelligenza artificiale. Ma ha scelto di trasformarlo in un trattato ideologico, con inserti da assemblea studentesca e comparazioni storiche da denuncia ONU. “Empire of AI” è un’opera che parte da un presupposto legittimo l’IA è piena di ombre – e poi cerca di trascinare il lettore in una valle di lacrime dove Altman è un despota, l’AGI un miraggio e OpenAI una multinazionale tossica guidata da una setta di ingegneri psicopatici.

Nel teatrino digitale chiamato Google I/O, dove ogni anno si spaccia il futuro come progresso inevitabile, è andato in scena l’ennesimo colpo di mano ai danni dei produttori di contenuti: l’introduzione su larga scala della famigerata AI Mode la nuova interfaccia chatbot-style che sostituisce la ricerca classica con un blob generativo infarcito di “risposte intelligenti”. La parola chiave è: risposte, non link. Tradotto: meno click ai siti, più tempo dentro Google.
Così il motore di ricerca più potente del mondo si trasforma definitivamente in un recinto. Non ti porta più da nessuna parte, ti tiene dentro, ti mastica e poi ti sputa addosso una sintesi addestrata sui contenuti di altri. Magari i tuoi.