Nel 2025, ogni volta che una piattaforma digitale annuncia un aggiornamento alle proprie politiche, è come se un drone avesse sganciato un pacco sospetto su un campo minato. È successo di nuovo. Stavolta è toccato a YouTube, che ha pensato bene di comunicare in modo vago – e forse volutamente ambiguo – un aggiornamento delle linee guida del Partner Program, quel meccanismo che regola la monetizzazione dei contenuti caricati. Il punto focale: una stretta contro i video “inautentici”. Parola chiave che, come prevedibile, ha fatto sobbalzare mezzo internet.

Perché se c’è una cosa che gli algoritmi non sanno ancora generare bene, è la fiducia. E nel momento in cui YouTube dice che aggiornerà le norme per contrastare contenuti “mass-produced and repetitive”, molti creatori si sono chiesti se la loro intera esistenza digitale sia a rischio demonetizzazione. Reazioni, clip remixate, voci narranti generate con ElevenLabs o altri tool di sintesi vocale, video-podcast costruiti su testi scritti con ChatGPT: cosa rientra ancora nel perimetro del contenuto “autentico”? E chi decide cosa lo è?

Secondo Rene Ritchie, editoriale head di YouTube, non c’è nulla di cui preoccuparsi. È solo un “minor update”, un piccolo aggiornamento. Una rifinitura di politiche già esistenti. Nulla di nuovo sotto il sole, dice lui. Il problema, però, è proprio questo: da anni YouTube sostiene di non permettere contenuti ripetitivi e non originali, ma l’intera homepage è spesso un’orgia di riassunti automatici, compilation senza valore aggiunto, voiceover stanchi che leggono Wikipedia con musica royalty-free in sottofondo. E ora che l’intelligenza artificiale ha accelerato la produzione di questa fuffa video, il problema è diventato macroscopico.

Chiunque abbia fatto anche solo un minimo test su Midjourney, Runway o Sora sa quanto sia facile generare video visivamente impressionanti in pochi clic. Mescola uno script creato da un language model, una voce sintetica con intonazione naturale, qualche frame generato ad arte, e hai una “produzione” pronta per il canale. Migliaia di questi video vengono pubblicati ogni giorno. Alcuni fanno numeri da capogiro. Quindi è chiaro che qualcosa andava fatto. Ma cosa? E soprattutto, come?

Il punto che YouTube non ha ancora chiarito – ed è questo il cuore della questione – è dove passa la linea tra “uso creativo dell’AI” e “spam massivo replicato”. Non è solo una sfumatura semantica. È la differenza tra la monetizzazione e l’oblio algoritmico. Perché oggi il contenuto inautentico non è più quello copiato con il copia-incolla. È quello prodotto in serie, senza anima, da sistemi che emulano l’autorialità. E se il metro di giudizio resta vago, chiunque si affida a tool AI per supportare la propria produzione – dalla traduzione automatica al voiceover – rischia di finire nel tritacarne delle policy.

La reazione della creator economy è stata isterica, ma non immotivata. Soprattutto per chi lavora nei formati ibridi, tra commento, satira, reazione e remix culturale. Per loro, ogni parola del regolamento è una bomba semantica. Perché se non puoi più usare clip altrui in modo creativo, o se l’uso dell’AI diventa sospetto per default, allora il modello di business di metà dei canali sparisce. E YouTube, consapevole della situazione, ha provato a rassicurare: “l’uso dell’AI è accettabile se migliora il contenuto”, ha scritto il team in risposta a un utente su X.

Ma cosa vuol dire “migliora”? Anche qui, la soggettività è totale. Per un algoritmo, migliorare potrebbe voler dire ottimizzare per la retention. Per un artista, significa aggiungere significato. Per un moderatore umano sottopagato in outsourcing, significa non farci perdere tempo. La monetizzazione, oggi, è decisa da un intreccio oscuro di flag automatici, controlli algoritmici, valutazioni qualitative opache. Il risultato? Un senso costante di precarietà, incertezza e censura arbitraria.

E qui tocchiamo un punto strutturale: l’autenticità algoritmica è una contraddizione in termini. Le piattaforme pretendono autenticità da parte di creatori che devono, per sopravvivere, inseguire le logiche degli stessi algoritmi che favoriscono tutto tranne l’unicità. YouTube ti chiede di essere originale, ma ti penalizza se non pubblichi abbastanza spesso, se non cavalchi i trend, se non rispetti certe metriche di forma e struttura. L’AI diventa allora non un sostituto creativo, ma una stampella necessaria per stare al passo con la catena di montaggio dell’attenzione.

La domanda che dovremmo porci non è “YouTube demonetizzerà i video fatti con l’AI?” La vera domanda è: “YouTube è ancora un posto dove l’originalità paga?” Perché se il sistema continua a premiare la serialità, il contenuto fast food, il rumore ben impaginato, allora il problema non sono le AI, ma l’ecosistema che le rende irresistibili. L’update del 15 luglio potrebbe anche riuscire a filtrare parte dello spam più tossico, quei canali che caricano 200 video a settimana senza valore aggiunto. Ma se non si interviene sul modello di incentivo, si starà solo potando l’albero malato senza toccarne le radici.

Intanto, il rischio di overcorrection è reale. Canali sperimentali, artisti digitali, micro-publisher indipendenti potrebbero trovarsi tagliati fuori da monetizzazione solo perché osano troppo, o perché utilizzano strumenti non ancora ufficialmente benedetti da YouTube. E in un panorama dove ogni visualizzazione è denaro, ogni demonetizzazione è un taglio all’ossigeno creativo.

La vera sfida, per YouTube, non è cacciare gli spammer. È distinguere il contenuto pigro da quello radicale. Il remix dozzinale dal montaggio brillante. Il voiceover automatico buttato lì dalla narrazione guidata da uno script pensato. Ma per farlo servono strumenti nuovi. Serve un’epistemologia dell’originalità. E soprattutto, serve ammettere che l’autenticità, in un contesto dominato da intelligenze artificiali, non è una questione di origine, ma di intenzione.

Senza questa consapevolezza, ogni policy sarà solo un’altra riga grigia nel regolamento. E i creator, come sempre, resteranno in bilico tra l’ispirazione e la paura.