Neal Mohan scrive alla community e lo fa con il tono di chi sa di essere arrivato a un bivio strutturale. Da una parte l’espansione massiccia degli strumenti di intelligenza artificiale generativa, dall’altra la promessa di reprimere l’AI slop, espressione che fino a pochi mesi fa nessun dirigente di Google avrebbe osato mettere nero su bianco. Il punto non è semantico. Il punto è economico, culturale e algoritmico.
YouTube nasce come piattaforma aperta, cresce come impero pubblicitario e oggi rischia di diventare una discarica sintetica. Video prodotti in serie, facce finte, voci clonate, contenuti ripetitivi ottimizzati non per gli umani ma per l’algoritmo. L’AI slop non è un incidente. È una conseguenza naturale di incentivi mal progettati. Se paghi a visualizzazione e abbassi a zero il costo marginale di produzione, ottieni esattamente questo. Mohan lo sa. Google lo sa. Gli investitori lo sanno da tempo.
La lettera alla community è interessante non per ciò che promette ma per ciò che ammette implicitamente. YouTube non può più permettersi di essere neutrale. L’idea romantica della piattaforma che non giudica i contenuti ma solo il comportamento è finita. Quando Mohan scrive che l’apertura comporta una responsabilità nel mantenere un’esperienza di visione di qualità, sta dicendo una cosa molto semplice. L’algoritmo dovrà diventare editoriale, anche se nessuno userà mai questa parola in pubblico.
Qui entra in gioco la seconda keyword semantica fondamentale, qualità dei contenuti YouTube. Per anni la qualità è stata delegata a metriche surrogate come watch time, retention, engagement. Ora quelle metriche sono state colonizzate dall’intelligenza artificiale. L’AI è bravissima a massimizzare segnali deboli, a replicare pattern che funzionano, a produrre variazioni infinitesimali di ciò che già cattura attenzione. Risultato. Un feed che sembra vivo ma è morto. Un rumore bianco iperottimizzato.
YouTube promette di combattere l’AI slop costruendo sui sistemi anti spam e anti clickbait. Dichiarazione rassicurante, quasi burocratica. In realtà significa un cambio di paradigma. Combattere lo spam è facile. Combattere la mediocrità sintetica è un’altra storia. Lo spam è binario. La qualità no. E quando inizi a classificare la qualità, inizi inevitabilmente a prendere decisioni di valore. Non è un caso che Mohan parli di “low quality, repetitive content” senza mai definire formalmente cosa significhi. Lascia spazio di manovra. E soprattutto lascia spazio all’algoritmo.
La terza keyword semantica è monetizzazione creator AI. Perché alla fine tutto converge lì. Come fanno i creator a guadagnare in un ecosistema dove l’output è potenzialmente infinito. YouTube lo sa. Se il valore percepito dei contenuti scende, scende anche il CPM. Gli inserzionisti non vogliono stare accanto a video che sembrano generati da una macchina annoiata. Vogliono contesto, credibilità, riconoscibilità. In una parola, identità.
Non a caso la lettera insiste molto sulla protezione di likeness e identity. Volti e voci diventano asset economici da difendere come marchi registrati. Content ID, nato per la musica, viene lentamente esteso al corpo umano. È un passaggio filosoficamente enorme. La tua faccia come fingerprint digitale. La tua voce come diritto negoziabile. YouTube non lo dice così, ma è esattamente questo il modello. E non è un caso che venga citato il NO FAKES Act. La piattaforma si prepara a un mondo in cui la distinzione tra persona e simulazione diventa giuridicamente rilevante.
C’è poi l’aspetto più ironico, quasi schizofrenico, del messaggio. Da un lato YouTube promette enforcement più duro contro i contenuti sintetici di bassa qualità. Dall’altro annuncia strumenti che permetteranno ai creator di generare Shorts usando modelli AI di se stessi. È come dichiarare guerra all’alcolismo mentre si apre una distilleria. La differenza, diranno, è il controllo. L’AI buona è quella autorizzata, dichiarata, etichettata. L’AI cattiva è quella anonima, opportunistica, industriale.
Qui emerge il vero disegno strategico. YouTube non vuole meno AI. Vuole un’AI addomesticata, brand safe, integrata nel suo stack proprietario. I contenuti generati con gli strumenti interni verranno etichettati, certo, ma soprattutto verranno premiati dall’algoritmo perché sono osservabili, tracciabili, controllabili. L’AI esterna, open source o comunque non mediata, diventa un rischio sistemico. Non per ragioni etiche ma per ragioni di governance.
Il tema della disclosure obbligatoria dei contenuti sintetici va letto nello stesso modo. Non è solo una questione di trasparenza verso gli utenti. È un modo per addestrare il sistema a distinguere, catalogare, valutare. Ogni etichetta è un dato. Ogni dato è un vantaggio competitivo. Google non ha mai avuto problemi con l’abbondanza di contenuti. Ha sempre avuto un’ossessione per la loro classificazione.
Mohan parla di scetticismo verso i cambiamenti. È una frase apparentemente innocua. In realtà è un’ammissione di colpa preventiva. Ogni volta che YouTube ha promesso di migliorare la qualità, qualcuno ha perso traffico, qualcuno ha perso reddito, qualcuno ha gridato alla censura algoritmica. Succederà di nuovo. La differenza è che stavolta la posta in gioco è più alta. Se YouTube fallisce nel gestire l’AI slop, rischia di diventare irrilevante come spazio culturale. Se esagera nel controllo, rischia di soffocare quella creatività che ancora giustifica miliardi di ore di upload.
C’è una curiosità che vale la pena sottolineare. Mohan usa l’espressione “people feel good spending their time”. Non parla di informazione, non parla di verità, non parla di valore educativo. Parla di feeling. YouTube non è più una biblioteca. È un ambiente emotivo. E l’AI, nel 2026, sarà l’architetto principale di quell’ambiente. Questo spiega perché la lotta all’AI slop non è una crociata morale ma una questione di user experience. Se l’utente si annoia, scappa. Se scappa, il modello di business implode.
Alla fine il messaggio è chiaro, anche se mascherato da retorica inclusiva. YouTube vuole restare la piattaforma dominante nell’era dell’intelligenza artificiale generativa. Per farlo deve fare una cosa che per anni ha evitato. Scegliere. Scegliere cosa amplificare, cosa deprimere, cosa monetizzare e cosa lasciare morire nel rumore. L’AI sarà davvero un ponte tra curiosità e comprensione solo se qualcuno decide dove quel ponte porta. E chi controlla l’algoritmo, come sempre, controlla la mappa.
Il 2026 non sarà l’anno in cui YouTube eliminerà l’AI slop. Sarà l’anno in cui deciderà quale slop è accettabile perché redditizio e quale no perché tossico per il brand. Tutto il resto è storytelling. Ben scritto, certo. Ma sempre storytelling.
Blog: https://blog.youtube/inside-youtube/the-future-of-youtube-2026/
AI Slop : https://www.merriam-webster.com/wordplay/word-of-the-year?2025-share=