Google ama ripetere quando parla di media e intelligenza artificiale: non stiamo costruendo strumenti, stiamo costruendo sistemi. “The Core”, la nuova redazione AI-powered lanciata da Al Jazeera insieme a Google Cloud, è esattamente questo. Non un software. Non una dashboard. Ma un sistema operativo editoriale che promette di suggerire cosa chiedere, cosa evidenziare, cosa collegare e soprattutto come raccontarlo. Una promessa seducente. Anche pericolosa.

Al Jazeera non è una startup affamata di hype. Opera dal 1996, ha oltre 70 redazioni nel mondo, una storia editoriale riconoscibile e una reputazione costruita nel tempo, spesso pagando prezzi politici elevati. Proprio per questo il passaggio a una redazione guidata dall’intelligenza artificiale non è un esperimento marginale ma un segnale di sistema. Qui non si parla di automazione di titoli o trascrizioni. Qui si parla di spostare il baricentro cognitivo del lavoro giornalistico dentro un’architettura algoritmica.

“The Core” nasce come hub centrale della redazione. Vertex AI Search e Gemini Enterprise suggeriscono domande, angolazioni, riepiloghi, collegamenti con la copertura precedente. Il sistema non si limita a rispondere. Interviene prima. Dice al giornalista cosa potrebbe essere rilevante, quale contesto richiamare, quali domande porre a una fonte. È un passaggio sottile ma decisivo. L’intelligenza artificiale non supporta più il giornalista. Inizia a co-progettare la notizia.Il cervello di questo sistema è AJ-LLM, un modello linguistico ottimizzato sugli archivi proprietari di Al Jazeera. Qui entra in gioco NotebookLM come strato di contesto, capace di navigare decenni di articoli, reportage, video e trascrizioni. Dal punto di vista tecnologico è un risultato notevole. Dal punto di vista editoriale è una lama a doppio taglio. Perché un modello addestrato sul proprio passato tende, per definizione, a rafforzare le proprie narrazioni dominanti.

Questo è il punto che molti comunicati stampa evitano con cura. Un LLM editoriale non è neutro. È un amplificatore statistico delle scelte precedenti. Se la redazione ha privilegiato certe prospettive, certe fonti, certi frame narrativi, il sistema li renderà più probabili, più rapidi, più “naturali”. Non per malizia. Per matematica.Il modulo visivo, AJ Vision, utilizza Imagen e Veo per produrre immagini e video. Anche qui la promessa è velocità. Visual pronti per il digitale, clip generate o arricchite automaticamente, supporto alla copertura in tempo reale. In un ecosistema dominato dai social e dal video breve, la tentazione è evidente. Ma l’immagine generata introduce un problema antico in forma nuova. La rappresentazione. Chi decide cosa è visivamente plausibile. Chi stabilisce il confine tra illustrazione e simulazione. Chi garantisce che l’immagine non suggerisca più di quanto i fatti consentano.

Sul piano operativo BigQuery e Gemini aiutano a individuare trend, correlazioni, picchi di interesse, automatizzando attività interne e ottimizzando i flussi di lavoro. È la parte meno visibile ma forse più potente. Perché quando un sistema suggerisce cosa “sta performando”, finisce inevitabilmente per influenzare cosa viene prodotto. Il rischio non è solo la disinformazione. È l’omologazione editoriale guidata da metriche intelligenti.Il direttore generale di Al Jazeera parla di combinazione virtuosa tra competenze umane e intelligenza artificiale. È la formula rituale di questa fase storica. Umano più AI. Collaborazione. Supporto. Augmentation. Tutto vero, in teoria. Ma la pratica è più ruvida. Quando un sistema suggerisce sempre le stesse angolazioni sicure, quando propone il riassunto più neutro, quando privilegia il contesto già noto, il giornalista sotto pressione temporale tende ad accettare. Non per pigrizia. Per sopravvivenza professionale.

Qui emerge la storia più ampia del settore. I grandi fornitori tecnologici non vogliono più vendere software. Vogliono inserirsi nel flusso di lavoro. Vogliono diventare invisibili e indispensabili. Google non vende Gemini a una redazione. Offre un’infrastruttura cognitiva che accompagna ogni decisione, ogni bozza, ogni revisione. Una volta dentro, uscirne diventa difficile. Non per lock-in contrattuale ma per dipendenza operativa.

In uno scenario ideale, “The Core” potrebbe migliorare il giornalismo. Recuperare rapidamente la copertura precedente. Tradurre citazioni con accuratezza. Evidenziare incongruenze. Suggerire domande migliori. Ridurre gli errori materiali. Liberare tempo per l’indagine vera. È la versione ottimistica, ed è tecnicamente plausibile.

Ma esiste anche lo scenario opposto. Quello in cui la velocità amplifica gli errori. In cui un riassunto sbagliato viene replicato su più piattaforme in pochi minuti. In cui una prospettiva iniziale viene rafforzata iterativamente dal sistema. In cui l’AI diventa un acceleratore di bias, non un correttore. La disinformazione non nasce sempre da cattiva fede. Spesso nasce da pipeline troppo efficienti.Il nodo cruciale è la governance. Etichette chiare sui contenuti generati o assistiti da AI. Audit continui sui modelli. Analisi sistematiche delle raccomandazioni. Revisione umana rigorosa, non simbolica. Non basta dire che l’umano resta al centro. Bisogna dimostrarlo nei processi, nei tempi, nelle responsabilità.

Le redazioni hanno sempre temuto l’automazione come nemica del pensiero critico. Ora rischiano di delegare proprio al sistema che promette efficienza la fase più delicata del lavoro editoriale. La scelta della domanda giusta. L’angolazione inattesa. L’elemento che rompe il frame.

“The Core” non è solo un progetto tecnologico. È un test epistemologico. Misura quanto siamo disposti a lasciare che un sistema statistico suggerisca cosa è rilevante nel mondo. Misura quanto il giornalismo del futuro sarà esplorazione o conferma. Scoperta o ottimizzazione.Al Jazeera ha la storia, le competenze e la visibilità per farlo bene. Ma proprio per questo ha anche la responsabilità di mostrare cosa succede quando l’intelligenza artificiale entra davvero nel cuore della redazione. Non come assistente. Ma come infrastruttura del pensiero editoriale. In quel momento la domanda non è più se l’AI migliora il giornalismo. È chi decide cosa significa migliorare.