Nelle redazioni americane l’aria si sta facendo elettrica. E non solo per il continuo ronzio dei modelli linguistici che iniziano a insinuarsi fra riunioni di redazione, bozze e lavoro di desk. Il vero cortocircuito lo ha acceso Politico, dove un arbitrato ha stabilito che il management ha violato le clausole sull’adozione dell’intelligenza artificiale previste dal contratto sindacale. Una decisione che non è solo una vittoria per i giornalisti del NewsGuild, ma un campanello che risuona ben oltre Washington, perché parla del futuro del lavoro giornalistico e del fragile equilibrio tra velocità tecnologica ed etica dell’informazione.

Il guaio è nato dall’introduzione di due strumenti di AI editoriale, LETO e Report Builder, implementati senza il periodo di consultazione obbligatoria con il sindacato e, soprattutto, senza rispettare gli standard giornalistici che la stessa Politico si è data. LETO produceva sommari in tempo reale dei discorsi politici, pubblicati in homepage durante Convention e dibattiti. Peccato che, secondo l’arbitrato, il risultato fosse un cocktail di imprecisioni, frasi fuori stile e un’assenza completa di correzioni. Il tutto presentato al pubblico con un elegante “Live summary powered by AI”, che però non è bastato a convincere l’arbitro che la trasparenza potesse sostituire l’accuratezza, né tantomeno l’accountability.

Per quanto riguarda Report Builder, il sistema che crea testi di sintesi per gli abbonati Pro, il giudizio è stato altrettanto severo: output “erronei e persino assurdi”, da validare retroattivamente come se la verifica fosse un optional. Politico ha provato a sostenere che non si trattasse di “newsgathering” ovvero una notiziario nel senso pieno del termine e che la responsabilità editoriale restasse al lettore. L’arbitro ha risposto facendo notare che catturare un feed live per produrre e pubblicare un testo è, a tutti gli effetti, una delle forme più basilari di un notiziario.

Il punto di fondo è chiaro: la tecnologia può correre, ma non può scavalcare il giornalismo. E se la redazione di Politico ha ottenuto un segnale forte grazie al contratto sindacale, negli Stati Uniti il fenomeno è appena all’inizio. Sono già 43 i contratti del NewsGuild che includono clausole sull’uso dell’AI, una cifra che non può essere considerata un semplice dettaglio. È l’alba di una nuova contrattazione collettiva del lavoro giornalistico in versione algoritmo, dove quello che viene negoziato non è solo un salario, ma il confine del ruolo umano nella produzione di notizie.

E in Italia? Qui il dibattito procede con un passo diverso, ma non meno interessante. Da una parte ci sono gli editori della FIEG, convinti che l’AI possa essere un alleato potente per ottimizzare processi, ridurre costi e magari aprire nuove vie di distribuzione dei contenuti. Dall’altra c’è la FNSI, che difende un principio semplice: il giornalismo ha senso solo se c’è una responsabilità umana chiara, riconoscibile e non sostituibile. Le posizioni sono spesso contrapposte e, come accade nelle migliori tradizioni italiane, sembrano destinate a un confronto ancora lungo (considerato che il contratto nazionale dei giornalisti è scaduto nel 2016).

Il caso Politico, comunque, offre uno spunto che il nostro Paese farebbe bene a osservare con attenzione. Perché mentre negli Stati Uniti i contratti già definiscono paletti e obblighi per garantire che l’AI non diventi scorciatoia ma strumento, in Italia la discussione è ancora frammentata e priva di un quadro comune. Potrebbe essere l’opportunità per definire ai tavoli negoziali cosa significhi davvero integrare l’AI nel lavoro giornalistico, non come sostituta, ma come estensione della capacità umana.

Soprattutto perché le domande non sono più rinviabili. Chi controlla la qualità delle sintesi generate da un modello? Chi è responsabile degli errori? Quali parti del flusso di lavoro possono essere automatizzate senza compromettere l’etica professionale? E quanto valore attribuiamo alla lentezza, alla verifica, alla complessità nel momento in cui la tecnologia promette di eliminare tutto questo in nome della velocità?

La sfida, qui come negli Stati Uniti, è quella di riconoscere che l’intelligenza artificiale non è una minaccia né una panacea. È un nuovo attore da integrare con regole chiare, competenze aggiornate e un dialogo costante tra giornalisti ed editori. Il caso Politico mostra che quando le regole mancano, lo scontro è inevitabile. Ma dimostra anche che quando vengono stabilite, possono proteggere il cuore del lavoro giornalistico pur permettendo all’innovazione di avanzare.

Alla fine, la lezione più preziosa potrebbe essere proprio questa: nelle redazioni del futuro, il valore non starà nella scelta tra umano e artificiale, ma nella capacità di far dialogare entrambe le parti senza che uno schiacci l’altro. Perché, come Politico ha appena imparato, il giornalismo non può delegare la propria identità a un modello statistico, ma può diventare molto più forte se impara a usarlo con responsabilità.