Sta succedendo qualcosa di prevedibile ma comunque tragicamente ironico nelle sale asettiche di Politico. Sì, proprio loro, i cultori del giornalismo politico USA, quelli che pontificano ogni mattina su potere e verità, stanno per finire davanti a un arbitro. Motivo? Hanno usato contenuti generati da intelligenza artificiale in un live blog. E i giornalisti in carne e ossa non l’hanno presa benissimo. Tradotto: sciopero, sindacato e via al teatrino legale.
La parola chiave qui non è tanto “AI” quanto “contratto”. Perché quando i lavoratori sindacalizzati della redazione ti dicono che un contenuto violava gli accordi aziendali, e tu rispondi con un chatbot che sputa riassunti imprecisi e frasi che nessun redattore umano oserebbe firmare, allora non sei solo un pioniere dell’innovazione. Sei un datore di lavoro che gioca al piccolo Frankenstein con il copyright e la reputazione editoriale.
La cosa tragicomica è che tutto questo era ampiamente annunciato. L’industria dei media, dopo anni a gridare all’apocalisse digitale, adesso gioca con il fuoco dell’intelligenza artificiale convinta di poterla domare come fosse un nuovo CMS. Ma l’AI non è un tool, è un’entità che mastica semantica e sputa sintesi. E soprattutto, ha un grosso problema: non ha sindacati.
Il live blog incriminato conteneva, secondo quanto riferito dal sindacato, errori di fatto. Dettagli sbagliati, insomma, di quelli che un redattore si prenderebbe una ramanzina per aver scritto. Ma l’AI no, lei è immune alle lavate di capo. E qui si arriva al cuore della questione: chi risponde degli errori dell’intelligenza artificiale in redazione? Chi è il vero autore? E soprattutto, chi firma il pezzo quando nessuno l’ha davvero scritto?
Il contratto collettivo in questione pare contenesse clausole chiare: certe attività, come la scrittura editoriale, devono essere svolte da esseri umani. L’azienda invece ha pensato bene di sostituire qualche manodopera intellettuale con l’automatizzazione. Un po’ come mettere un robot a fare il caffè in un bar artigianale e scoprire che la macchina serve decaffeinato annacquato a chi aveva ordinato un doppio ristretto. Ci siamo capiti.
Il caso Politico apre una crepa interessante e, ammettiamolo, potenzialmente devastante per il settore dei media. Perché il problema non è solo l’uso dell’intelligenza artificiale: è il modo in cui viene inserita in un contesto contrattuale, legale e culturale che non è mai stato progettato per contenerla. In redazioni dove la velocità è legge, l’AI diventa lo strumento perfetto per “ottimizzare il workflow”. Ma a quale costo?
Il costo, oggi, è l’arbitrato. E potenzialmente una sentenza che potrebbe ridefinire i confini tra lavoro giornalistico e automazione. Se l’arbitro dà ragione ai giornalisti, potremmo trovarci di fronte al primo grande freno giuridico all’integrazione selvaggia dell’intelligenza artificiale nel giornalismo. Se invece vince l’azienda, si aprono le porte alla trasformazione definitiva delle redazioni in call center del contenuto generato.
Una curiosità tanto per tenere alto il cinismo: in molti ambienti editoriali si usano già strumenti di AI per generare “bozze”, “abstract” o “contenuti di supporto”. Ma finché nessuno lo dice, tutto va bene. È come un doping semantico: funziona finché non si fa un test anti-intelligenza. Ma appena scatta il controllo – come è successo qui – la festa finisce.
La semantica giuridica dell’AI nel giornalismo è una mina inesplosa. Cosa significa “uso improprio”? Cosa vuol dire “contenuti generati automaticamente” in un’epoca dove tutto passa da un algoritmo, anche il titolo di un articolo? E soprattutto: è ancora giornalismo quello che produce una macchina allenata a emulare il pensiero umano con una media statistica di frasi?
Nella logica spietata del business, il punto non è la qualità del contenuto, ma la sua scalabilità. L’AI non sbaglia mai due volte allo stesso modo, ma sbaglia con una produttività invidiabile. Un redattore umano ti costa, ti contesta, ti chiede ferie e diritti. L’AI no. L’unico problema è che, per ora, non può ancora firmare un NDA. Ma ci stanno lavorando, tranquilli.
Il futuro prossimo del giornalismo potrebbe essere questo: redazioni popolate da pochi umani che correggono, firmano e difendono contenuti scritti da modelli linguistici, mentre le testate vendono la narrazione di “un nuovo modo di raccontare il mondo”. Il che, se ci pensi, ha qualcosa di poeticamente distopico. Il potere della parola filtrato da un algoritmo allenato su tutto ciò che abbiamo detto, pensato o sussurrato online negli ultimi vent’anni.
La vicenda Politico ci costringe a guardare in faccia l’ipocrisia strutturale del settore. Tutti la usano, l’intelligenza artificiale. Ma nessuno vuole ammetterlo, né prendersi la responsabilità di quando qualcosa va storto. Un po’ come quegli influencer che giurano di essere “naturali” mentre l’AI modella i loro sorrisi. La differenza è che qui non parliamo di estetica, ma di verità. E la verità, si sa, non è compatibile con l’output precompilato.
Forse la vera domanda non è se l’intelligenza artificiale debba essere usata nel giornalismo, ma come e sotto il controllo di chi. E fino a quando non ci sarà una risposta chiara, ogni parola scritta da una macchina rischia di diventare una prova in un processo che, ironicamente, sarà ancora difeso da un avvocato umano.
Nel frattempo, i giornalisti di Politico aspettano l’arbitrato. E l’industria trattiene il fiato. Non tanto per paura del verdetto, quanto per la consapevolezza che, da qui in poi, nessuno potrà più far finta che l’intelligenza artificiale sia solo un assistente. È un redattore invisibile, un autore silenzioso, e sempre più spesso, un problema legale con la sintassi perfetta.