News Corp di Rupert Murdoch ha dichiarato mercoledì di aver firmato un accordo pluriennale di licenza di contenuti con la società di intelligenza artificiale OpenAI, l’ultima testata giornalistica a trarre profitto dal crescente appetito delle aziende di intelligenza artificiale per i dati di addestramento.

Gli editori e il DATA Monetization.

OpenAI, supportata da Microsoft, ha stretto accordi con vari editori, tra cui Axel Springer, Le Monde, Prisa Media, Associated Press, American Journalism Project e NYU.

Secondo un rapporto del Wall Street Journal, di proprietà di News Corp, l’accordo potrebbe superare i 250 milioni di dollari in cinque anni, comprendendo sia contanti che crediti per l’uso della tecnologia OpenAI. L’accordo tra News Corp e OpenAI mette in luce i vari approcci che gli editori di notizie stanno adottando nei confronti dell’intelligenza artificiale generativa, una tecnologia che potrebbe trasformare radicalmente le redazioni.

Tuttavia, a fine dicembre, la New York Times Company ha citato in giudizio Microsoft e OpenAI per violazione del copyright, sostenendo che le società tecnologiche avevano utilizzato illegalmente i contenuti del giornale per addestrare modelli di intelligenza artificiale. Ora con il denaro si sistema tutto.

Grazie all’accordo, OpenAI otterrà l’autorizzazione a visualizzare i contenuti delle testate di News Corp, rispondendo così alle domande degli utenti e migliorando i propri prodotti. Inoltre, News Corp condividerà con OpenAI la sua competenza giornalistica. OpenAI avrà accesso ai contenuti delle pubblicazioni di News Corp, tra cui The Wall Street Journal, Barron’s, MarketWatch, New York Post, The Times e molte altre.

Il mese scorso, Google, di proprietà di Alphabet avrebbe concluso un accordo con News Corp per pagare alla società di media tra 5 e 6 milioni di dollari all’anno per sviluppare contenuti e prodotti legati all’intelligenza artificiale.

Secondo quanto riferito, anche Apple  e Meta Platforms , società madre di Facebook, hanno tenuto colloqui con diversi editori sull’utilizzo dei loro contenuti per addestrare i rispettivi modelli di intelligenza artificiale.

Dopo la guerra in Iraq, il comico americano Lewis Black ha fatto riferimento alle bugie che l’Occidente aveva diffuso nei media per giustificare pubblicamente l’inizio della guerra. Si è chiesto perché, dopo che è diventato chiaro che non c’erano armi di distruzione di massa in Iraq, “non si sono inventati qualcosa”. Questo nuovo modo di non prendersi la briga di sostenere una menzogna quando è allo scoperto è al centro di un nuovo modo di mentire in politica, che possiamo chiamare “aperto inganno”.

L’intelligenza artificiale (AI) e i media hanno una relazione complessa e in evoluzione. Da un lato, l’AI può essere utilizzata per generare contenuti falsi o fuorvianti, come deepfake e notizie false. Dall’altro, l’AI può anche essere utilizzata per rilevare e contrastare la disinformazione online. Inoltre, l’AI sta trasformando il modo in cui i media vengono creati e consumati, con l’automazione di attività come la scrittura di articoli e la personalizzazione dei feed di notizie.

Tuttavia, l’uso dell’AI nei media solleva anche preoccupazioni etiche. C’è il rischio che l’AI amplifichi i pregiudizi umani e diffonda contenuti dannosi. Inoltre, l’opacità degli algoritmi dell’AI rende difficile per il pubblico capire come vengono prese le decisioni sui contenuti. È importante che i media e l’industria dell’AI collaborino per sviluppare linee guida e standard etici per l’uso dell’AI, al fine di garantire che venga utilizzata in modo responsabile e trasparente.

In definitiva, l’AI ha il potenziale per trasformare radicalmente il panorama mediatico, sia in positivo che in negativo. È essenziale che i media, i regolatori e il pubblico lavorino insieme per garantire che l’AI venga utilizzata per migliorare l’accuratezza, la diversità e l’accessibilità dei contenuti, piuttosto che per diffondere disinformazione e manipolazione.