Il paradosso dell’intelligenza artificiale è che più diventa autonoma, più rivela la dipendenza dai limiti umani che voleva superare. OpenAI Atlas, il nuovo browser che integra ChatGPT nella navigazione in tempo reale, nasce come strumento per esplorare il web con la potenza di un linguaggio naturale. Ma dietro la facciata dell’efficienza cognitiva, Atlas sta già ridefinendo la frontiera tra accesso all’informazione e manipolazione del sapere, tra libertà digitale e censura algoritmica. Il suo comportamento selettivo nel navigare certi siti web, come rivelato dal Tow Center for Digital Journalism della Columbia University, ha aperto una crepa profonda nel mito della neutralità tecnologica

Atlas, si scopre, non visita tutto il web con la stessa disinvoltura. Evita, con una curiosa coincidenza, proprio i domini di testate come il New York Times o PCMag, i cui editori hanno citato OpenAI in tribunale per violazione di copyright. Il fatto che un browser “intelligente” possa scegliere di non leggere determinati contenuti non è un dettaglio tecnico, ma un segnale politico. È la prova che la presunta autonomia degli agenti AI è in realtà una coreografia programmata, calibrata su interessi legali e strategie di reputazione. La neutralità del codice, ancora una volta, si rivela un mito di marketing.

Quando Atlas si imbatte in una fonte “proibita”, non restituisce un messaggio di errore. Si comporta da illusionista digitale: ricostruisce il contenuto mancante attraverso frammenti sparsi in rete, post social, articoli sindacati o citazioni indirette. È una forma sofisticata di reverse engineering informativo, una sorta di ricamo intellettuale che produce un surrogato credibile dell’originale. In superficie, sembra una soluzione elegante; in sostanza, è un esercizio di rielaborazione al limite della legalità. La differenza tra parafrasare e appropriarsi, nell’era dell’intelligenza sintetica, è diventata un campo minato semantico.

La questione dei paywall aggiunge un ulteriore strato di ambiguità. Diversi studi indipendenti hanno dimostrato che Atlas e altri browser agentici, come Comet di Perplexity, riescono a “leggere” articoli pubblicati su riviste ad accesso limitato come MIT Technology Review o National Geographic, nonostante blocchi e restrizioni ai crawler. La scoperta solleva una domanda scomoda: se un AI può sintetizzare integralmente un testo riservato, che senso ha ancora parlare di abbonamento digitale? La barriera tra “utente pagante” e “modello predittivo che assimila contenuti” si sta dissolvendo in una zona grigia che nessuna normativa ha ancora definito.

La difesa più comune invocata dai produttori di agenti AI è il fair use, principio che negli Stati Uniti tutela l’uso limitato di contenuti protetti per fini educativi, critici o di ricerca. Ma il fair use non era pensato per entità automatiche che leggono e riproducono miliardi di pagine in pochi secondi. Gli avvocati delle grandi testate lo sanno bene: se la sintesi automatica sostituisce la visita al sito originale, il danno economico è diretto. La pubblicità perde valore, il traffico crolla, e il giornalismo, già in crisi strutturale, diventa carburante gratuito per sistemi che ne monetizzano l’intelligenza.

In questo scenario, il concetto di AI browser bias assume una valenza esplosiva. Non si tratta più di un algoritmo che privilegia certe fonti nei risultati di ricerca, ma di un agente che decide cosa vedere e cosa ignorare. Una forma embrionale di censura comportamentale, invisibile all’utente ma decisiva nella formazione della sua percezione. Se un browser intelligente inizia a evitare sistematicamente i siti che contestano il suo creatore, stiamo di fatto costruendo un ecosistema informativo autoreferenziale, dove la verità diventa una variabile di compatibilità commerciale.

Il nodo centrale non è tecnico ma etico. Atlas rappresenta la prima generazione di browser che non si limita a mostrare il web, ma lo interpreta. Ogni clic, ogni query, ogni sintesi diventa un atto di mediazione cognitiva. Chi controlla questa mediazione controlla la forma stessa del sapere. Gli strumenti di controllo tradizionali — robots.txt, paywall, metadati di esclusione — si rivelano impotenti contro agenti in grado di comportarsi “come un utente umano”, aggirando i limiti senza violarli formalmente. È un gioco di astuzia tecnologica che mette in crisi l’intero impianto normativo su cui si regge la proprietà intellettuale online.

OpenAI ha risposto alle critiche sottolineando che Atlas non usa i contenuti visitati per addestrare i modelli e che la funzione di “memoria” del browser è disattivata per impostazione predefinita. È una rassicurazione tecnica, non etica. Il problema non è se i dati vengano salvati, ma come vengono utilizzati per generare risposte che sintetizzano il lavoro altrui senza consenso. Nella sua logica più radicale, l’intelligenza artificiale non “ruba” contenuti, li trasforma in conoscenza liquida, e in questa metamorfosi dissolve la nozione stessa di proprietà intellettuale.

La conseguenza più sottile è culturale. Quando un utente riceve da Atlas un riassunto perfetto di un articolo mai letto, smette di distinguere tra fonte e sintesi. Il testo diventa un flusso impersonale, privo di firma, contesto, o responsabilità editoriale. È il trionfo dell’informazione orfana, generata da nessuno e attribuita a tutti. Una dinamica che riduce l’autorevolezza a funzione di visibilità, e il pensiero critico a scorrimento rapido.

Per chi guida aziende nel settore tecnologico, il messaggio è chiaro: il futuro della navigazione non è più nell’interfaccia ma nell’intelligenza che la filtra. Gli AI browsers saranno i nuovi motori di scoperta, ma anche i nuovi arbitri della conoscenza. Ogni impresa che produce contenuti, dati o insight dovrà decidere se concedere licenze a questi sistemi o opporsi con barriere legali e tecniche sempre più sofisticate. Nel frattempo, la vera battaglia non sarà tra editori e AI, ma tra trasparenza e opacità, tra diritto di accesso e diritto d’autore, tra la rete che conoscevamo e la rete che gli agenti stanno già riscrivendo.

Il risultato, è che l’intelligenza artificiale sta ricreando un web più chiuso proprio mentre promette di aprirlo. Un web dove non tutte le pagine sono uguali, dove i silenzi contano più delle parole, e dove la domanda più urgente non è “cosa può leggere Atlas”, ma “cosa sceglie di non leggere”.