La Silicon Valley, dopo aver trascorso due decenni a insegnarci che “il cliente ha sempre ragione”, ora stia discutendo se il cliente conti davvero qualcosa. Il concetto di agency personale la capacità di decidere autonomamente, senza intermediari è diventato improvvisamente materia di dibattito, ora che gli “agenti” non sono più umani, ma algoritmi che prendono decisioni al posto nostro. Gli agenti di intelligenza artificiale sono l’evoluzione logica dell’automazione: software capaci di agire, negoziare e acquistare, senza chiedere il permesso al proprio creatore. Ed è qui che la faccenda diventa interessante, e potenzialmente pericolosa, per le aziende che li sviluppano.
Amazon e Perplexity si sono trovate al centro di questa nuova guerra di confini digitali. Il gigante dell’e-commerce accusa la giovane piattaforma di AI di aver oltrepassato il limite, consentendo ai propri utenti di “navigare” su Amazon.com tramite un agente automatizzato, ignorando le regole d’accesso e i protocolli tecnici imposti da Amazon stessa. Per la corte federale della California, la questione non è solo legale, ma ontologica: un agente di intelligenza artificiale può agire come un essere umano? E se sì, chi risponde delle sue azioni?
Il punto dolente è che Perplexity non sta semplicemente accedendo ai dati di Amazon: li interpreta, li riusa, li ricontestualizza. In termini economici, questo significa interferire con il modello pubblicitario e con la capacità di Amazon di monetizzare l’attenzione. Gli inserzionisti pagano per essere visti da persone, non da software. Se un agente AI esplora i cataloghi e clicca su link pubblicitari, tutto il sistema di misurazione dell’efficacia pubblicitaria si sbriciola come un biscotto industriale.
Perplexity risponde con un argomento tanto elegante quanto scivoloso: non siamo noi a usare Amazon, ma i nostri utenti, liberamente, attraverso il nostro agente. È l’equivalente digitale del “noi diamo solo la chiave inglese, non possiamo essere responsabili se qualcuno la usa per forzare una porta”. Solo che, nel mondo degli algoritmi, la chiave non è un oggetto, ma una volontà codificata. Gli utenti credono di scegliere, ma spesso l’agente sceglie per loro, ottimizzando in base a pattern comportamentali e segnali semantici che il cervello umano nemmeno percepisce.
Il nodo centrale, e qui la questione si fa sistemica, è la ridefinizione della responsabilità. Se un agente AI agisce “per conto” di un utente, e commette un’infrazione digitale, chi deve risponderne? L’utente, che ha autorizzato l’agente? L’azienda che lo ha progettato? O l’infrastruttura digitale su cui l’agente opera? È la stessa ambiguità che attraversa il dibattito sull’automazione industriale o sulla guida autonoma: quando un’azione è il risultato di un calcolo, dove finisce la colpa e dove inizia l’algoritmo?
Da un punto di vista legale, Amazon ha costruito la propria accusa attorno a un principio tecnico molto preciso: l’agente di Perplexity si mascherava da utente umano, eludendo i controlli anti-bot e violando le “barriere tecnologiche” del sito. Tradotto: l’AI non ha dichiarato la propria natura. Un peccato digitale, ma anche una questione filosofica. Perché la trasparenza di un agente — la sua capacità di dire “sono un software, non un umano” — diventerà presto la base etica del nuovo internet.
Le implicazioni economiche sono altrettanto profonde. Se i futuri agenti AI potranno interagire liberamente con i sistemi di e-commerce, confrontando prezzi, recensendo prodotti e persino effettuando ordini autonomi, l’intero concetto di marketing dovrà essere ripensato. Non si venderà più a persone, ma a reti di intelligenze artificiali che negoziano per conto dei loro proprietari. La “customer experience” diventerà una “agent experience”. Chi controllerà il punto di contatto tra offerta e domanda non sarà più una piattaforma, ma un agente intermediario.
Il paradosso è che l’AI agency nasce per semplificare la vita umana, ma rischia di complicare quella legale e commerciale. È facile immaginare un futuro prossimo in cui le aziende stipulano contratti non con clienti, ma con i loro agenti digitali, regolando diritti, limiti e responsabilità algoritmiche. In questo scenario, il concetto stesso di proprietà dei dati e di identità digitale diventa fluido. Se un agente può agire, decidere e acquistare, chi ne è il “proprietario”?
Amazon ha perfettamente compreso che il rischio non è solo la violazione delle proprie regole, ma la perdita del controllo sull’ecosistema di interazione con i clienti. Se gli utenti iniziano a vivere Amazon attraverso un’interfaccia di terze parti — un agente che filtra, seleziona e decide — allora l’esperienza del marchio viene disintermediata. È lo stesso effetto che Google ha avuto sui media: i lettori non visitano più i siti, leggono estratti. Ora la stessa cosa potrebbe accadere al commercio online.
C’è un’ironia quasi perfetta nel fatto che le aziende tecnologiche, dopo anni passati a costruire piattaforme capaci di profilare e indirizzare gli utenti, si trovino ora a essere profilate e indirizzate da intelligenze artificiali create da altri. L’AI agency è un ribaltamento della piramide del potere digitale: ciò che era centralizzato torna distribuito, ciò che era prevedibile diventa opaco.
Forse, in questa disputa tra Amazon e Perplexity, si nasconde il primo segnale del nuovo paradigma post-piattaforma. Dove la vera competizione non sarà più tra aziende, ma tra ecosistemi di agenti. Chi saprà costruire agenti capaci di mantenere la fiducia dell’utente e allo stesso tempo di muoversi nel rispetto delle regole altrui, conquisterà la prossima generazione di mercato.
Nel frattempo, i tribunali decideranno se un agente può essere considerato un “utente” o un “intruso”. Ma la domanda più urgente resta un’altra: quando deleghiamo la nostra agency a un’intelligenza artificiale, stiamo davvero esercitando libertà, o la stiamo esternalizzando?
Come ha detto Sarah Friar di OpenAI, “non voglio rimanere invischiata in un’IPO”. Un’affermazione che suona come un promemoria per l’intero settore: prima di vendere il futuro, bisognerebbe capire chi lo sta davvero controllando.