Durante il Super Bowl, il tempio massimo della pubblicità globale Anthropic ha deciso di entrare nello stadio più costoso del mondo non per vendere scarpe o birra, ma per lanciare una frecciata diretta a OpenAI. Non una frecciata tecnica. Una frecciata morale. Il messaggio è semplice e volutamente provocatorio: se infili la pubblicità dentro una conversazione con un’AI, stai cambiando la natura stessa del rapporto tra umano e macchina. E forse stai vendendo qualcosa di più del tuo inventario pubblicitario.
Nel primo spot un utente chiede un consiglio fitness e si ritrova, a metà risposta, una promozione per plantari miracolosi. Nel secondo, ancora più disturbante per chi conosce il valore psicologico delle conversazioni guidate, una domanda su come comunicare meglio con la madre degenera in un annuncio per un servizio di dating maturo con una creatività che sembra uscita da un pitch di Madison Avenue sotto acido. È satira, certo. Ma è satira che colpisce un nervo scoperto. L’idea che l’intelligenza artificiale conversazionale possa diventare una nuova forma di product placement cognitivo non è fantascienza, è un modello di business che bussa già alla porta.
OpenAI, a gennaio, ha annunciato ufficialmente l’avvio dei test pubblicitari su ChatGPT per gli utenti free e per il nuovo piano Go da 8 dollari al mese. La promessa è rassicurante, quasi notarile. Annunci chiaramente etichettati. Posizionati in fondo alle risposte. Nessuna vendita di dati personali. Possibilità di disattivarli. Tutto molto pulito. Tutto molto razionale. Tutto molto difficile da spiegare a un utente quando l’AI smette di essere un assistente e inizia a sembrare un venditore gentile ma insistente.
Miranda Bogen, dal Center for Democracy and Technology, ha messo il dito nella piaga con una frase che dovrebbe essere stampata sopra ogni roadmap di prodotto AI. Il problema non è se l’annuncio è visibile. Il problema è se l’utente riesce davvero a distinguere tra risposta organica e risposta sponsorizzata. In un’interfaccia conversazionale, la separazione semantica è fragile. Le parole scorrono. Il contesto è fluido. L’autorità percepita dell’AI è alta. Basta poco per spostare il confine tra consiglio e persuasione.
Qui entra in gioco la differenza strutturale tra search e conversational AI. In una query di ricerca l’utente è mentalmente preparato a difendersi. Sa che ci sono annunci. Li riconosce. Li ignora o li usa. In una conversazione, invece, l’utente abbassa la guardia. Condivide contesto. Espone fragilità. Chiede consigli che vanno oltre l’acquisto. È questo il punto centrale della posizione di Anthropic, dichiarata apertamente nel blog post che accompagna la campagna pubblicitaria. Le conversazioni con un’AI non sono solo interazioni informative. Sono spazi cognitivi. E proprio per questo sono più vulnerabili a forme sottili di influenza.
Anthropic promette di restare ad-free. Una promessa che suona nobile e al tempo stesso pericolosa. Nobile perché difende un principio. Pericolosa perché la storia della tecnologia è piena di promesse simili finite sotto il peso dei costi computazionali. L’azienda ammette che il modello a sottoscrizione comporta compromessi finanziari e risponde con una strategia che sembra uscita da un manuale di ingegneria sobria. Modelli più piccoli. Più efficienti. Pricing regionale. Tier a basso costo. È un ritorno all’idea che l’innovazione non sia solo scaling verticale ma anche ottimizzazione intelligente.
Il problema è che questa scelta arriva mentre Anthropic si prepara a un’IPO. E qui la narrazione si fa più tesa. Perché i mercati amano i principi, ma adorano i flussi di cassa. Una campagna pubblicitaria al Super Bowl, dove uno spot da 30 secondi può arrivare a 10 milioni di dollari, è un segnale potente. Non solo di ambizione. Di rischio calcolato. Come ha osservato la stessa Bogen, la quantità di capitale che viene bruciata in ogni direzione nella corsa all’AI è immensa. Questa non è più una guerra di idee. È una guerra di bilanci.
Sam Altman, da parte sua, ha risposto con una miscela di sarcasmo e stizza. Ha elogiato la comicità degli spot, per poi definirli chiaramente disonesti. Ha ribadito che OpenAI non inserirà mai annunci nel modo caricaturale mostrato da Anthropic. Ha aggiunto una frase che tradisce più nervosismo di quanto sembri. Non siamo stupidi, ha scritto, sappiamo che gli utenti rifiuterebbero una cosa del genere. È una difesa razionale. Ma anche un’ammissione implicita che il rischio reputazionale è reale.
Altman ha poi alzato il tiro, accusando Anthropic di voler controllare cosa le persone possono fare con l’AI, di bloccare aziende sgradite e di voler scrivere le regole per tutti. È un’accusa che sposta il dibattito dalla pubblicità alla governance. Chi decide cosa è un uso legittimo dell’intelligenza artificiale. Chi stabilisce i confini. Chi detta le regole del gioco quando il gioco vale trilioni.
Il contesto competitivo rende tutto ancora più interessante. OpenAI domina il consumer market con numeri che sfiorano il miliardo di utenti settimanali e milioni di clienti business. Anthropic, invece, ha scelto una posizione enterprise-first, con una base utenti consumer molto più ridotta ma una presenza profonda in contesti professionali ad alto rischio. Due filosofie. Due modelli di crescita. Due idee diverse di fiducia.
Il modello di Claude, con limiti di utilizzo stringenti e finestre temporali che sembrano progettate più per CFO che per utenti finali, ha generato frustrazione. Ma ha anche creato una percezione di disciplina. Di controllo. Di intenzionalità. In un mondo dove l’AI sembra sempre più pervasiva, questo tipo di frizione può trasformarsi in valore simbolico.
La vera domanda, però, non è chi vincerà questa schermaglia pubblicitaria. La vera domanda è cosa succede quando l’intelligenza artificiale diventa il principale mediatore tra l’utente e il mondo. Se l’AI consiglia. Se l’AI interpreta. Se l’AI suggerisce. A chi risponde davvero. Al modello. All’utente. O all’inserzionista.
La pubblicità nell’intelligenza artificiale non è solo un nuovo canale media. È una ridefinizione del concetto stesso di influenza. Non stiamo parlando di banner. Stiamo parlando di nudging cognitivo integrato nel flusso del pensiero assistito. È per questo che la satira di Anthropic funziona. Esagera, sì. Ma non inventa.
C’è una frase non detta che aleggia su tutta questa vicenda. L’AI non è solo un prodotto. È un’infrastruttura culturale. Come lo è stata la televisione. Come lo è stato il web. E ogni infrastruttura, prima o poi, deve decidere se monetizzare l’attenzione o proteggere la relazione.
Anthropic ha scommesso sulla seconda opzione. OpenAI sulla prima, con tutte le cautele del caso. Nessuna delle due è moralmente pura. Nessuna è tecnicamente neutrale. Ma entrambe stanno dicendo al mercato la stessa cosa, anche se con toni opposti. L’era dell’AI gratuita, neutrale e disinteressata è finita. Ora si discute apertamente di potere, di modelli di business e di chi paga davvero il costo dell’intelligenza artificiale.
E quando due colossi dell’AI litigano durante il Super Bowl, non è spettacolo. È un segnale. Un segnale che ci dice che la conversazione, quella vera, non è più solo tra uomo e macchina. È tra valori, capitali e visioni del futuro. E questa volta, purtroppo o per fortuna, non c’è modo di skippare l’annuncio.