Il mondo dell’intelligenza artificiale sta lentamente trasformandosi in un gigantesco laboratorio commerciale, e OpenAI ha appena accelerato la traiettoria introducendo pubblicità nel suo chatbot. La mossa, annunciata a Davos e criticata da Demis Hassabis, CEO di DeepMind, è allo stesso tempo prevedibile e inquietante. L’idea di monetizzare 800 milioni di utenti settimanali non paganti è comprensibile se si considerano i costi infrastrutturali e energetici di modelli come GPT-4 o GPT-5, ma il punto cruciale non è economico: è di fiducia.

Hassabis ha espresso sorpresa per la velocità con cui OpenAI ha scelto di testare le ads, ricordando che Google osserva la questione “molto attentamente”. La sua preoccupazione non è teorica: un assistente digitale che diventa un canale di marketing perde inevitabilmente credibilità. Gli utenti non vogliono un venditore mascherato da compagno di conversazione. La recente reazione negativa alle “app suggestions” di ChatGPT, che OpenAI ha dovuto disattivare pur senza transazioni finanziarie, ne è un esempio lampante. L’odio del pubblico non nasce dal denaro, ma dalla sensazione di intrusione e degrado dell’esperienza.

La differenza tra motore di ricerca e chatbot diventa evidente qui. Con Google Search, gli annunci sono logici: il sistema interpreta intenti di ricerca spesso transazionali e mostra prodotti pertinenti. Con un assistente conversazionale, invece, l’aspettativa è relazionale e contestuale. Gemini, l’AI di Google, sta muovendosi nella direzione opposta: il focus è sulla personalizzazione, consentendo al modello di accedere a Gmail, Foto, Search e YouTube per offrire risposte rilevanti, senza però introdurre ancora un elemento commerciale diretto. Hassabis sottolinea che la scienza e la cautela guidano ogni passo di DeepMind, piuttosto che la pressione di monetizzare rapidamente.

Il contesto normativo si complica ulteriormente. Il senatore Ed Markey ha inviato lettere a OpenAI, Google, Microsoft, Meta, Snap, Anthropic e xAI, sollevando dubbi su sicurezza, privacy e protezione dei minori. L’idea di inserire ads nelle conversazioni rischia di trasformare l’interazione emotiva con un chatbot in un ecosistema manipolativo. Le emozioni che legano l’utente a un assistente digitale potrebbero diventare terreno fertile per pubblicità mirate, con rischi etici enormi. OpenAI sostiene che non mostrerà annunci durante discussioni su salute, politica o per utenti minorenni, ma la questione della profilazione futura resta aperta.

Non è un caso che Amazon abbia fallito nel tentativo di inserire pubblicità in Alexa. Gli utenti vogliono un assistente, non un venditore mascherato. Questa lezione storica sembra ignorata dalla strategia di OpenAI. L’esperienza conversazionale è fragile: basta un suggerimento fuori luogo per compromettere la fiducia. In un ecosistema dove la differenza tra consigli genuini e promozioni è sfumata, la trasparenza diventa più che mai cruciale.

Sul piano economico, la pressione è comprensibile. L’infrastruttura AI è costosa, e OpenAI non può contare esclusivamente sulle sottoscrizioni premium. Tuttavia, il rischio di degradare l’esperienza utente per guadagno immediato potrebbe ritorcersi contro: utenti diffidenti e regolatori attenti. Markey impone scadenze e domande precise, ricordando alle aziende che la fiducia non si compra, si costruisce, e si distrugge in un attimo.

Il dibattito tra monetizzazione e fiducia riflette una tensione più ampia nell’industria: il profitto immediato contro la sostenibilità dell’esperienza digitale. L’approccio di DeepMind suggerisce una visione più lunga: prima perfezionare l’assistente, poi eventualmente esplorare come monetizzarlo senza compromettere la relazione. OpenAI sembra invece pronta a testare i confini, rischiando di trasformare il dialogo con l’AI in un canale pubblicitario.

La questione non riguarda solo le ads, ma la definizione stessa di assistente digitale. Quando un modello sa troppo dell’utente, comprende gusti, abitudini e preferenze, il confine tra supporto e manipolazione diventa sottile. Il pubblico reagisce a percezioni di intrusione, e le regolamentazioni rischiano di arrivare proprio dove le aziende non vogliono: nella protezione dei dati, nella trasparenza e nel rispetto della relazione tra uomo e macchina.

Il caso OpenAI ci costringe a riflettere su un paradosso: più un AI diventa utile, più diventa vulnerabile alla tentazione di monetizzare la fiducia accumulata. Gli annunci non sono solo un fastidio estetico: cambiano il rapporto cognitivo e emotivo tra utente e assistente, e la storia dimostra che gli utenti sanno reagire duramente quando percepiscono una manipolazione. Hassabis osserva, con un misto di scetticismo e saggezza: non c’è fretta, la prudenza è il vero vantaggio competitivo in un mercato dove ogni errore si amplifica viralmente.

OpenAI ha aperto una porta che potrebbe cambiare il panorama della AI consumer, ma il prezzo non è solo economico. È culturale, emotivo e regolatorio. Le aziende che sapranno bilanciare utilità, personalizzazione e integrità dell’esperienza potranno consolidare la fiducia, mentre chi correrà troppo verso il profitto rischia di perdere la parte più preziosa del capitale digitale: l’attenzione e la lealtà degli utenti. In fondo, un assistente che consiglia solo prodotti non è più un assistente: è un venditore in smart clothing, e questo il pubblico lo capisce subito