A volte il vero vantaggio competitivo nasce da quello che per anni è stato considerato un difetto strutturale. Nel caso di Google, l’idea di dover gestire contemporaneamente un motore di ricerca e un chatbot di intelligenza artificiale sembrava fino a poco tempo fa una complicazione inutile, quasi una zavorra. Oggi appare invece come una scelta strategica di rara lucidità. Il punto centrale è semplice ma scomodo per molti evangelisti dell’AI: un chatbot non è un motore di ricerca e non lo sostituirà mai completamente.
Questa frase suona quasi eretica nel clima attuale, dominato da demo spettacolari e da presentazioni in cui l’intelligenza artificiale promette di fare tutto meglio, più velocemente e in modo più “umano”. La realtà dell’uso quotidiano è molto meno romantica e molto più pragmatica. Le persone non vogliono sempre conversare con una macchina. Spesso vogliono una risposta secca, immediata, affidabile. Vogliono sapere l’orario di un volo, il nome di un libro, il significato di una parola, il prezzo di un prodotto. In questi casi, la ricerca classica vince per KO tecnico.
Qui emerge la keyword principale che molti fingono di non vedere: motore di ricerca e chatbot AI rispondono a bisogni cognitivi diversi. Trattarli come se fossero la stessa cosa è un errore concettuale prima ancora che di prodotto. Google, con tutti i suoi difetti storici, questo lo ha capito meglio di altri.
OpenAI lo ha scoperto nel modo più doloroso possibile. L’azienda ha investito enormi risorse nello sviluppo di modelli di ragionamento sempre più sofisticati, eccellenti nel risolvere problemi complessi, matematica avanzata, programmazione, inferenze multilivello. Poi ha guardato i dati di utilizzo e si è accorta che la maggioranza degli utenti usava ChatGPT come se fosse una versione verbosa di Google. Domande banali, richieste semplici, curiosità estemporanee. Migliorare il modello non cambiava quasi nulla nella percezione dell’utente medio. Un incubo per qualsiasi CTO con un minimo di sensibilità di prodotto.
Questo scollamento tra capacità tecnologica e valore percepito è il vero tallone d’Achille di molta AI contemporanea. Non è un problema di intelligenza, ma di contesto. L’utente non premia la potenza teorica se non si traduce in un’esperienza migliore. Qui entra in gioco una keyword semantica fondamentale: esperienza utente. Google ha costruito il suo impero su questo principio, spesso in modo brutale e cinico, ma estremamente efficace.
Quando Sundar Pichai, in una call con gli analisti, ha dichiarato che Search e Gemini hanno casi d’uso molto diversi, non stava facendo pubbliche relazioni. Stava mettendo un paletto strategico. Stava dicendo che la confusione è un problema dell’industria, non necessariamente del prodotto. L’utente sa perfettamente quando vuole cercare e quando vuole chiedere. Il compito dell’azienda è non forzarlo dentro una visione ideologica della tecnologia.
Amazon si trova nella stessa situazione e, guarda caso, sta facendo una scelta simile. Il motore di ricerca dell’ecommerce rimane centrale per trovare un prodotto specifico. Rufus, il chatbot AI, entra in gioco quando serve orientamento, confronto, spiegazione. Chiedere a un chatbot di trovare un libro preciso è come chiedere a un consulente di filosofia di indicarti lo scaffale del supermercato. Può farlo, ma spreca tempo e pazienza.
Questo ci porta a un’altra keyword semantica cruciale: AI generativa come complemento, non come sostituto. Chi insiste sulla narrativa dell’AI che rimpiazza tutto sta confondendo marketing con strategia. La storia dell’innovazione tecnologica è piena di esempi simili. Le email non hanno eliminato le riunioni. I fogli di calcolo non hanno eliminato i CFO. I CRM non hanno eliminato le vendite. L’intelligenza artificiale non eliminerà la ricerca.
Il caso OpenAI rivela anche un problema organizzativo che molti fingono di non vedere. La frattura tra ricerca e prodotto. I ricercatori vogliono spingere i limiti del possibile. I product manager devono rispondere a metriche molto più prosaiche. Engagement, retention, soddisfazione. Quando queste due anime smettono di parlarsi, l’azienda entra in una zona pericolosa. Meta sta vivendo tensioni simili. Google le ha vissute per anni. La differenza è che Google ha una macchina di monetizzazione e distribuzione che ammortizza gli errori.
In AI, però, i costi sono amplificati. Addestrare modelli sempre più grandi costa cifre che farebbero impallidire un CFO di una banca d’investimento. Se quei modelli non generano valore tangibile per l’utente, il rischio non è solo strategico, è finanziario. Qui emerge un paradosso interessante, quasi ironico. Più l’AI diventa potente, più deve essere usata con umiltà. Più sa fare, meno deve dimostrarlo in ogni interazione.
C’è una citazione attribuita a Steve Jobs che torna spesso in mente in questo contesto: la tecnologia è niente. Quello che conta è avere fiducia nelle persone. Traslata nell’era dell’AI, significa capire come le persone pensano, decidono, cercano informazioni. La ricerca è un atto cognitivo rapido, spesso superficiale, orientato all’azione. La conversazione con un chatbot è un atto esplorativo, riflessivo, a volte persino pigro. Mescolare i due piani senza distinzione è un errore di design prima ancora che di business.
Google non ha solo un vantaggio tecnologico, ma epistemologico. Conosce le intenzioni di ricerca meglio di chiunque altro al mondo. Può decidere quando mostrare una risposta generativa e quando una lista di link. Può dosare l’AI come un ingrediente, non come il piatto principale. Questa è una lezione che molti nuovi player stanno imparando troppo tardi.
Il vero rischio per OpenAI non è che Google abbia un chatbot migliore. È che Google non abbia bisogno di un chatbot migliore per vincere. Può permettersi di essere pragmatico, ibrido, persino incoerente. Può offrire risposte rapide quando servono e conversazioni lunghe quando aggiungono valore. Questa apparente debolezza strutturale è in realtà una forza sistemica.
Chi guarda a questa partita con l’occhio del tecnologo esperto non può non sorridere davanti a certe narrative apocalittiche. L’idea che una singola interfaccia conversazionale sostituisca decenni di ottimizzazione cognitiva della ricerca è affascinante, ma ingenua. L’utente non vuole parlare con l’AI. Vuole risolvere un problema. Se la ricerca lo fa meglio, userà la ricerca. Se il chatbot aggiunge valore, userà il chatbot. Senza ideologia, senza fedeltà, senza pietà.
L’innovazione non premia chi costruisce la tecnologia più avanzata, ma chi la inserisce nel punto giusto del flusso mentale dell’utente. Google, spesso accusata di lentezza e conservatorismo, ha trasformato la sua presunta debolezza in una posizione di vantaggio. Non perché sia più visionaria, ma perché è più cinicamente realista. In un’epoca di intelligenze artificiali che vogliono pensare al posto nostro, questa è forse la forma più sofisticata di intelligenza strategica.