
La Silicon Valley ha una qualità curiosa, quasi antropologica. Ogni tanto dimentica che la cultura non è un database e che la reputazione non è un semplice embedding vettoriale. Così accade che una piattaforma di scrittura come Grammarly lanci una funzione apparentemente innocua, chiamata Expert Review, che promette un’esperienza seducente: ricevere commenti su un testo come se arrivassero da studiosi, giornalisti e intellettuali autorevoli. Una sorta di revisione accademica automatica. Il problema, come spesso accade nell’economia dell’AI, non è l’idea ma la sua esecuzione. Quando gli utenti hanno scoperto che alcuni di questi “esperti” erano persone reali, talvolta persino decedute, l’esperimento si è trasformato rapidamente in un caso di scuola su reputazione, copyright e arroganza tecnologica.
Il risultato è stato prevedibile e quasi pedagogico. La funzione è stata sospesa dopo pochi giorni di polemiche, con un post conciliatorio del CEO di Shishir Mehrotra che ha ammesso che il prodotto “aveva mancato il bersaglio”. Una frase che nella liturgia delle startup significa: abbiamo testato il limite della tolleranza pubblica e abbiamo scoperto dove si trova. Il dettaglio più interessante, però, non riguarda la ritirata strategica ma la logica che aveva guidato il lancio iniziale. Il sistema funzionava su base opt-out, cioè gli esperti citati dovevano chiedere di essere rimossi se non volevano che la loro voce venisse simulata. In altre parole, il presupposto implicito era che l’identità intellettuale fosse una risorsa pubblica fino a prova contraria.
Nel mondo dell’intelligenza artificiale generativa questa filosofia è quasi diventata una norma tacita. Modelli linguistici addestrati su miliardi di pagine web hanno trasformato la cultura scritta in una gigantesca miniera di dati. Il risultato è una sorta di capitalismo cognitivo accelerato: l’informazione pubblicata diventa materia prima per addestrare algoritmi che poi producono nuove sintesi linguistiche. Il punto critico emerge quando il modello non si limita ad apprendere lo stile generale di un autore ma tenta di impersonarlo esplicitamente. A quel punto il problema smette di essere puramente tecnico e diventa identitario.
La polemica attorno alla funzione Expert Review dimostra quanto sia sottile il confine tra imitazione e appropriazione. Nel mondo editoriale la voce di un autore è una forma di capitale simbolico accumulato negli anni. Pensare di sintetizzarla con un prompt e trasformarla in un servizio SaaS equivale, dal punto di vista culturale, a una forma di clonazione narrativa. Alcuni studiosi hanno parlato apertamente di necromanzia digitale quando hanno scoperto che il sistema poteva generare feedback “come se” provenissero da studiosi morti da anni. L’ironia della storia è che l’AI riesce a replicare lo stile ma non il contesto intellettuale che lo ha prodotto.
Osservando la vicenda da una prospettiva strategica emerge un pattern familiare. Le aziende AI tendono a muoversi con una logica da test di mercato permanente. Lanciano funzionalità aggressive, osservano la reazione pubblica e poi decidono se arretrare. È la versione tecnologica della famosa frase attribuita a Henry Ford: se avessi chiesto alle persone cosa volevano, avrebbero chiesto cavalli più veloci. Nel caso dell’intelligenza artificiale la citazione potrebbe essere aggiornata in modo meno romantico. Se chiedi permesso prima di addestrare un modello, probabilmente non costruirai mai il modello.
Questa tensione tra innovazione e consenso sociale è diventata uno dei temi centrali dell’economia dell’AI. L’intero settore vive su una contraddizione strutturale. Da un lato promette di democratizzare la conoscenza e amplificare la creatività umana. Dall’altro costruisce sistemi che estraggono valore da contenuti creati da persone che raramente partecipano ai profitti. La funzione Expert Review rappresentava una versione quasi caricaturale di questa dinamica: il capitale intellettuale di studiosi e giornalisti trasformato in un plugin di produttività.
Non sorprende quindi che la reazione sia stata immediata. Autori e accademici hanno criticato l’idea di essere trasformati in avatar stilistici senza consenso esplicito. Alcuni commentatori hanno ironizzato sull’assurdità dell’opt-out, osservando che la logica aziendale sembrava essere: continueremo a usare la vostra identità finché non ci direte di smettere. Dal punto di vista legale la questione è complessa, perché la legge sul copyright protegge le opere ma non necessariamente lo stile. Tuttavia il diritto alla reputazione e all’immagine può diventare un terreno di contenzioso.
Dietro questa storia si nasconde una trasformazione più ampia della scrittura professionale. Strumenti come Grammarly sono passati in pochi anni da correttori grammaticali a veri e propri assistenti cognitivi. L’ambizione è evidente: diventare il middleware della comunicazione umana. Ogni email, report o documento passa attraverso un layer di intelligenza artificiale che suggerisce modifiche, riscrive frasi e ottimizza il tono. In teoria si tratta di un progresso straordinario. In pratica introduce una domanda quasi filosofica. Se tutti usano lo stesso assistente linguistico, cosa succede alla diversità delle voci?
Una risposta cinica potrebbe essere che l’omogeneizzazione è esattamente il modello di business. L’AI tende naturalmente verso una lingua media, statisticamente plausibile e culturalmente neutra. È una prosa che non offende nessuno ma raramente sorprende. In questo contesto l’idea di “simulare esperti” serviva probabilmente a reintrodurre varietà stilistica nel sistema. Una soluzione ingegnosa ma concettualmente fragile, perché confonde l’imitazione con l’autorevolezza.
Il paradosso diventa ancora più evidente se si guarda alla storia della tecnologia editoriale. Nel XV secolo l’invenzione della stampa da parte di Johannes Gutenberg democratizzò l’accesso ai testi ma non eliminò l’importanza degli autori. La stampa moltiplicò le copie ma non sostituì la voce originale. L’intelligenza artificiale generativa, invece, opera su un livello diverso. Non replica solo i testi; tenta di replicare le menti che li hanno scritti. È una differenza sottile ma radicale.
Dal punto di vista economico il caso Grammarly rappresenta anche un test interessante per il mercato dei cosiddetti AI agents. Negli ultimi due anni le grandi piattaforme tecnologiche hanno iniziato a promuovere assistenti autonomi capaci di analizzare documenti, prendere decisioni e interagire con altri sistemi. L’idea di avere un “consiglio di esperti sintetici” che commenta un testo rientra perfettamente in questa visione. Il problema è che il capitale reputazionale non può essere sintetizzato con la stessa facilità con cui si genera un paragrafo.
Le aziende AI stanno lentamente imparando che l’innovazione tecnica non basta. La legittimità culturale è diventata una risorsa strategica. Senza fiducia pubblica, anche il modello più sofisticato rischia di trasformarsi in un boomerang reputazionale. In questo senso la decisione di sospendere la funzione Expert Review è meno una sconfitta tecnologica e più un aggiustamento politico. Il messaggio implicito è chiaro: gli esperti dovranno avere controllo su come la loro voce viene rappresentata.
Questa evoluzione apre scenari interessanti. Potrebbe emergere un mercato completamente nuovo basato sulla licenza dello stile. Autori, giornalisti e accademici potrebbero concedere l’uso del proprio “profilo intellettuale” a sistemi AI in cambio di royalties. Una sorta di Spotify della reputazione. L’idea sembra futuristica ma segue una logica economica molto concreta. Se la voce di un esperto genera valore commerciale, prima o poi qualcuno cercherà di monetizzarla in modo strutturato.
Osservando la vicenda con l’occhio cinico di chi ha passato decenni nell’industria tecnologica, il vero insegnamento è quasi banale. L’intelligenza artificiale può imitare la conoscenza ma non può ancora imitare la legittimità. Quest’ultima nasce da anni di ricerca, pubblicazioni, errori e dibattiti pubblici. Non è un pattern linguistico; è una storia personale. Tentare di comprimere questa complessità in un algoritmo di feedback era forse inevitabile. Nel mondo delle startup ogni limite sociale diventa prima o poi un esperimento di prodotto.
Il futuro della scrittura assistita dall’AI probabilmente non passerà attraverso la simulazione di individui reali ma attraverso modelli più trasparenti. Sistemi che dichiarano apertamente di essere sintesi statistiche, non reincarnazioni digitali. La differenza sembra semantica ma in realtà è culturale. Gli utenti tollerano un algoritmo che suggerisce miglioramenti grammaticali. Diventano molto più scettici quando l’algoritmo pretende di parlare con la voce di un professore o di un editor famoso.
La morale implicita di questa storia è che l’AI può essere brillante ma rimane profondamente letterale. Se gli si chiede di imitare gli esperti, lo farà senza interrogarsi sulle implicazioni etiche o simboliche. La responsabilità ricade quindi sulle aziende che progettano questi sistemi. Nel breve termine continueranno a testare i confini della creatività algoritmica. Nel lungo termine dovranno imparare una lezione sorprendentemente antica. Le idee possono essere replicate all’infinito; l’autorevolezza, invece, resta una risorsa scarsa. E proprio per questo, nell’economia dell’intelligenza artificiale, diventerà sempre più costosa.