La nuova polemica sull’intelligenza artificiale non riguarda modelli sempre più potenti o guerre geopolitiche tra superpotenze tecnologiche. Questa volta il dibattito nasce in un luogo più sottile, quasi letterario: la scrittura. Più precisamente, l’idea che un software possa commentare un testo fingendo di essere un accademico famoso, magari anche uno morto da anni.
La piattaforma di scrittura assistita Grammarly ha introdotto una funzione chiamata Expert Review, una sorta di revisore automatico che analizza un documento e restituisce suggerimenti come se provenissero da studiosi, giornalisti o ricercatori riconosciuti. Non una semplice correzione grammaticale, ma una simulazione di giudizio intellettuale. Un piccolo consiglio editoriale algoritmico.
Sulla carta l’idea è elegante. L’utente scrive un testo, l’algoritmo lo analizza e propone feedback ispirati a figure autorevoli nel campo trattato. Un saggio sulla libertà di internet potrebbe ricevere commenti nello stile di Lawrence Lessig. Un articolo sui media potrebbe evocare la prospettiva della giornalista Margaret Sullivan o del commentatore Jack Shafer.
Dal punto di vista del marketing il concetto è brillante. Trasforma un assistente di scrittura in una specie di consiglio accademico virtuale. Una piccola università privata incorporata dentro il browser.
Il problema, come spesso accade nell’economia dell’intelligenza artificiale, emerge quando si guarda dietro il sipario tecnico e legale. Alcuni degli “esperti” evocati dall’applicazione non hanno mai autorizzato nulla. Altri, dettaglio ancora più delicato, non sono più vivi.
Una storica dell’Università di Birmingham, Vanessa Heggie, ha definito l’idea “morbosa”. Il suo commento, pubblicato sui social accademici, è diventato virale perché pone una domanda semplice e scomodissima: chi ha dato il permesso?
Il punto non riguarda soltanto la sensibilità etica. Tocca un nodo strutturale dell’intero ecosistema AI. I modelli linguistici funzionano perché vengono addestrati su enormi quantità di testo pubblico, inclusi articoli scientifici, libri, editoriali e saggi accademici. Se il sistema inizia a usare direttamente i nomi degli autori come marchio di competenza simulata, il confine tra ispirazione e appropriazione diventa improvvisamente molto sottile.
Nel caso specifico, l’azienda sostiene che non esiste alcuna impersonificazione diretta. Il sistema non pretende che l’esperto abbia partecipato o approvato il contenuto. Il feedback sarebbe semplicemente “ispirato” alle opere pubblicate e ampiamente citate.
Una formulazione legale piuttosto elegante. Anche piuttosto elastica.
Dal punto di vista tecnologico il meccanismo è relativamente semplice. Un large language model analizza il testo dell’utente, identifica il campo disciplinare e recupera riferimenti a studiosi influenti. A quel punto genera suggerimenti nello stile del loro approccio intellettuale.
Il risultato finale non è una citazione diretta, ma una sorta di eco stilistica. Una versione sintetica di ciò che quell’autore probabilmente direbbe.
A livello concettuale questa dinamica non è nuova. Le università la praticano da secoli. Ogni studente che scrive una tesi cerca implicitamente di immaginare come reagirebbero i grandi autori del campo. La differenza è che ora la simulazione avviene in tempo reale, dentro un software commerciale, su scala globale.
Il dettaglio interessante è che questa funzione arriva in un momento di trasformazione strategica della società madre. Grammarly, fondata nel 2009 come correttore grammaticale intelligente, sta progressivamente diventando qualcosa di molto diverso.
La società ha recentemente adottato il marchio Superhuman, segnalando l’ambizione di trasformarsi in una piattaforma completa di agenti AI per la produttività. Non più solo scrittura, ma ricerca automatica, gestione delle email, pianificazione e automazione dei flussi di lavoro.
In altre parole, l’assistente di grammatica sta evolvendo in una sorta di copilota cognitivo universale.
La funzione Expert Review è perfettamente coerente con questa strategia. Non corregge soltanto la forma del testo. Cerca di influenzarne il contenuto, l’argomentazione, persino l’orientamento intellettuale.
Il software non ti dice più dove manca una virgola. Ti suggerisce come pensare meglio.
Questa evoluzione apre una questione più ampia che molti accademici iniziano a percepire con una certa inquietudine.
Se gli algoritmi possono simulare il punto di vista degli esperti, il ruolo stesso dell’esperto cambia radicalmente. Non è più una persona che produce analisi. Diventa un dataset.
Il passaggio è sottile ma potente. L’autorità intellettuale, una volta legata alla reputazione personale e alla produzione di idee originali, rischia di essere compressa in un profilo stilistico replicabile da una macchina.
Nel lungo periodo questo potrebbe creare un curioso paradosso. Gli studiosi continueranno a pubblicare libri e articoli, ma il pubblico potrebbe iniziare a interagire più spesso con versioni sintetiche generate da AI piuttosto che con i testi originali.
Un fenomeno che alcuni sociologi della tecnologia descrivono come “compressione cognitiva”. La complessità del pensiero umano viene ridotta a pattern riconoscibili e riproducibili.
L’industria dell’AI, naturalmente, vede la questione in modo molto diverso. Dal suo punto di vista queste simulazioni democratizzano l’accesso alla conoscenza.
Uno studente che scrive un paper sulla privacy digitale può ricevere suggerimenti ispirati alla filosofa Helen Nissenbaum o all’etica dell’intelligenza artificiale sviluppata da Timnit Gebru. Senza dover leggere centinaia di pagine di letteratura accademica.
Il vantaggio immediato è evidente. Il rischio culturale pure.
L’intera dinamica ricorda una famosa osservazione attribuita allo scrittore Umberto Eco. L’abbondanza di informazioni non produce automaticamente più conoscenza; produce spesso più rumore.
Nel caso dell’AI, il rumore può assumere una forma molto raffinata.
Una macchina che simula il pensiero degli esperti può aiutare a scrivere meglio. Può anche creare l’illusione di comprendere davvero quelle idee.
La differenza tra le due cose, nel mondo accademico, è enorme.
Il dibattito attorno a Grammarly è quindi meno marginale di quanto sembri. Tocca tre questioni fondamentali che l’industria dell’intelligenza artificiale dovrà affrontare nei prossimi anni.
La prima riguarda il consenso. Gli autori dovrebbero avere il diritto di decidere se il proprio lavoro può essere usato per addestrare sistemi che simulano il loro stile.
La seconda riguarda la responsabilità intellettuale. Se un algoritmo produce un suggerimento “alla maniera di” un certo studioso, chi risponde di eventuali distorsioni o semplificazioni?
La terza, forse la più interessante, riguarda la trasformazione della figura dell’esperto nell’era degli LLM.
Un tempo l’esperto era una persona che parlava in prima persona.
Oggi rischia di diventare un prompt.
L’industria tecnologica tende a vedere questo passaggio come un progresso inevitabile. Gli accademici lo osservano con una miscela di fascinazione e inquietudine.
Il motivo è semplice. Le idee possono essere replicate. L’autorità intellettuale, invece, nasce da contesti culturali, controversie, errori, revisioni, anni di dibattito.
Una rete neurale può imitare lo stile di un pensatore. Riprodurre la traiettoria di una carriera intellettuale è un’altra storia.
Nel frattempo milioni di utenti continueranno a usare questi strumenti perché funzionano, fanno risparmiare tempo e rendono la scrittura più fluida.
La tecnologia raramente aspetta che la filosofia la raggiunga.
Qualche secolo fa gli umanisti temevano che la stampa avrebbe banalizzato il sapere. Oggi l’AI promette qualcosa di più radicale: trasformare la conoscenza in un servizio conversazionale on demand.
La vera domanda non è se gli esperti verranno imitati dalle macchine.
Quello sta già accadendo.
La domanda interessante è cosa succederà quando le macchine inizieranno a citare autori che non esistono affatto.
E, conoscendo la velocità dell’industria tecnologica, quel momento potrebbe essere molto più vicino di quanto l’accademia immagini.