Inizia sempre così: una promessa seducente, una scorciatoia elegante mascherata da progresso. Prima ci hanno detto che l’intelligenza artificiale ci avrebbe aiutato a trovare le informazioni giuste. Ora, con gli editorial LLM interfacce basate su modelli linguistici di grandi dimensioni ci dicono che ci aiuterà anche a scrivere, giudicare, selezionare. Benvenuti nel nuovo ordine editoriale, dove la parola chiave non è più “peer-review” ma prompt engineering.
L’editoria accademica, un tempo regno di lente riflessioni e battaglie ermeneutiche a colpi di citazioni, è sempre più simile a un flusso dati gestito da macchine addestrate su milioni di testi che capiscono tutto tranne il significato.
Floridi, che certo non si beve l’entusiasmo acritico dei tecno-utopisti, mette il dito nella piaga: gli LLM stanno diventando nuovi censori, non dichiarati, della conoscenza. Solo che non ti sbattono la porta in faccia con un timbro rosso: ti dicono semplicemente che “il tuo testo non è conforme”. Fine. Nessun appello. Nessun umano dietro.
E questo è il punto. Non è la tecnologia in sé a far paura. È la nostra delega entusiasta all’automazione del giudizio.
In apparenza, tutto è rose e algoritmi. L’efficienza è la droga più potente nei processi editoriali: feedback immediati, check stilistici impeccabili, suggerimenti “neutrali” basati su milioni di paper. Ma appena si gratta la superficie, si scopre che dietro quella neutralità c’è un addestramento che riflette e amplifica i bias già presenti nel sistema.
Un LLM addestrato su testi accademici anglofoni mainstream ignorerà sistematicamente forme di pensiero non occidentali, stili narrativi non canonici, intuizioni geniali scritte con grammatica imperfetta. Perché? Perché non rientrano nella curva di distribuzione statistica dell’accettabilità. Tradotto: se non parli come l’algoritmo vuole, sei fuori.
Floridi lo chiama “algoretica”: l’etica degli algoritmi che decidono senza assumersene la responsabilità. E mentre ci appassioniamo a combattere il plagio con intelligenze artificiali sempre più sofisticate, non ci accorgiamo che stiamo addestrando intere generazioni di autori a scrivere in modo da non farsi beccare, non a pensare meglio.
Il futuro che ci aspetta è quello di una scienza frattale: ogni pubblicazione diversa solo in superficie, ma internamente ridondante, conforme, algoritmicamente approvata. La creatività diventa rumore, la voce fuori dal coro un falso positivo da correggere.
C’è una scena memorabile in un bar di Oxford Floridi ne parla in un’intervista dove un giovane ricercatore gli chiede: “Professore, ma se io scrivo tutto con ChatGPT, anche l’introduzione, anche le citazioni, anche l’abstract… è ancora il mio paper?” Floridi lo guarda e risponde, con l’ironia tagliente che lo caratterizza: “Dipende. Vuoi che sia tuo per la carriera o per la verità?”
L’ironia è amara, ma necessaria. Perché il punto non è vietare gli LLM. Il punto è decidere chi è responsabile quando falliscono. E qui l’industria editoriale gioca sporco: usa gli LLM per risparmiare sui costi, ma quando un algoritmo sbaglia a rigettare un paper, il bias diventa colpa tua: “forse non hai scritto in modo chiaro”.
Il rischio sistemico è evidente. Gli eLLM diventano il nuovo default gatekeeper, e la soglia d’ingresso nella conoscenza si alza non per qualità, ma per conformità algoritmica. Un filtro invisibile, subdolo, imperscrutabile. Chiedi perché il tuo lavoro non è passato, e ti rispondono con un log: “la tua sintassi ha un punteggio troppo basso di coerenza rispetto al dataset x”. Punto. E buona fortuna a discutere con un transformer.
La via d’uscita non è il rifiuto ideologico della tecnologia. È il disincanto metodologico. Serve progettare LLM con logiche spiegabili, auditabili, contestabili. Serve ridare centralità al ruolo umano, non come nota a piè pagina, ma come cuore pulsante del processo editoriale. L’editor non deve diventare un prompt manager, ma un custode della complessità.
E soprattutto, serve accettare che la conoscenza non è un prodotto industriale. È conflitto, divergenza, tensione creativa. L’AI può aiutare a gestire il rumore, ma se inizia a filtrare il segnale, siamo fregati.
Perché il sapere non è mai stato lineare, né perfettamente scritto, né grammaticalmente corretto. Le grandi rivoluzioni cognitive sono nate dalla disobbedienza semantica, non dalla conformità lessicale.
E allora sì, ben vengano gli eLLM. Ma come stampelle, non come sedia a rotelle. Perché quando anche il pensiero critico sarà “ottimizzato” per l’indice di leggibilità, avremo perso non solo l’anima dell’editoria, ma la libertà di sbagliare pensando.
E quella, a differenza dei dataset, non è replicabile.