Nel 2024, l’Australian Catholic University si è trovata al centro di una tempesta perfetta in cui l’intelligenza artificiale è passata da strumento di supporto a giudice inflessibile. Circa seimila studenti sono stati segnalati per cattiva condotta accademica, sospettati di aver usato chatbot generativi per scrivere saggi, relazioni e tesi. La percentuale di casi legati all’IA ha toccato il 90%, una cifra talmente sproporzionata da rendere evidente che non era la malafede degli studenti il problema, ma la fede cieca dell’istituzione nei confronti dell’algoritmo. È ironico notare che un’università cattolica abbia delegato il discernimento morale a una macchina che non conosce la colpa, né la grazia.
Molti di quegli studenti non avevano fatto nulla di male. Si erano semplicemente trovati nel posto sbagliato, nel momento in cui un software di rilevamento decideva che un periodo ben scritto, un lessico ricco o una sintassi troppo “fluida” potevano essere la firma di un’intelligenza artificiale. Il risultato è stato devastante. Centinaia di giovani hanno visto la loro carriera accademica bloccata da trascrizioni etichettate con un freddo “risultato trattenuto”. Alcuni hanno perso tirocini, altri offerte di lavoro. Il danno reputazionale non si cancella con un’email di scuse. In un mercato del lavoro ipercompetitivo, bastano tre parole in una scheda elettronica per cambiare il destino di una vita.
Il colpevole, o meglio il mezzo del disastro, è stato il rilevatore AI di Turnitin, presentato come un sofisticato sistema di deep learning capace di identificare testi “probabilmente generati da modelli linguistici di grandi dimensioni”. Il problema, come spesso accade nel mondo dell’intelligenza artificiale applicata senza controllo umano, è contenuto nella parola “probabilmente”. Turnitin ha poi ammesso che i suoi report possono identificare erroneamente la scrittura umana, e lo ha fatto con una nota di disarmante understatement, come se segnalare migliaia di persone innocenti fosse un semplice bug da risolvere con un aggiornamento software.
Gli esempi di falsi positivi non mancano. Alcuni sistemi di rilevamento AI hanno marcato come “contenuti generati artificialmente” brani della Costituzione degli Stati Uniti, testi biblici e persino articoli accademici pubblicati prima dell’avvento dei modelli linguistici. Quando l’algoritmo sbaglia, non lo fa per cattiveria, ma per ignoranza. È addestrato su pattern linguistici, non su verità. Scambia coerenza con artificialità, fluidità con frode. È l’illusione del rigore: un sistema che pretende di misurare l’autenticità umana senza capirne il contesto.
Il personale dell’università non ne è uscito meglio. Molti docenti, abituati a valutare con giudizio e sensibilità, si sono ritrovati costretti a fidarsi di un software di cui non comprendevano il funzionamento. Alcuni hanno protestato in silenzio, altri hanno seguito la linea istituzionale, anche contro il proprio istinto. È il tipico riflesso delle organizzazioni che cercano efficienza automatica in campi dove serve empatia. Quando un professore rinuncia alla propria capacità di discernimento per affidarsi a un algoritmo, l’istruzione smette di essere un processo umano e diventa un esercizio di compliance.
Alla fine, l’ACU ha corretto la rotta. Ha abbandonato il rilevatore e ha introdotto programmi di formazione sull’uso etico dell’intelligenza artificiale, rivolti a studenti e personale. Un atto tardivo, ma necessario. La lezione più preziosa non è arrivata dai report di Turnitin, ma dal fallimento stesso dell’esperimento. Invece di insegnare a “difendersi” dai chatbot, l’università ha dovuto imparare a convivere con essi, integrandoli in un percorso di alfabetizzazione digitale che unisce trasparenza, equità e senso critico.
La vicenda dell’Australian Catholic University rivela il lato oscuro dell’ansia istituzionale verso l’intelligenza artificiale. Le università, spinte dalla pressione pubblica e dal timore del cheating digitale, hanno trasformato la fiducia nella tecnologia in un feticcio morale. Hanno dimenticato che la tecnologia non è neutra, ma riflette le intenzioni e i limiti di chi la usa. Se un algoritmo diventa strumento di giudizio, chi controlla l’algoritmo diventa il vero arbitro della verità. È un paradosso che ricorda le inquisizioni medievali, ma con un’interfaccia moderna e un report in PDF.
Questa storia è un monito per il mondo accademico globale. I rilevatori di IA sono strumenti imperfetti, incapaci di distinguere tra creatività e automatismo, tra imitazione e ispirazione. Continuare a usarli senza contesto equivale a dare a una calcolatrice il potere di giudicare un romanzo. L’unica vera difesa contro l’abuso dell’intelligenza artificiale non è un software più preciso, ma una cultura più consapevole. Insegnare agli studenti a usare l’IA in modo etico, a dichiararne l’uso, a comprenderne le dinamiche, è infinitamente più utile che punire chi scrive troppo bene.
Il caso ACU mostra come il vero problema non sia la tecnologia in sé, ma la mentalità con cui la si adotta. Inseguire l’automazione del giudizio è una tentazione antica quanto la burocrazia. Ma il futuro dell’educazione non si costruisce con strumenti di sorveglianza, bensì con fiducia, formazione e intelligenza collettiva. Gli algoritmi non devono sostituire la responsabilità umana, ma amplificarla. Forse è questo il miracolo più interessante che l’università cattolica australiana, suo malgrado, ha contribuito a rivelare.