Chiariamo subito un punto: l’IA generativa non è il nemico. Il nemico è il pensiero pigro. E OpenAI, con la sua nuova modalità Study Mode, tenta finalmente di mettere un freno all’orgia di outsourcing cognitivo che ha trasformato ChatGPT da promettente mentore digitale a complice silenzioso dell’apatia scolastica. Ora la macchina dice “aspetta un attimo, ragiona tu”. È quasi rivoluzionario.

Questa nuova funzionalità, già in fase di roll-out per gli utenti loggati ai piani Free, Plus, Pro e Team, si comporta come un professore un po’ severo ma giusto. Niente più risposte masticate e pronte all’uso: Study Mode propone domande, chiede spiegazioni, stimola l’autovalutazione. E se non si collabora? Niente risposte. Una forma di “disobbedienza pedagogica” algoritmica che sembra uscita più da una pedagogia socratica che da una strategia di prodotto della Silicon Valley.

Il punto, naturalmente, è critico. Perché OpenAI si è resa conto che il suo giocattolo brillante è finito nei banchi di scuola e rischia di lobotomizzare generazioni di studenti. Una ricerca pubblicata a giugno ha registrato un livello più basso di attività cerebrale negli studenti che scrivono un saggio con l’ausilio di ChatGPT rispetto a chi usa Google Search o, udite udite, niente. Cioè, più cervello quando si naviga su Google che con l’IA. Capito il paradosso? L’intelligenza artificiale sta atrofizzando quella naturale.

Eppure non è sempre stato così. Quando ChatGPT è arrivato nel 2022, la reazione delle scuole americane è stata da manuale: divieti, censure, panico morale. Poi il realismo ha fatto breccia. Nel 2023 molti istituti hanno rimosso i ban, accettando l’inevitabile: l’IA è qui per restare. Ma questo non ha risolto il problema principale. Anzi, lo ha amplificato. Lo strumento nato per stimolare è diventato il trucco per copiare, l’escamotage per evitare la fatica della riflessione.

Con Study Mode, OpenAI tenta una mossa di redenzione. Il sottotesto è chiaro: “Non vogliamo più essere solo un motore di risposte. Vogliamo educare”. Peccato che, come spesso accade nella tecnologia educativa, il principio non coincide necessariamente con la pratica. Perché? Semplice: nulla impedisce agli studenti di disattivare Study Mode e tornare alla vecchia modalità pigra. Non esistono strumenti di blocco per genitori o amministratori. È tutto affidato alla volontà dello studente. Avete presente un adolescente di 14 anni che sceglie deliberatamente la strada più difficile? Nemmeno OpenAI, evidentemente.

Leah Belsky, vicepresidente Education di OpenAI, lo ha ammesso candidamente. Non ci sono controlli. Per ora. Ma forse ci saranno. L’idea di una “sorveglianza educativa” digitale potrebbe non essere lontana. E qui si apre un vaso di Pandora etico non da poco: fino a che punto è lecito forzare l’apprendimento? Quanto controllo siamo disposti ad accettare, anche se a fin di bene?

Nel frattempo, la concorrenza non resta a guardare. Anthropic, l’azienda fondata da ex ingegneri di OpenAI, ha lanciato ad aprile la propria versione della modalità educativa per Claude, chiamata significativamente Learning Mode. Il nome è più neutro, meno paternalista. Ma l’obiettivo è lo stesso: evitare che i chatbot diventino il McDonald’s della conoscenza, veloce, economico e devastante per la salute intellettuale.

Tuttavia, non illudiamoci. Il rischio è che Study Mode diventi poco più di un badge etico, un’aggiunta cosmetica utile a placare critici e a migliorare l’immagine pubblica di OpenAI. Un tool che esiste, ma che nessuno usa davvero. Un po’ come le istruzioni sul retro delle merendine. E in effetti, se la scuola è un supermercato e l’educazione un prodotto da consumare, allora ChatGPT è diventato il coltellino svizzero della pigrizia cognitiva. E ora cerca, goffamente, di redimersi.

Questa è la realtà brutale del rapporto tra intelligenza artificiale e istruzione. Uno strumento potente, troppo spesso usato male. Il problema non è la tecnologia, ma l’assenza di un’etica dell’apprendimento. In altre parole: se l’IA pensa al posto nostro, a cosa ci serve ancora il cervello?

Qui sta la provocazione implicita di Study Mode. Non tanto nelle sue funzioni, ma nella sua esistenza stessa. È una dichiarazione di fallimento travestita da progresso. Un’ammissione del fatto che ChatGPT, così com’era, ha favorito un’epidemia di pensiero assistito, di conoscenza “as a service”. Ora prova a correggersi, ma con strumenti spuntati. Il sistema si basa ancora sulla fiducia dello studente. In un’epoca in cui la dopamina dell’efficienza conta più della soddisfazione della comprensione, è come mettere un cartello “non toccare” su un barattolo di Nutella in una classe delle elementari.

In fondo, forse questo è il nuovo paradigma dell’educazione digitale: un eterno conflitto tra l’accesso immediato e l’apprendimento profondo. Tra la risposta pronta e la domanda giusta. Study Mode è solo un tentativo, nobile ma fragile, di riprendere il controllo. Una specie di freno a mano tirato su un treno lanciato a tutta velocità verso la standardizzazione totale del sapere.

Eppure, nella sua imperfezione, è anche un passo avanti. Un invito a trattare l’IA non come un oracolo, ma come un interlocutore. A usare ChatGPT non per saltare le tappe dell’apprendimento, ma per approfondirle. Il che, in un mondo dominato dalla gratificazione istantanea, è già un atto sovversivo.

In conclusione, anche se non possiamo concludere formalmente, vale la pena ricordare che il pensiero critico non si scarica. Non si copia. Non si compila. Si allena. E se serve una modalità apposita per ricordarlo agli studenti digitali del XXI secolo, allora forse il vero problema non è ChatGPT, ma quello che siamo diventati senza di lui.