The Alan Turing Institute: Understanding the Impacts of Generative AI
Use on Children
L’intelligenza artificiale generativa non è più solo un gadget per adulti appassionati di tecnologia o una curiosità da laboratorio: sta silenziosamente invadendo le aule, le case e le menti dei bambini. Un recente studio del 2025, frutto della collaborazione tra The Alan Turing Institute, Children’s Parliament e il colosso dei mattoncini LEGO, getta una luce senza filtri sull’uso di questi strumenti – come ChatGPT e DALL·E – tra i più giovani. Ma attenzione, perché dietro il fascino di immagini generate con un clic e risposte pronte all’istante, si nasconde un panorama complesso, fatto di disparità sociali, timori di sicurezza, e rischi educativi che sfidano la nostra capacità di governare questa nuova realtà.
Chi controlla il futuro dell’educazione digitale? Il rapporto basato su un ampio sondaggio condotto da YouGov nel Regno Unito su bambini dagli 8 ai 12 anni, genitori e insegnanti, mette in evidenza una verità che molti fingono di ignorare: la tecnologia non è democratica. I dati sono brutali. Solo il 18% dei bambini delle scuole pubbliche usa strumenti di IA generativa contro un 52% dei coetanei delle scuole private. Ancora più sconcertante è la forbice tra famiglie ad alto reddito (61%) e quelle meno abbienti (44%). Tradotto in soldoni, l’IA rischia di essere l’ennesimo strumento che amplifica il divario educativo, spingendo chi è già privilegiato verso un ulteriore vantaggio cognitivo e culturale.
Un’osservazione che dovrebbe mettere in allarme chiunque, soprattutto chi ricopre ruoli decisionali. È facile dire “la tecnologia è neutrale”, ma i numeri raccontano un’altra storia: l’accesso e l’uso dell’IA non sono equamente distribuiti, e di conseguenza neanche i benefici o i danni che essa può portare. Nel 2025, il digital divide si veste di nuove sfumature, più sottili ma più pericolose, perché coinvolgono la formazione delle menti in crescita, il tessuto sociale e persino la democrazia stessa.
La sicurezza è un altro nodo critico che emerge con forza. L’82% dei genitori teme che i propri figli possano imbattersi in contenuti inappropriati, mentre il 77% è preoccupato per la diffusione di informazioni false. Qui la questione non è più solo tecnica o educativa, ma profondamente etica. Cosa significa lasciare un bambino interagire con un’entità che genera risposte, immagini e narrazioni senza filtri umani? E che dire di quei bambini con bisogni educativi speciali, che per il 37% usano l’IA “per fare compagnia e chiacchierare”? Se da una parte si intravede un potenziale terapeutico o educativo, dall’altra si scorgono rischi di isolamento e supervisione insufficiente, scenari dove la tecnologia sostituisce, anziché integrare, la relazione umana.
L’integrità accademica è terreno di scontro aperto. Il 57% degli insegnanti dichiara che gli studenti consegnano lavori prodotti dall’IA come propri, mentre solo il 41% dei genitori sembra preoccuparsene davvero. Un abisso tra percezione e realtà che, se non affrontato con rigore, rischia di minare le basi stesse del sistema educativo. La tentazione di usare l’IA per copiare o barare è reale, ma ancora più insidioso è il messaggio implicito che manda: l’intelligenza, la creatività e l’impegno possono essere bypassati. Un tema che richiama la celebre ironia di Oscar Wilde: “L’educazione è un processo di accendere un fuoco, non di riempire un vaso”. Ecco, con l’IA si rischia di trasformare quel fuoco in una semplice fiamma artificiale, incapace di scaldare davvero.
Il rischio cognitivo è forse la preoccupazione più sottile ma pervasiva: il 76% dei genitori e il 72% degli insegnanti temono che l’uso dell’IA possa ridurre la capacità critica dei bambini. Gli insegnanti segnalano una minore partecipazione in classe, un’apatia cognitiva che si traduce in un apprendimento più superficiale. Non è un’iperbole da tech-fobia, ma un avvertimento fondato su osservazioni dirette. La facilità di ottenere risposte può disincentivare la fatica intellettuale, la riflessione profonda e la capacità di mettere in dubbio le fonti. Nel contesto di un’epoca dove la disinformazione corre più veloce della verità, questo rischio non è da sottovalutare.
La ricerca comprende decine di questionari e workshop che scavano in molteplici aspetti: dalla consapevolezza e comprensione dell’IA, ai tipi di utilizzo – che spaziano dal creativo al sociale –, fino alle emozioni provate, passando per le preoccupazioni etiche e la consapevolezza politica. Il quadro che emerge non è semplice né monocromatico: accanto alle opportunità di apprendimento, innovazione e inclusione, si intrecciano sfide culturali e digitali che richiedono un approccio altrettanto sofisticato e sfaccettato.
Insomma, l’era dell’IA generativa nelle mani dei bambini è un terreno di frontiera in cui convive un potenziale rivoluzionario con rischi reali, spesso sottovalutati o ignorati. È come consegnare una Ferrari a un adolescente senza patente: il rischio di incidenti è alto, ma se impariamo a guidare con responsabilità, può diventare uno strumento di libertà e crescita.
Il vero dilemma, quindi, è politico e culturale: come creare un ecosistema regolamentare, educativo e tecnologico che non lasci indietro nessuno, protegga i più vulnerabili e valorizzi il talento di tutti? La risposta non sta in divieti facili o panico morale, ma nella capacità di integrare l’IA in modo consapevole, critico e inclusivo. Se questo studio ha un merito, è proprio quello di smascherare l’illusione che l’IA sia un prodotto neutro, capace di “automagicamente” migliorare l’apprendimento senza interventi umani mirati.
Se vogliamo che la prossima generazione cresca libera di pensare, creare e discutere, dobbiamo smettere di fingere che l’IA sia solo un gioco e iniziare a trattarla come una responsabilità, non solo tecnologica, ma civile.
Fonti e approfondimenti: Youmna Hashem et al., The Alan Turing Institute (2025), Understanding the impacts of generative AI use on children, in collaborazione con Children’s Parliament e LEGO Group. Disponibile su https://shorturl.at/3qlUf