Understanding the Impacts of Generative AI Use on Children

C’erano una volta i mattoncini colorati. Poi vennero i prompt.

Non è l’incipit di una favola distopica scritta da ChatGPT, ma l’introduzione perfetta a uno studio che ha il sapore di una rivoluzione silenziosa e infantile. Il fatto che a firmarlo siano due nomi apparentemente incompatibili come The Alan Turing Institute e The LEGO Group è già di per sé un indizio potente: qualcosa si è rotto. O forse si è montato storto, come quando un bambino prova a forzare due pezzi incompatibili.

Questa indagine, che si è presa il lusso di interpellare oltre 1.700 bambini, genitori e insegnanti nel Regno Unito, è un sismografo etico e culturale. Ma a differenza dei classici report su chip, modelli LLM o disoccupazione da automazione, questo guarda direttamente negli occhi il nostro futuro: i bambini. E pone la domanda che tutti stanno evitando perché fa più paura di un algoritmo che scrive poesie: che razza di esseri umani cresceranno in un mondo dove l’intelligenza artificiale non è più un’eccezione, ma una compagna di giochi quotidiana?

Lo studio non dà risposte facili. Perché non ci sono. Ma offre un campionario di realtà che fa riflettere, sorridere e (spoiler) anche un po’ sudare freddo.

Uno su quattro tra gli 8 e i 12 anni usa già GenAI. Senza filtri, senza guide, senza nemmeno sapere cosa c’è dietro quel “magico” generatore di storie, immagini o risposte. Non si tratta solo di ChatGPT, ma anche di MyAI su Snapchat, la versione zuccherata e socialmente accettabile di un’intelligenza artificiale travestita da amico immaginario. Se vi sembra normale, pensate all’equivalente pre-AI: un bambino che confida i suoi problemi a un microonde.

Eppure, tra le crepe del cinismo digitale, emerge un dato che inquieta e consola allo stesso tempo. Il 78% dei bambini neurodivergenti usa l’AI per esprimersi. Per dare voce a idee che faticano a tradurre nel linguaggio verbale tradizionale. La macchina, insomma, non come sostituto, ma come estensione del sé. Siamo già ben oltre il concetto di “assistente virtuale”: siamo nell’era della protesi cognitiva.

Ma attenti a non farvi sedurre dal patetismo tech. Perché mentre alcuni bambini scoprono una nuova libertà, altri sbattono contro una nuova forma di esclusione digitale. L’accesso all’AI è profondamente diseguale: il 52% degli studenti delle scuole private la utilizza, contro solo il 18% delle scuole pubbliche. La nuova frontiera della disuguaglianza non è più il computer in casa, ma l’intelligenza artificiale nel browser.

E qui, come sempre, i bambini ci superano in lucidità. Molti di loro scelgono di NON usare l’AI per motivi ambientali. Hanno sentito parlare del consumo energetico dei data center, dell’impronta idrica dei modelli generativi. E mentre noi adulti ci ingarbugliamo in discussioni da convegno su “carbon footprint”, loro decidono: “No grazie, l’ambiente prima”. La nuova etica arriva dai più piccoli. Ed è un bel paradosso.

I genitori? Una contraddizione ambulante. Ottimisti, sì. Ma terrorizzati. Il 76% sostiene l’uso dell’AI, ma l’82% teme contenuti inappropriati. Curiosamente, solo il 41% teme che i figli copino i compiti. Forse perché hanno capito che l’AI non toglie lo sforzo, lo sposta. E forse perché ricordano ancora bene le versioni di latino trovate sul diario di classe.

E gli insegnanti? Per una volta, sono in vantaggio. L’85% afferma che GenAI migliora la produttività, l’88% si sente a proprio agio nell’usarla. Lontani dall’essere spaventati, sembrano vivere una sorta di Rinascimento didattico alimentato da prompt. Ma con una consapevolezza da veterani: se non insegniamo pensiero critico, i bambini diventeranno fanatici dell’output. E smetteranno di domandare, di dubitare, di smontare (come si faceva, un tempo, coi LEGO).

Proprio i LEGO, simbolo per eccellenza della costruzione libera, hanno capito che l’AI rischia di trasformare il bambino da architetto a consumatore di forme già prefabbricate. Il gioco generativo è un’arma a doppio taglio: potenzialmente creativo, ma anche paralizzante se non accompagnato da uno spirito critico.

E il problema dell’identità? Non c’è AI senza bias. Bambini di colore che non si sentono rappresentati, che non vedono sé stessi riflessi negli avatar, nelle voci, nelle storie generate. Qui non serve una patch tecnica. Serve una rivoluzione culturale. Perché nessun algoritmo è neutro. E i bambini lo percepiscono meglio di noi. Più che un digital divide, siamo davanti a un divario di riconoscimento.

Il fatto che il rapporto venga da due entità così diverse — uno dei centri più avanzati di ricerca AI e il marchio più iconico dell’infanzia — è di per sé una lezione. La tecnologia ha bisogno dell’umanità. E l’infanzia ha bisogno di strumenti che insegnino non solo a usare, ma a resistere. A chiedere “perché?”, non solo “come?”.

La vera sfida non è preparare i bambini al mondo dell’AI. È preparare l’AI al mondo dei bambini. Renderla capace di adattarsi alla loro complessità emotiva, alle loro contraddizioni, alla loro insaziabile voglia di rompere le regole. Perché un bambino che gioca con ChatGPT senza guida non sta imparando l’AI. Sta imparando che le risposte arrivano subito, perfette, lisce. E questo, mi spiace dirlo, è un’educazione alla superficialità.

Forse, in un futuro non lontano, ci sarà una materia scolastica chiamata “Promptologia Applicata”. Ma fino ad allora, è nostro dovere restituire il dubbio ai bambini. Insegnare loro che l’AI è uno strumento, non una verità. E che il gioco, quello vero, nasce dal caos, dall’errore, dalla scoperta. Non da una riga di codice.

E per concludere con una citazione fuori contesto ma perfetta:

“I bambini non sono vasi da riempire, ma fuochi da accendere.”
Solo che oggi, nel dubbio, molti li stanno scaldando col GPU.