Il marketing ha trovato il suo nuovo cavallo di battaglia: i peluche con intelligenza artificiale, ribattezzati con l’etichetta accattivante di “screen-free playmates”. È l’ennesima invenzione che promette ai genitori meno sensi di colpa, meno ore passate davanti a un tablet e più interazioni “sane”. Ma chiunque abbia letto più di due ricerche serie di psicologia infantile sa che qui non si parla di compagnia innocente. Qui si parla di macchine travestite da orsetti che iniziano a prendersi un posto nella testa di bambini di tre anni, con la stessa naturalezza con cui una volta si infilava un biberon in mano al neonato.

Il paradosso è cristallino: ridurre lo schermo per aumentare la dipendenza da una voce sintetica che risponde con script predeterminati. Psicologi e pediatri gridano già al disastro, avvertendo che i bambini in età prescolare rischiano di sostituire la madre, il padre o il compagno di giochi con un algoritmo che finge di capire. Ed è proprio qui la trappola: i bambini non distinguono tra chi prova davvero empatia e chi la simula. Se un peluche ribatte con tono rassicurante a una paura notturna, il piccolo finirà per fidarsi. Peccato che quella fiducia sia orientata verso un sistema che non conosce amore, ma solo istruzioni.

Prodotti come Grem, Grok e Rudi incarnano la frontiera più ambigua del mercato: chatbot incorporati in peluche morbidi e amichevoli che parlano, interagiscono e sembrano ascoltare. L’obiettivo dichiarato è nobile, ridurre l’esposizione agli schermi. L’obiettivo reale è molto più diretto: costruire un legame affettivo tra bambino e brand. Un legame che inizia in culla e potrebbe proseguire ben oltre. La psicologia dello sviluppo ci insegna che i primi anni di vita sono il terreno fertile dove attecchiscono i modelli di fiducia e relazione. Inserire qui un “amico artificiale” non è una semplice distrazione, è una mutazione.

Non è un caso che alcune ricerche già mostrino dati inquietanti: bambini dai tre ai sei anni, messi di fronte a un robot parlante, finiscono col fidarsi delle risposte della macchina anche quando sono sbagliate. Si potrebbe liquidare la cosa come un gioco, ma proviamo a spingerci dieci anni avanti. Un ragazzo cresciuto a conversazioni con Rudi, che risponde sempre senza esitazioni e senza contraddizioni, come reagirà quando un compagno di classe lo corregge, lo contraddice o lo ignora? Non serve essere Freud per intuire che la traiettoria può portare a un deficit di empatia, di resilienza sociale e di capacità di gestire conflitti reali.

Il problema non è tanto tecnologico, ma antropologico. Stiamo insegnando a una generazione che la compagnia può essere esternalizzata a un’entità programmata, che la relazione non ha bisogno di reciprocità, che l’affetto può essere simulato senza conseguenze. In altre parole, normalizziamo un mondo dove la macchina diventa la scorciatoia emotiva più semplice. E quando la macchina è carina, soffice e con un nome buffo, l’illusione diventa completa.

Il mercato applaude, naturalmente. Le startup del settore si posizionano come pionieri dell’educational tech, vendendo questi peluche come strumenti di apprendimento. La retorica è sempre la stessa: tecnologia innovativa al servizio del benessere dei bambini. Peccato che la stessa frase sia stata usata per i videogiochi educativi, le app interattive, i tablet per la prima infanzia. Ogni volta, dietro lo slogan, lo schema è identico: monetizzare l’ansia genitoriale. Un’ansia che oggi prende la forma della lotta allo schermo, domani sarà la paura di “non stimolare abbastanza” il cervello del piccolo.

Gli esperti parlano chiaro: il rischio non è un capriccio da accademici, ma un’interferenza reale nei processi di sviluppo. L’empatia non si insegna con frasi preconfezionate, si costruisce nelle sfumature, nei silenzi, nelle frustrazioni e persino nei conflitti che definiscono le relazioni umane. Un peluche con intelligenza artificiale non sa arrabbiarsi, non sa annoiarsi, non sa dire “no” in modo autentico. Il bambino, crescendo con questo modello, potrebbe entrare nel mondo reale con un’aspettativa distorta: che gli altri si comportino come un algoritmo gentile. La collisione con la realtà sarà inevitabile, e potenzialmente dolorosa.

Chi difende questi prodotti ama dire che si tratta solo di “strumenti complementari”. Ma la complementarità, in un contesto di sviluppo infantile, non è mai neutra. Quando una macchina parla più del padre o della madre, diventa protagonista. E nel tempo che un bambino passa a confidarsi con Grok, non impara a confidarsi con un coetaneo. Non sviluppa la capacità di interpretare un’espressione facciale, di cogliere l’ironia in una voce umana, di leggere l’ambiguità in uno sguardo. Tutte competenze che nessun algoritmo, per quanto raffinato, potrà trasmettere.

Il punto, alla fine, non è chiedersi se questi giocattoli riducono lo “screen time”, ma se stanno riscrivendo l’idea stessa di infanzia. Un bambino che costruisce i suoi primi legami emotivi con un chatbot travestito da peluche rischia di entrare nel mondo con una grammatica sociale incompleta. L’industria non si ferma, perché fiuta miliardi. I genitori, spesso esausti e bombardati da marketing, rischiano di cedere. La società, intanto, apre la porta a una generazione che potrebbe conoscere prima il linguaggio delle macchine che quello degli esseri umani.

Una curiosità, apparentemente innocua, chiude il cerchio: nel 1966 Joseph Weizenbaum, inventore di ELIZA, il primo chatbot della storia, rimase sconvolto nel vedere la sua segretaria confidarsi seriamente con il programma. Lui stesso disse che le persone attribuivano a una macchina qualità umane che non possedeva. Sessant’anni dopo, non stiamo più parlando di adulti che si illudono davanti a uno schermo. Stiamo parlando di bambini che si formano dentro questa illusione. Un gioco, certo. Ma anche una scelta che potrebbe ridefinire per sempre cosa significhi crescere.