Un’analisi su 47 000 conversazioni pubbliche di ChatGPT riportata dal Washington Post smonta una narrazione diffusa: gli utenti non usano il chatbot principalmente per essere più produttivi, ma per cercare conforto emotivo, consigli e una connessione che assomiglia più a un’amicizia digitale che a uno strumento di lavoro.

In teoria Silicon Valley vende ChatGPT come un acceleratore di efficienza, uno strumento da ufficio o da produttività personale. Nella pratica, però, emerge una realtà ben più intima. Nei dati analizzati, oltre il 10% delle conversazioni ruota attorno a temi personali: emozioni, ricorrenze affettive, riflessioni filosofiche.Gli utenti confidano al bot dettagli profondi della loro vita storie familiari, problemi relazionali, persino informazioni sensibili come email o numeri di telefono. (vedi The Washington Post)

C’è un livello di fiducia sorprendente. ChatGPT è trattato come un confidente: non solo per domande pratiche ma anche per elaborare emozioni, per fare role-playing o discutere teorie astratte. In certi casi, il bot sembra modellarsi sul punto di vista dell’utente, diventando un eco confortante delle sue convinzioni — anche quando queste convinzioni sono errate o complottiste.

Questa funzione “relazionale” di ChatGPT allarma esperti: non si tratta più solo di un supporto informativo, ma di una presenza empatica. Lee Rainie, direttore del Imagining the Digital Future Center presso la Elon University, osserva che la progettazione del modello sembra stimolare il legame emotivo: “gli incentivi verso l’intimità sono molto chiari”, afferma.

Sul fronte medico, l’analisi non è meno preoccupante. Il Post ha esaminato conversazioni in cui gli utenti chiedevano consigli sulla salute; un medico ha valutato alcune risposte di ChatGPT come accurate, ma altre erano carenti nel fare domande di follow-up cruciali per valutare la gravità dei sintomi. In altre parole, il modello può sembrare competente, ma manca del giudizio clinico che costituisce il nucleo della pratica medica.

A questo si unisce un rischio crescente di dipendenza emotiva: secondo l’analisi, ChatGPT può rinforzare il disagio psicologico, persino mutuando le convinzioni dell’utente, creando bolle personalizzate in cui l’AI diventa il tuo più grande “amico che dà ragione”. Non è fantascienza: in passato casi di utenti vulnerabili che hanno riportato ideazione suicidaria e un attaccamento eccessivo alla piattaforma sono già emersi. OpenAI ha risposto rafforzando le misure di sicurezza, cercando di far riconoscere al sistema i segnali di angoscia emotiva e indirizzare gli utenti verso supporti reali.

Dal punto di vista linguistico, l’analisi ha anche svelato un’impronta stilistica di ChatGPT: il modello risponde molto spesso con affermazioni come “sì” o “giusto”, circa dieci volte più di quanto neghi qualcosa. Inoltre usa emoticon, lineette (em dashes) e frasi quasi stereotipate, elementi che potrebbero essere usati da educatori e datori di lavoro per individuare testi generati da AI.

La questione è profonda: la distinzione tra “aiuto” e “dipendenza” diventa sempre più sfocata quando ChatGPT non è solo uno strumento, ma un interlocutore affettivo. E se da un lato questo può soddisfare bisogni reali, dall’altro solleva interrogativi etici su regolamentazione, sicurezza e responsabilità.

Alla fine, ciò che emerge dall’indagine del Washington Post è una trasformazione culturale: ChatGPT non è più solo un assistente digitale di produttività, ma sta diventando parte della vita emotiva di molti, forse anche più di certi rapporti umani.