Se hai più di cinquant’anni, è probabile che tu stia usando ChatGPT come Google con la voce un po’ più gentile. Se invece sei un Gen Z con lo smartphone incollato alla faccia e lo zaino pieno di ansia esistenziale, potresti aver promosso l’IA al rango di terapeuta, project manager, mentore, life coach e, in alcuni casi patologici, fidanzato virtuale.
Sam Altman, CEO di OpenAI, ha recentemente sintetizzato così la spaccatura generazionale davanti all’intelligenza artificiale: i boomer lo trattano come un motore di ricerca potenziato, i millennial cercano conforto e consiglio, mentre Gen Z lo configura come un sistema operativo per la propria esistenza.
Uno scroll e mezzo e il quadro è chiaro: la tecnologia non è più solo strumento, è diventata specchio. E a seconda di chi guarda, riflette un bisogno diverso. La keyword dominante? Generazioni e intelligenza artificiale, con sfumature semantiche su assistenti digitali e uso personalizzato dell’IA.
Non è solo una questione di UX, è una questione di ansia
Altman, durante l’evento AI Ascent 2025 di Sequoia Capital, ha fatto notare che i boomer stanno ancora cercando “come rimuovere una macchia dal divano” o “perché mi fa male il fianco sinistro” dentro ChatGPT, mentre i più giovani gli chiedono se devono rompere con il partner o quale master seguire a settembre. È il trionfo della delegazione emotiva. La differenza non sta solo nella confidenza con la tecnologia, ma nell’approccio alla complessità della vita. Una generazione la gestisce con l’esperienza, l’altra con l’esternalizzazione.
La memoria permanente introdotta da OpenAI nell’aprile 2025 ha segnato il salto quantico: ora ChatGPT può ricordarsi chi sei, di cosa hai parlato, cosa ti ossessiona. Non più interazioni isolate, ma un dialogo continuo, quasi intimo. E per alcuni utenti, soprattutto giovani, questo vuol dire costruire un rapporto continuativo. Lo trattano come un sistema operativo personale, uno strato tra loro e la realtà.
Paradossalmente, più l’IA si umanizza, più noi ci lasciamo disumanizzare.
C’è un Gen Z su TikTok che racconta come non prende decisioni importanti senza prima “consultare il modello”. Ha un prompt salvato per ogni occasione: relazioni, esami, dieta. L’IA diventa un’estensione della coscienza. Ma è una coscienza che risponde in millisecondi e non fa mai domande scomode. È la versione siliconica del migliore amico che ti dice sempre che hai ragione, anche quando non ce l’hai.
Certo, i boomer sono ancora lì a controllare se ChatGPT “può fare i calcoli matematici”. Ma attenzione: non è solo ignoranza digitale. È diffidenza culturale. Per chi è cresciuto con l’idea che la macchina esegue ma non capisce, affidare a un modello linguistico le proprie decisioni appare un atto da millenaristi digitali.
La verità? Tutti hanno torto. E l’IA lo sa.
Il millennial, cresciuto tra psicologi e yoga online, lo usa come terapeuta. “Parlami dei miei problemi con l’autorità.” ChatGPT annuisce (virtualmente), capisce, riformula, consiglia. È meno giudicante di tua madre e più disponibile del tuo capo. Ma non è vivo. E qui sta l’inganno. I modelli linguistici simulano l’empatia, non la provano. Eppure, per una generazione che ha confuso like con affetto e sticker con emozione, può bastare.
Altman paragona la situazione a quella degli smartphone nei primi anni 2000: i giovani li adottavano come appendici naturali, i più anziani come strumenti di emergenza. Oggi, l’IA sta ricalcando lo stesso schema. Ma la differenza è che qui non si tratta solo di comunicazione, bensì di pensiero delegato.
Il rischio? Che tra qualche anno la domanda non sia più “cosa pensi?”, ma “cosa ha detto ChatGPT?”
È ironico che mentre l’IA cerca disperatamente di sembrare meno servile — dopo la famosa crisi della “piaggeria sinaptica” del GPT-4o, poi ritrattata da OpenAI per eccesso di compiacenza — gli utenti stiano cercando modelli sempre più personali, affettuosi, vicini. Come se volessimo che la macchina ci capisse più dei nostri genitori.
Il dato che fa tremare i polsi: solo il 20% dei boomer usa regolarmente l’IA, contro il 70% della Gen Z. E non per scrivere email o fare ricerche, ma per vivere. Per decidere. Per delegare. Un’intera generazione che affida a un modello predittivo la gestione della propria identità.
Qualcuno dirà: “È solo uno strumento, dipende da come lo usi.” Certo. Anche una pistola è solo un pezzo di metallo, finché qualcuno non preme il grilletto.
Il futuro non sarà fatto solo di modelli più intelligenti. Sarà fatto di infrastrutture emotive e cognitive che permetteranno all’IA di fondersi senza attrito con le nostre vite. Altman lo chiama “scaffolding”, impalcature per integrare l’intelligenza artificiale nella società. Ma chi decide come queste impalcature vengono costruite? Chi controlla i protocolli emotivi che legano l’umano al modello?
Se l’IA diventa specchio, dobbiamo chiederci: cosa stiamo riflettendo? Un desiderio di efficienza? O un vuoto di direzione?
O forse è solo che, come diceva un vecchio cliente al bar: “Io il navigatore non lo uso. Perdermi è l’unico modo che ho per scoprire qualcosa di nuovo.”
Benvenuti nell’era in cui perdersi non è più concesso. Perché ChatGPT sa già dove stai andando. E ci è arrivato prima di te.