È l’incipit provocatorio di un CEO che non teme di mettere in discussione il suo stesso universo.
Lunedì scorso Sam Altman, entusiasta di X e azionista di Reddit, ha ammesso un’evidenza inquietante: “I bot hanno reso impossibile capire se i post sui social sono davvero scritti da umani” confessava. Il momento “aha” è arrivato mentre sfogliava r/Claudecode, una subreddit lodante il nuovo servizio di programmazione OpenAI Codex, lanciato a maggio (e diretto concorrente di Claude Code di Anthropic). Il volume di post entusiasti era talmente esagerato che un utente ha ironizzato: “Si può passare a Codex senza aprire un thread su Reddit?” Questo scherzo gli ha fatto pensare: quanti di quei post erano bot? “Ho vissuto un’esperienza stranissima leggendo questo: presumo che sia tutto falso/bot, anche se in questo caso so che la crescita di Codex è davvero forte e la tendenza reale” ha scritto su X.
Altman ha quindi analizzato a caldo, in diretta: “Credo stiano accadendo varie cose: persone reali hanno adottato manierismi da LLM; la comunità «estremamente online» converge con uno stile molto sincronizzato; il ciclo dell’hype oscilla tra “È finita!” e “Siamo tornati!”; le piattaforme sono ottimizzate per coinvolgimento e monetizzazione; abbiamo subito astroturfing quindi sono ipersensibile; e poi probabilmente ci sono anche dei bot” .
Paradossale: LLM come quelli di OpenAI sono stati creati proprio per emulare la comunicazione umana, tanto che ormai gli umani travestiti da LLM suonano meno autentici degli LLM stessi. Non scordiamoci: OpenAI si è formata anche grazie a Reddit, piattaforma di cui Altman è stato membro del consiglio fino al 2022 e azionista di rilievo, come terzo maggior investitore al momento dell’IPO: possiede circa un 8-9 % della società .
La sua osservazione sul fanatismo delle community “always-on” non è banale. I fandom esagerati si autoallevano, diventano massa e compiacenti. L’effetto echo chamber è potente. I modelli di engagement dominano tutto, alimentando atteggiamenti isterici e sincronizzati. E, non ultimo, l’astroturfing – campagne apparentemente spontanee ma orchestrate “da campi” – rende Altman iper-allertato: non ci sono prove chiare, ma il sospetto è concreto.
È vero che gli utenti pro-OpenAI su quel subreddit hanno lasciato l’impressione di automatismi. Ma anche le community OpenAI Reddit si sono rivoltate dopo il rilascio burrascoso di GPT-5.0: niente applausi unanimi, ma proteste votate al bot (battuta metaforica). Un giorno dopo il lancio, Altman si è lanciato in una sessione AMA su r/GPT, dove non ha nascosto problemi di rollout e promesso aggiustamenti. La comunità non è mai tornata quella di prima, ancora oggi irritata da GPT-5.0. E ora la domanda sorge spontanea: saranno umani o, come Altman suggerisce, fake?
E poi la pennellata finale: “AI Twitter / AI Reddit sembra davvero finta come non lo era un anno o due fa”. Ma la questione è più ampia. GPT ha spinto gli LLM fino a diventare una piaga sociale non solo social, ma scuole, giornali, perfino tribunali ovunque la linea tra umano e macchina è svanita nel fumo digitale.
Quanto AI c’è dietro i post su Reddit? Sconosciamo la quota esatta, ma il traffico Internet non umano è ormai dominante. Imperva segnala che nel 2024 oltre la metà del traffico web era bot: circa il 51 % secondo il report 2025 (prima volta in un decennio in cui il traffico automatizzato supera quello umano). Altri report stimano che solo i “bad bot” rappresentino il 37 % del traffico nel 2024 Malwarebytes.
Infine, qualche sussurro di marketing: alcuni vedono in questa lancia spezzata una mossa subdola per promuovere un presunto social network OpenAI, di cui si vociferava già in aprile come progetto embrionale per sfidare X o Facebook. Se mai nascerà, garantirebbe un “bot-free zone”? Ironia della sorte, se sostituisse umani con LLM, l’effetto “falso” resterebbe lo stesso. Del resto, uno studio dell’università di Amsterdam descrive una rete sociale esclusivamente composta da bot: finiscono per raggrupparsi in tribù e camere d’eco, come fossero umani, ma con meno coscienza.