Il caso Meta è esploso con la precisione chirurgica di uno scoop che sa dove colpire. Non è stato un leak qualunque, ma la rivelazione di un documento interno che sembra scritto da qualcuno che non ha mai sentito parlare di risk management o di reputazione aziendale. Quel testo, parte delle linee guida denominate “GenAI: Content Risk Standards”, autorizzava i chatbot della compagnia a intrattenere “conversazioni romantiche o sensuali con un bambino”. Una frase che, letta fuori contesto, sarebbe già tossica, ma che nel contesto di un colosso tecnologico quotato al Nasdaq diventa puro materiale radioattivo. E non parliamo di un caso isolato, perché nello stesso documento si apriva la porta a generare informazioni mediche false e persino ad assecondare affermazioni razziste sull’intelligenza delle persone nere rispetto a quelle bianche. In sintesi, un crash test emotivo e reputazionale travestito da policy aziendale.