system prompts and models of AI tools

Qui il Repository

Qualcuno ha scoperchiato la scatola nera. Migliaia di righe di system prompt, il codice genetico che dice alle IA come comportarsi, sono finite in chiaro su GitHub. Non stiamo parlando di un manuale di istruzioni da quattro pagine, ma di oltre ventimila righe che svelano bias, regole, limiti e trucchi con cui i colossi dell’AI addestrano i loro assistenti digitali. Se hai sempre sospettato che i tuoi tool preferiti ragionino con un copione nascosto, eccolo servito su un piatto d’argento.

È come leggere i pensieri proibiti di Claude, Cursor, Devin o Perplexity. Ti accorgi che non sono entità astratte ma prodotti con priorità precise, freni a mano calibrati, linguaggi preimpostati. La trasparenza improvvisa è un déjà vu del mondo della finanza quando trapelano i documenti interni: tutti corrono a capire dove sono le crepe, quali regole si possono piegare, quali opportunità sfruttare.

C’è chi applaude alla democratizzazione del sapere tecnico, chi parla di furto intellettuale e chi già trama su come manipolare meglio gli algoritmi grazie a queste istruzioni. Una certezza però resta: dopo questo leak sarà impossibile guardare un chatbot con gli stessi occhi innocenti. Adesso sappiamo che dietro il sorriso artificiale si nasconde un copione lungo ventimila righe, e non sempre scritto per il nostro bene.