Nel 2025, l’intelligenza artificiale non è più un concetto astratto relegato ai laboratori universitari o alle startup di Silicon Valley. È diventata una risorsa strategica nelle campagne politiche, un’arma affilata nelle mani di chi sa come utilizzarla. Il National Democratic Training Committee (NDTC), fondato nel 2016 da Kelly Dietrich, ha lanciato un playbook che guida le campagne democratiche nell’uso responsabile dell’IA. Ma cosa significa “responsabile” in un contesto dove la verità è spesso l’elemento più malleabile?

Il playbook del NDTC enfatizza la trasparenza: le campagne devono dichiarare quando utilizzano l’IA, soprattutto per contenuti sensibili come messaggi personali o politiche. Ma questa trasparenza è davvero una garanzia di integrità? In un’epoca in cui la fiducia nel sistema politico è ai minimi storici, le dichiarazioni di trasparenza possono sembrare più un tentativo di rassicurare l’opinione pubblica che un impegno genuino verso l’etica. La verità è che, anche con le migliori intenzioni, l’IA può essere utilizzata per manipolare le percezioni e influenzare le opinioni in modi sottili e difficilmente rilevabili.