Attaccano senza colpo ferire mentre la politica si accorge di essere diventata il bersaglio perfetto delle frodi AI, un terreno dove la creatività criminale corre più veloce dei comitati legislativi. Il Congresso statunitense scuote finalmente l’albero della regolamentazione con l’AI Fraud Deterrence Act, un segnale che non nasce da un improvviso slancio illuminato ma da un’umiliazione pubblica a base di deepfake vocali che hanno messo in imbarazzo alcuni dei più alti funzionari di Washington. La keyword che domina questo scenario è frodi AI, affiancata da concetti come impersonazione digitale e sicurezza nazionale. Non si tratta di moda tecnologica, bensì della linea di frattura dove si giocherà il potere politico nei prossimi anni.

Salta fuori che l’intelligenza artificiale non ha solo democratizzato la creatività, ha democratizzato anche la criminalità. La barriera d’ingresso per truffare un senatore, un governatore o un membro del Gabinetto non è mai stata così bassa. Un laptop, un modello generativo e la pazienza di attendere la voce sintetica perfetta: ecco il nuovo arsenale. La citazione di Ted Lieu non poteva essere più lapidaria quando afferma che queste impersonazioni possono essere disastrose per la sicurezza nazionale. È ironico notare come la tecnologia che avrebbe dovuto proteggere lo Stato finisca per ridicolizzarlo al telefono.

Qualche mese fa, i truffatori hanno preso di mira il telefono della Chief of Staff Susie Wiles, dando vita a un carosello di chiamate che imitavano perfettamente la sua voce. Senatori, governatori, CEO. Una rete di relazioni delicatissime manipolata da un clone sintetico che chiedeva informazioni sensibili come fosse la cosa più naturale del mondo. La scena ricorda un episodio di Veep diretto da Stanley Kubrick, tranne che nessuno rideva. Poco dopo, l’imitazione vocale del Segretario di Stato Marco Rubio ha replicato lo stesso schema con tre ministri stranieri e diversi funzionari americani. La frode, in questa nuova stagione, non colpisce più l’ultimo consumatore ingenuo ma la fascia alta della piramide, dove ogni parola ha valore geopolitico.

Il risultato politico è un disegno di legge che fa tremare chi considera l’AI il nuovo El Dorado criminale. Il pacchetto prevede fino a 2 milioni di dollari di multa per frodi AI in ambito postale e telematico e fino a 30 anni di carcere per manipolazioni bancarie abilitate da sistemi generativi. Non è una semplice inasprimento, è la volontà di creare un deterrente simbolico. L’America vuole riconquistare la faccia persa dopo essere stata presa in giro da un algoritmo ben addestrato. Il testo abbraccia la definizione di AI contenuta nel National AI Initiative Act del 2020 e inserisce protezioni per la libertà di espressione, salvando satira e parodia purché dichiaratamente inautentiche. Un dettaglio interessante che mostra quanto il legislatore sia consapevole del sottile confine tra spoofing criminale e creatività satirica.

La parte più intrigante di tutta la vicenda è la questione della prova giudiziaria. Mohith Agadi, co fondatore di Provenance AI, pone il problema più complesso: come si dimostra in un tribunale che un contenuto è stato generato da un modello? Esiste un paradosso che sfugge ai più: la sofisticazione dei sistemi crea una zona grigia dove l’attribuzione tecnica è fragile, variabile e facilmente contestabile. Le forensic AI attuali sono discontinue, con falsi positivi e falsi negativi che rendono qualsiasi esperto vulnerabile a un controesperto. In questo senso, introdurre pene più severe senza investire in strumenti di tracciabilità e autenticazione rischia di essere un esercizio di muscolatura politica più che una riforma utile.

Arriva qui il ruolo delle tecnologie di provenance come C2PA, una sorta di sigillo digitale che documenta la filiera di produzione dei contenuti. Non è ancora la panacea, ma è l’inizio di una grammatica di trasparenza che potrebbe smascherare le frodi AI alla radice. La provocazione implicita è evidente: senza un’infrastruttura nazionale di autenticazione dei contenuti digitali, il Congresso può anche votare cento leggi, ma gli hacker continueranno a ridere sotto i baffi sintetici.

Mentre tutto ciò accade, il Presidente Trump medita un colpo di teatro politico. Sta valutando un ordine esecutivo per annullare le leggi statali sull’AI e concentrare il controllo a livello federale. È un classico movimento da Washington quando la tecnologia minaccia di avanzare più velocemente degli apparati burocratici. La bozza circolata prevede un team guidato dal Procuratore Generale per sfidare le normative statali ritenute onerose e potenzialmente tagliare i fondi federali agli stati ribelli. Uno scenario che trasforma la regolazione dell’AI in una contesa di potere degna di un romanzo di Don DeLillo.

Molti legislatori statali non gradiscono la mossa, più di duecento per la precisione, che chiedono a gran voce di respingere le preemption clauses inserite dai Repubblicani nella legge sulla difesa. La battaglia non è accademica, riguarda chi decide il futuro della governance dell’AI, se le capitali dei singoli stati o il centro federale. In luglio un tentativo simile è crollato con un voto quasi unanime al Senato, ma ciò non ha fermato la Casa Bianca dall’esplorare strade laterali per ottenere lo stesso risultato.

La questione, al fondo, è sempre la stessa: chi controlla la tecnologia e chi controlla chi la controlla. Le frodi AI sono solo la prima manifestazione di una sfida più ampia, dove la linea tra libertà digitale e rischio sistemico è diventata sottilissima. La capacità di falsificare voci, identità e interazioni di alto livello non è soltanto un problema di cybersecurity, è un problema di sovranità. La politica reagisce perché ha capito di essere vulnerabile, forse più vulnerabile di qualunque cittadino comune.

Sorge spontanea una riflessione che serpeggia tra i corridoi delle big tech, una curiosità quasi filosofica: può uno Stato moderno mantenere la propria autorevolezza se non è più capace di distinguere se stesso dalla sua imitazione? I deepfake politici sono la forma più pericolosa di attacco alla fiducia pubblica, ed è per questo che la risposta legislativa assume toni tanto duri quanto teatrali. L’AI Fraud Deterrence Act funziona come segnale politico, non solo come deterrente giuridico.

Mentre la politica prova a disciplinare la tecnologia, la tecnologia sta già riscrivendo le regole della politica. Le frodi AI non sono un incidente di percorso, sono un presagio. Le leggi che oggi sembrano severe domani potrebbero apparire ingenue. In questo scenario si capisce perché la parola frodi AI assume un ruolo quasi totemico, un campanello d’allarme per un sistema istituzionale che si ritrova improvvisamente esposto nella sua vulnerabilità digitale. La sicurezza nazionale non è più una questione di confini fisici ma di autenticità computazionale. Chi saprà comprenderlo per primo non avrà solo un vantaggio competitivo, avrà il futuro.