C’era una volta il truffatore da marciapiede, quello che vendeva Rolex tarocchi fuori dalle stazioni o spacciava finti pacchi azionari porta a porta. Oggi è un algoritmo travestito da videoconferenza Zoom. È una voce clonata su WhatsApp che implora un bonifico urgente. È un finto CEO che ti chiama mentre sei in aeroporto. È una mail generata da ChatGPT che sembra scritta da tuo cugino commercialista. Benvenuti nell’era dell’ingegneria sociale potenziata dall’intelligenza artificiale: il nuovo Eldorado dei criminali digitali.

Il vero upgrade del crimine non è nella tecnica, ma nella scala. Prima un truffatore doveva lavorare duro per colpire cento persone. Ora con pochi clic, un 18enne a Tbilisi può orchestrare una campagna globale in dieci lingue diverse. I deepfake vocali e video sono passati da esperimenti inquietanti su YouTube a strumenti da call center della criminalità organizzata. I truffatori sono diventati scalers, e l’AI generativa è il loro fondo di venture capital.

Il problema non è solo economico, è strutturale. Viviamo in una cultura dell’azzardo e dell’instabilità in cui l’idea stessa di “vero” e “falso” è stata erosa dalla sovrabbondanza informativa. Ecco perché le scam AI non colpiscono solo i vecchietti poco digitalizzati: colpiscono noi, professionisti, tech-savvy, manager iperconnessi. Perché sono disegnate su misura per l’epoca dell’iperdecisione e del multitasking cronico.

Quando tutto è automatizzato, anche la truffa diventa un servizio. L’economia informale si fonde con quella algoritmica e genera un ecosistema scalabile, adattivo, virale. Le truffe AI-driven si nutrono di dati pubblici e mettono a frutto le stesse logiche delle startup: iteration speed, data loop, feedback optimization. Sì, i truffatori stanno usando i principi della lean startup per fotterti meglio.

Curiosità da bar: nel 2024, secondo Europol, è aumentato del 340% il numero di truffe digitali basate su AI rispetto al 2022. E no, non parliamo solo di phishing. Parliamo di veri e propri scam-as-a-service, piattaforme criminali dove compri pacchetti truffa preconfezionati: testi generati da LLM, identità false deepfakizzate, bot di risposta automatica, integrazioni API con Telegram e simili. Hai presente Shopify? Ecco, ma per truffatori.

Chi sono le vittime ideali? Non è più solo la “vecchia signora con la pensione minima”. Sono anche i freelance digitali che lavorano senza rete, gli expat che cercano casa su marketplace opachi, i lavoratori gig economy che si affidano a contatti WhatsApp non verificabili. La vulnerabilità non è solo digitale, è sociale: chi vive nella precarietà è più disposto a credere, a rischiare, a sbagliare.

Ecco il punto più cinico: molte truffe moderne si travestono da opportunità. Il finto reclutatore che ti offre un lavoro remoto a 3K/mese per “testare servizi” non ti ruba subito. Prima ti fidelizza, poi ti chiede di anticipare una quota. È la versione criminale del funnel marketing. E tu, che sei stressato, instabile, incerto sul futuro, ci caschi. Perché vuoi crederci.

La tecnologia non è neutra: è uno specchio amplificante delle nostre debolezze. L’AI generativa, con la sua capacità di imitazione e persuasione, ha semplicemente automatizzato le tattiche della manipolazione. Il futuro della truffa non è solo “high tech”, è high touch: simulazione emotiva, voce convincente, video realistici, narrativa personalizzata. Il phishing si è fatto storytelling.

Le soluzioni? Servono, ma vanno ripensate fuori dalla logica del solo firewall. Non basta più l’autenticazione a due fattori o l’antivirus aggiornato. Serve una nuova alfabetizzazione del reale. Serve insegnare alle persone a diffidare del “troppo perfetto”, a chiedere conferme analogiche, a riattivare il dubbio come strumento operativo. Sì, serve cultura del sospetto, quella che abbiamo perso in nome dell’efficienza e della velocità.

Il ruolo delle aziende è fondamentale. Ma non parliamo solo di patch o detection system. Parliamo di policy chiare, modelli di segnalazione integrati nelle piattaforme, riconoscimento vocale anti-deepfake, strumenti di verifica accessibili anche ai meno digitali. E soprattutto: accountability. Perché se una banca ti manda una mail troppo simile a quella dei truffatori, è parte del problema, non della soluzione.

E poi c’è la politica. Lentezza normativa, giurisdizioni frammentate, legislatori che ancora parlano di “intelligenza artificiale come una scatola nera”. Intanto i criminali vanno in beta, testano, scalano. Qui serve una task force europea permanente, un sistema di tracciamento simile a quello dell’antiriciclaggio, sanzioni vere per le piattaforme che non fanno abbastanza. Non possiamo aspettare che l’AI smetta di evolversi per decidere cosa sia legale.

No, le truffe non sono nuove. Ma oggi hanno un assistente virtuale che non dorme mai, parla tutte le lingue e conosce il tuo profilo LinkedIn meglio di te. Non è più questione di proteggersi. È questione di capire che siamo già dentro la truffa, e dobbiamo imparare a riconoscerla prima che ci riconosca lei.

Come direbbe il barista: “Ormai pure la fregatura è in abbonamento mensile.”

Data & Society ha pubblicato un rapporto sull’impatto dell’IA generativa sulle truffe.

“Sebbene un tempo minacciasse di rendere inutilizzabile la posta elettronica, lo spam è stato in gran parte domato grazie allo sviluppo di filtri email sempre più sofisticati, a regolamentazioni come il CAN-SPAM Act e agli utenti di posta elettronica diventati più abili nel riconoscere e gestire i messaggi indesiderati. … Questo successo non è derivato dall’eliminazione totale dello spam, ma dalla mitigazione del suo impatto in modo così efficace da renderlo un fastidio gestibile piuttosto che una forza distruttiva, attraverso una combinazione di progressi tecnici, regolamentazione e educazione. Ora che rivolgiamo la nostra attenzione alla crescente minaccia delle truffe potenziate dall’IA, la domanda diventa: come potrebbe essere una storia di successo comparabile?”