Che lo chiamino “AI Content Detector” o la nuova bacchetta magica per stanare testi scritti dall’intelligenza artificiale, poco cambia: se funziona come una monetina truccata, allora non è innovazione, è truffa. La notizia della settimana arriva direttamente dalla Federal Trade Commission americana, che ha messo nel mirino Workado, LLC, colpevole secondo l’agenzia di aver promesso una precisione del 98% nel rilevare contenuti generati da AI, salvo poi consegnare uno strumento che faticava a superare il 53%. Sì, praticamente un lancio di dadi in salsa SaaS.
La FTC non ci gira intorno: accuse di pubblicità ingannevole, mancanza di evidenze scientifiche, utenti ingannati e una bella proposta di sanzione sul piatto. E non si tratta solo di una multa. La proposta include il divieto di fare altre affermazioni senza dati concreti a supporto, obbligo di conservare documentazione a prova di verificabilità per ogni claim futuro, comunicazione obbligatoria agli utenti già colpiti e report periodici di conformità da spedire alla Commissione come se fossero compiti a casa.
Ma il messaggio vero, quello che conta, è un altro: la pacchia dell’AI marketing selvaggio è finita. Per mesi ci siamo bevuti promesse miracolose su tool magici in grado di distinguere GPT da Shakespeare, predire il futuro, scrivere il business plan di un unicorno in due click. Gli investitori hanno versato milioni in tool senza audit, e chi costruiva prodotti ha pensato che bastasse aggiungere “AI-powered” al pitch deck per passare l’esame della realtà. Peccato che adesso la realtà stia bussando con il martello della regolamentazione.
Workado non è che la punta dell’iceberg. È la versione patetica dell’AI grifter: startup col logo brillante, claim da 10x su LinkedIn, zero paper peer-reviewed. Il problema è che, finché il mercato correva e tutti cercavano la prossima buzzword da pompare, nessuno faceva troppe domande. Ora la FTC ha detto stop: o dimostri quello che dici, o ti becchi la reprimenda pubblica, la multa e l’obbligo di fare il bravo.
E qui non stiamo parlando solo di responsabilità etica – che è un concetto bellissimo, ma fin troppo spesso ignorato – parliamo di rischio legale. Di cause. Di class action. Di reputation crash. Parliamo della differenza tra essere un’AI company seria e finire nel cimitero delle scam-tech da TikTok.
Il punto è che oggi costruire un prodotto AI richiede qualcosa che molti hanno dimenticato: rigore. Non bastano le demo fighe in Figma, serve validazione statistica, testing su dataset indipendenti, audit di terze parti. Serve dichiarare con onestà cosa fa davvero un modello e dove fallisce. Perché ogni volta che si sovrastima l’intelligenza artificiale, si sottovaluta l’intelligenza umana: quella degli utenti che, prima o poi, si svegliano e ti portano in tribunale.
Questo caso è un precedente. E come tutti i precedenti, ha una funzione pedagogica. È il classico warning lanciato nel vuoto digitale a tutte le startup AI che pensano di vivere in un eterno pitch day. Non è più tempo di vaporware e metriche gonfiate. È tempo di verità, di trasparenza, di performance replicabili. Se vuoi vendere un tool AI che “detects AI”, allora preparati a spiegare come lo fa, con che dati, con che margine di errore.
Chi non lo fa, finirà come Workado: da startup a case study FTC, utile solo come esempio da non seguire.