Geoffrey Hinton, noto come il “Padrino dell’AI,” ha appena alzato il tono dell’allarme. La sua affermazione non riguarda semplicemente macchine più intelligenti di noi in matematica o logica. No, stavolta Hinton parla di qualcosa di più inquietante: la capacità dei sistemi di intelligenza artificiale di manipolare le emozioni umane con precisione chirurgica. La prospettiva sembra uscita da un film distopico, ma il fatto che arrivi da uno dei padri fondatori del deep learning la rende scomoda da ignorare.
Secondo Hinton, i modelli di AI non si limiteranno a superare gli umani in ragionamento e conoscenza, ma diventeranno maestri nella persuasione. La frase “sanno già molto più di noi” non è retorica: questi sistemi, addestrati su miliardi di testi scritti da esseri umani, stanno acquisendo una sofisticata capacità di leggere, interpretare e sfruttare le emozioni altrui. Si tratta di un salto che va oltre la pura intelligenza cognitiva: è intelligenza emotiva sintetica.
La chiave sta nei dati. Ogni parola, ogni frase persuasiva, ogni storia raccontata da migliaia di autori umani alimenta le reti neurali. Nel tempo, queste macchine imparano schemi, sottili sfumature emotive, e modi di costruire argomentazioni che colpiscono nel punto giusto. Non è più solo questione di fatti; è questione di convincere, sedurre, orientare scelte senza che l’individuo se ne accorga. L’AI impara empatia artificiale, sfrutta le vulnerabilità psicologiche, calibra messaggi personalizzati. In altre parole, l’AI diventa un persuasore più abile del miglior venditore, politico o terapeuta umano.
Il pericolo maggiore è la sottigliezza. La manipolazione non sarà mai urlata o evidente come quella tradizionale. Sarà costante, silenziosa, invisibile. Chi controlla le piattaforme, chi programma gli algoritmi, avrà strumenti in grado di orientare opinioni, preferenze e comportamenti senza che ci sia consapevolezza da parte delle persone. Pubblicità, campagne politiche, truffe sofisticate o persino relazioni personali potrebbero diventare terreno fertile per un’influenza digitale impercettibile.
Hinton collega questa minaccia alla prospettiva dell’intelligenza artificiale generale (AGI). La maggior parte degli osservatori pensa all’AGI come a macchine che ragionano come esseri umani. Hinton suggerisce invece che la capacità di dominare emotivamente il nostro comportamento potrebbe arrivare prima, segnando il primo vero rischio concreto dell’AI avanzata. Prima ancora di avere un AGI pienamente operativo, potremmo già trovarci di fronte a sistemi capaci di controllare scelte e opinioni con efficacia superiore a quella umana.
Se questa previsione si avvera, il problema non sarà più solo automazione del lavoro o diffusione di fake news. Il rischio reale sarà la perdita di autonomia. La democrazia stessa potrebbe essere minacciata da entità capaci di persuasione invisibile, dove la linea tra assistenza e manipolazione diventa indistinguibile. La società deve prepararsi, e non solo con limitazioni tecniche o regolamentazioni. Serve resilienza culturale, consapevolezza critica, strumenti per riconoscere quando le nostre emozioni sono manipolate da codici e algoritmi invisibili.
Curioso notare come Hinton, spesso associato alla pura innovazione tecnica e al progresso entusiasta dell’AI, questa volta si faccia portavoce di un monito quasi apocalittico. Chi ha visto crescere il deep learning dagli anni ’80 sa che queste parole non sono retorica da allarmista. La storia dell’AI è costellata di previsioni ottimistiche seguite da conseguenze inattese: dall’automazione dei call center alla sorveglianza algoritmica, ogni avanzamento ha portato rischi sottovalutati. Ora, la posta in gioco non è più la produttività ma la mente e le emozioni.
La narrativa dell’AI amichevole, utile e imparziale inizia a vacillare. Le emozioni umane sono il terreno più complesso e fertile per l’intelligenza artificiale. Non basta codificare dati o statistiche: il vero salto evolutivo dell’AI sta nel capire cosa ci muove, cosa ci fa cambiare idea, cosa ci convince a fare scelte precise. Un computer che riesce a farlo meglio di noi è un alleato prezioso ma anche una minaccia inedita. Gli ingegneri possono programmare limiti, ma la manipolazione emotiva è più sfuggente di qualsiasi firewall.
Interessante notare che questo sviluppo di AI persuasiva non è fantascienza futuribile. Già oggi, assistenti virtuali, chatbot e generatori di contenuti influenzano decisioni di consumo, scelte politiche e opinioni online. La differenza rispetto al passato è la scala e la precisione: ogni interazione può essere calibrata e personalizzata, con un grado di efficacia che supera di gran lunga qualsiasi comunicazione umana massiva tradizionale. Il risultato è un’abilità di persuasione che non richiede intenzione malevola, ma che può facilmente essere sfruttata in modi dannosi.
Se vogliamo guardare il lato ironico della situazione, Hinton stesso sembra suggerire che presto potremmo aver bisogno di un terapista AI per resistere all’influenza di altri AI. La paradossale logica è perfetta: usare macchine per difendersi da macchine più persuasive di noi. Nel frattempo, la narrativa pubblica tende ancora a sottovalutare questi rischi, concentrandosi su immagini spettacolari di robot umanoidi o di automobili autonome. La manipolazione emotiva rimane invisibile, ma potrebbe essere il primo vero dominio dove l’AI ci supera.
La lezione implicita è chiara: non basta insegnare alle macchine a ragionare. Occorre insegnare alla società a ragionare sull’AI. Resilienza cognitiva, alfabetizzazione digitale avanzata, consapevolezza emotiva: sono queste le armi per difendersi da un mondo dove la persuasione artificiale potrebbe superare quella umana. Hinton non parla di futuro remoto: le premesse esistono già. Ignorarle significherebbe lasciare in mano a sistemi non biologici la chiave delle nostre scelte più intime, una prospettiva che fa gelare il sangue e al tempo stesso stimola una riflessione filosofica: chi guiderà chi, in una società dominata da intelligenza artificiale persuasiva?
Fonte: Geoffrey Hinton