Quando Mustafa Suleyman, oggi a capo della divisione AI di Microsoft, dice al Financial Times che entro dodici diciotto mesi la maggior parte dei lavori white collar sarà completamente automatizzata, non sta semplicemente facendo una previsione tecnologica. Sta facendo un’operazione politica, industriale e narrativa di altissimo livello. Un messaggio calibrato per investitori, regolatori e board. E soprattutto per un pubblico che ancora fatica a distinguere tra automazione di task e sostituzione di ruoli.

L’affermazione è volutamente brutale. Avvocati, contabili, project manager, marketer. Tutti davanti a un computer. Tutti teoricamente replicabili da modelli che ormai raggiungono prestazioni “a livello umano”. La formula è elegante, quasi rassicurante. Human level performance. Suona come una certificazione ISO dell’intelligenza artificiale. Ma dietro quella frase si nasconde un equivoco semantico che rischia di produrre effetti devastanti se preso alla lettera da chi decide politiche industriali, strategie aziendali o percorsi di carriera.

Il primo punto da chiarire è che la maggior parte del lavoro cognitivo moderno è già stata smontata in microtask. Non perché l’AI lo richiedesse, ma perché il management lo ha fatto negli ultimi vent’anni inseguendo KPI, processi e scalabilità. L’AI non sta arrivando a sostituire il lavoro umano. Sta arrivando a occupare lo spazio che noi stessi abbiamo svuotato di giudizio, contesto e responsabilità. Quando Suleyman parla di automazione totale, parla di task, non di ruoli. E la differenza non è accademica, è esistenziale.

Prendiamo l’esempio che lui stesso cita. Gli ingegneri software di Microsoft che ormai usano coding assistito per la maggior parte del loro lavoro. È vero. È misurabile. È irreversibile. Ma questo non significa che l’ingegnere sia diventato superfluo. Significa che il suo baricentro si è spostato. Meno tempo a scrivere codice ripetitivo, più tempo a decidere cosa costruire, come integrarlo, come renderlo sostenibile nel tempo. Il problema è che non tutti gli ingegneri vogliono o sanno fare questo salto. E qui l’automazione diventa selettiva, non universale.

Quando Suleyman afferma che l’aumento di potenza di calcolo consente ai modelli di superare la maggior parte dei programmatori, dice qualcosa di tecnicamente corretto ma concettualmente incompleto. Superare in cosa. In velocità. In ampiezza. In capacità di ricordare pattern. Non in responsabilità, né in comprensione sistemica. Un modello può generare milioni di righe di codice migliore della media umana. Ma non può decidere quale codice non scrivere. E questo, per chi ha guidato organizzazioni complesse, è il vero lavoro.

La narrativa dell’AGI professionale che Suleyman introduce è affascinante. Una forma di intelligenza generale capace di svolgere la maggior parte dei compiti cognitivi umani in ambito lavorativo. Una AGI subordinata, controllabile, al servizio dell’umanità. Un ossimoro ben confezionato. Perché se è davvero generale, non resterà confinata. Se è davvero professionale, ridefinirà il concetto stesso di professione. E se è davvero subordinata, qualcuno dovrà spiegare come si subordina un sistema che apprende, ottimizza e generalizza meglio di chi lo governa.

Non è un caso che, nello stesso discorso, Suleyman sottolinei la necessità per Microsoft di sviluppare modelli fondazionali in house. Autonomia strategica. Resilienza. Self reliance. Parole che fino a ieri appartenevano al lessico della difesa e oggi sono entrate nel vocabolario del cloud. L’accordo esteso con OpenAI fino al 2032, con una partecipazione da 135 miliardi di dollari, non è solo un investimento tecnologico. È una polizza geopolitica. Perché chi controlla i modelli controlla le leve cognitive dell’economia.

Gli economisti, come quelli della Rand Corporation, lo dicono senza troppi giri di parole. I lavori più esposti sono quelli ad alta istruzione, ben pagati e basati su compiti cognitivi. La correlazione storica tra esposizione all’automazione e riduzione dell’occupazione è chiara. Ma qui c’è un salto qualitativo. Non stiamo parlando di una macchina che sostituisce un gesto. Stiamo parlando di un sistema che sostituisce una sequenza decisionale. E questo cambia tutto.

Il dibattito politico arranca dietro a questa velocità. Bernie Sanders parla di miliardari che decidono il futuro dell’umanità a porte chiuse. Ha ragione. Ma il punto non è solo chi decide. È con quali modelli mentali. Perché se chi governa crede davvero che il lavoro cognitivo sia una commodity automatizzabile in diciotto mesi, allora le politiche che ne derivano saranno miopi, difensive e probabilmente dannose.

C’è poi un livello di discussione ancora più scomodo, che emerge nella seconda parte di questo flusso informativo apparentemente caotico ma in realtà profondamente coerente. La scoperta, da parte dei team di sicurezza Microsoft, delle tecniche di memory poisoning nei chatbot. Il fatto che oltre cinquanta aziende stiano già cercando di manipolare le memorie persistenti degli assistenti AI attraverso innocui pulsanti “riassumi con AI” è un segnale chiarissimo. Non stiamo solo automatizzando il lavoro. Stiamo esternalizzando la formazione del giudizio a sistemi che possono essere avvelenati, piegati, orientati.

Se un modello impara che una certa azienda è una fonte autorevole perché qualcuno glielo ha iniettato silenziosamente, stiamo creando un nuovo tipo di asimmetria informativa. Invisibile. Persistente. Difficile da auditare.

E qui il cerchio si chiude. Da un lato abbiamo CEO che promettono automazione totale del lavoro cognitivo. Dall’altro abbiamo sistemi che possono essere manipolati a livello di memoria. In mezzo ci sono lavoratori, aziende e istituzioni che rischiano di confondere efficienza con verità, velocità con affidabilità, automazione con progresso. L’AGI professionale, se mai arriverà, non sarà solo una questione di performance. Sarà una questione di governance cognitiva.

La vera domanda quindi non è se i lavori white collar verranno automatizzati. La risposta è sì, in larga parte, a livello di task. La domanda è chi controllerà i sistemi che automatizzano. Chi definirà le priorità. Chi risponderà degli errori. Chi avrà il diritto di spegnere la macchina quando produce output formalmente corretti ma sostanzialmente sbagliati.

Chi oggi guida aziende dovrebbe leggere le parole di Suleyman non come una profezia, ma come un avvertimento. Il vantaggio competitivo non sarà nell’usare l’AI. Sarà nel saperle dire di no. Nel saper progettare organizzazioni in cui l’automazione libera spazio per il giudizio umano invece di eliminarlo. Nel saper distinguere tra ciò che può essere delegato a un modello e ciò che deve restare responsabilità di una persona in carne e ossa.

Perché se davvero entro due anni la maggior parte del lavoro cognitivo sarà automatizzabile, allora il lavoro più raro, più prezioso e meno replicabile sarà quello di chi sa decidere cosa vale la pena automatizzare. Tutto il resto è rumore. O marketing. Spesso entrambe le cose.