Working with AI: Measuring the Applicability of Generative AI to Occupations
Il 21 gennaio 2026 non passerà alla storia per una legge, una crisi o un fallimento clamoroso, ma per qualcosa di più destabilizzante: l’idea, ormai pronunciabile a voce alta, che l’ingegneria del software stia diventando un problema di supervisione e non più di produzione. L’intelligenza artificiale generativa non sta bussando alla porta del lavoro cognitivo. È già entrata, ha acceso la luce e sta guardando l’orologio.
Quando Dario Amodei dice che entro dodici mesi i modelli eseguiranno quasi tutte le attività di ingegneria del software, non sta facendo marketing. Sta descrivendo una traiettoria che molti CTO vedono ogni mattina aprendo l’IDE. Claude Code non è interessante perché scrive codice. È interessante perché tratta un’intera base di codice come un oggetto coerente, un sistema di ragionamento unico, qualcosa che un essere umano riesce a fare solo dopo anni di immersione, caffeina e riunioni inutili. Qui non siamo davanti a un copilota. Siamo davanti a un sostituto silenzioso di una funzione mentale complessa, quella che per decenni ha giustificato stipendi, status e narrative eroiche sul programmatore solitario.
Il mercato, che non ha mai avuto particolare rispetto per il romanticismo tecnologico, ha reagito di conseguenza. Il valore delle aziende SaaS scende, i multipli si comprimono e improvvisamente il codice umano smette di essere percepito come un asset raro. Quando una piattaforma complessa può essere replicata a un costo marginale vicino allo zero, il pricing basato sulle ore uomo diventa una barzelletta raccontata male. La produttività quintuplicata non è un premio. È un segnale di allarme. Ogni volta che un CEO cancella un piano di assunzioni perché un modello lavora meglio di un team junior, il mercato del lavoro prende nota anche se finge di non farlo.
Il punto interessante non è la fine del lavoro, perché quella è una favola che la tecnologia racconta da due secoli senza mai mantenerla. Il punto è la ridefinizione brutale di cosa sia lavoro ad alto valore in un’epoca di intelligenza artificiale generativa. Scrivere codice non è più automaticamente sinonimo di creare valore. Coordinare sistemi, valutare decisioni, assumersi responsabilità lo è ancora. Per ora. Il ruolo dell’ingegnere si sposta verso l’alto, verso una funzione di controllo sistemico, ma il numero di persone necessarie per svolgerla diminuisce. Qui nasce la vertigine. Più astrazione, meno posti.
Microsoft, con l’eleganza glaciale che la contraddistingue quando parla di esseri umani come dataset, ha analizzato duecentomila conversazioni reali per mappare l’esposizione del lavoro alla logica automatizzata. Quaranta professioni classificate come vulnerabili non sono un elenco. Sono una fotografia. Traduttori e storici in cima non sorprendono nessuno che abbia capito come funzionano i modelli linguistici. Più inquietante è vedere insegnanti e bibliotecari scivolare nella zona di rischio, perché significa che la trasmissione strutturata del sapere sta diventando contendibile da sistemi che non hanno vocazione educativa, ma ottimizzazione statistica.
La Generazione Z e i professionisti laureati, cresciuti con la promessa implicita che la conoscenza formale fosse una polizza assicurativa contro l’automazione, scoprono di essere stati assicurati contro il rischio sbagliato. Il problema non è che l’intelligenza artificiale sappia spiegare concetti complessi. Il problema è che lo faccia senza chiedere ferie, senza burnout e senza contratti collettivi. Nelle vendite e nell’assistenza clienti, milioni di lavoratori competono già con sistemi che non dimenticano una procedura e non alzano mai la voce. Il linguaggio, che era il grande vantaggio competitivo umano, diventa improvvisamente un campo neutro.
Ci sono isole di apparente sicurezza. I lavori fisici specializzati resistono perché richiedono attrezzature, contesto e una presenza nel mondo reale che i modelli non hanno. Per ora. La storia insegna che ciò che oggi è protetto dall’inerzia domani diventa vulnerabile per innovazione laterale. Nessuno investe in draghe autonome perché non è sexy. Poi qualcuno lo farà, e il discorso cambierà di colpo. La tecnologia non rispetta le categorie morali. Rispetta solo le funzioni replicabili.
In questo scenario entra OpenAI con agenti vocali integrati nei flussi di lavoro di ServiceNow. Dettaglio apparentemente tecnico, ma strategicamente esplosivo. Quando l’intelligenza artificiale non è più un tool separato ma una presenza costante nei sistemi di ticketing, approvazione e gestione operativa, il confine tra lavoro umano e lavoro automatizzato si dissolve. Non c’è più un momento in cui decidi di usare l’AI. È sempre lì, come l’elettricità. La domanda non è se la usi, ma cosa resta di te quando la usi sempre.
Beloga, con la sua promessa di indirizzare l’intelligenza artificiale verso fonti specifiche scelte dai lavoratori, sembra offrire una via di controllo. In realtà segnala un’altra trasformazione profonda. Il valore non sta più nell’elaborazione, ma nella selezione delle fonti. Chi decide cosa l’AI deve leggere decide cosa l’AI penserà. È un potere sottile, più vicino all’editoria che all’ingegneria, e non è detto che le organizzazioni siano culturalmente pronte a riconoscerlo.
Il discorso pubblico continua a ripetere che questi strumenti supporteranno i lavoratori. È una frase tecnicamente vera e politicamente rassicurante. Nella pratica, la pianificazione del budget aziendale tende a favorire l’efficienza del software rispetto alla stabilità del libro paga. Non per cattiveria, ma per logica contabile. L’algoritmo non protesta, non sciopera e non compare in una call sindacale. Usare i dati degli utenti per prevedere il declino delle loro professioni è freddo, sì, ma anche tremendamente coerente con il capitalismo informazionale che abbiamo costruito pezzo per pezzo.
Resta il tema che nessun modello ama affrontare. Il giudizio. L’etica. La responsabilità. Tutte parole che compaiono spesso nei panel e raramente nei budget. Nessun algoritmo oggi è in grado di sostituire davvero il tutoraggio personale, la comprensione del contesto umano, la capacità di dire no quando dire sì sarebbe più efficiente. Queste competenze non sono facilmente automatizzabili, ma nemmeno facilmente scalabili. Non crescono con la potenza di calcolo. Crescono con l’esperienza, il conflitto e l’errore.
Il paradosso dell’intelligenza artificiale generativa è che rende evidente ciò che abbiamo sempre saputo ma preferito ignorare. Gran parte del lavoro cognitivo era ripetitivo, standardizzabile e ottimizzabile. Ora che qualcuno lo ha fatto davvero, restiamo a guardare il riflesso nello schermo e ci chiediamo cosa renda il lavoro umano qualcosa di più di una funzione. La risposta non è nostalgica e non è rassicurante. Sta nel modo in cui scegliamo di usare, governare e limitare sistemi che non hanno alcun interesse per il significato, ma solo per il risultato.
Il codice non è più sacro. Il lavoro nemmeno. Chi guida aziende e tecnologie farebbe bene a smettere di fingere sorpresa e iniziare a progettare il dopo, con lucidità e una dose salutare di cinismo. Perché l’intelligenza artificiale non ci sta rubando il lavoro. Sta togliendo le scuse.