Quando il vicepresidente di Microsoft, Jeff Hulse, dice ai suoi 400 ingegneri software che l’obiettivo è far scrivere all’AI la metà del codice, non è un consiglio. È un preavviso. Una di quelle frasi da incorniciare tra le “ultime parole famose” prima che il silenzio si faccia pesante. Poi, giusto per ribadire il concetto, Microsoft licenzia più di una dozzina di quei programmatori, proprio sotto il suo naso. E non per inefficienza, incompetenza o tagli casuali. No, qui si respira l’aroma nitido e metallico dell’automazione che si prende ciò che è suo.

La keyword è intelligenza artificiale generativa, le secondarie sono automazione del codice e licenziamenti tecnologici. La danza macabra tra questi tre concetti non è più uno scenario futuro da convegni o TED Talk. È il presente. E il codice, ironicamente, non lo scrive più l’uomo.

Microsoft, che non è certo un dilettante del settore, è probabilmente la più aggressiva nell’ibridare forza lavoro e modelli LLM come quelli di OpenAI. Da tempo gli sviluppatori interni utilizzano strumenti come GitHub Copilot, e le percentuali sono cresciute: dal 20-30% di codice generato dall’AI fino alla nuova soglia target del 50%. Mezzo codice. Metà cervello. La domanda vera è: metà forza lavoro?

La risposta è arrivata martedì, con la delicatezza di una bastonata: 6.000 licenziamenti globali, con una falce ben affilata che ha tagliato trasversalmente, ma ha colpito gli ingegneri con un gusto particolare. Sembra quasi un test A/B su scala umana: vediamo quanto può reggere un reparto tecnico se lo allegeriamo del peso umano e lo carichiamo di silicio intelligente. Se il codice gira, chi se ne frega di chi l’ha scritto.

C’è qualcosa di perversamente elegante in questa manovra. L’AI, addestrata su miliardi di righe di codice prodotto da milioni di sviluppatori, adesso li sostituisce, uno sprint alla volta. Una sorta di auto-cannibalismo organizzato, ma con margini operativi migliori.

Il cinismo qui non è un effetto collaterale, è un requisito. Perché se sei un’azienda che punta su una produttività massimizzata, il pensiero che l’AI scriva codice più velocemente, senza pause caffè, sindacati o richieste di stock option, è semplicemente irresistibile. E se puoi ridurre la tua spesa in R&D tagliando carne e ossa in favore di prompt e token, perché non dovresti?

L’ipocrisia, però, rimane nel retrogusto. Quegli stessi team che hanno contribuito a integrare e addestrare gli strumenti basati su AI sono ora quelli che pagano il prezzo più alto. È come se il fornaio, dopo aver insegnato al robot a impastare, venisse licenziato perché il pane viene comunque bene. E magari anche gluten-free.

Nessuno dice che l’AI sia un male. Sia chiaro. Il problema è come viene usata. Non per amplificare, ma per sostituire. Il codice generato da un modello non è magia. È pattern matching iper-evoluto, senza comprensione semantica vera, ma con una confidenza che spesso supera quella degli junior developer. Ma, e qui è il punto, senza la consapevolezza degli errori.

Il che ci porta a un altro dettaglio squisitamente ironico: chi controllerà il codice generato da AI se chi scriveva codice non c’è più? Chi sarà il garante della qualità, della sicurezza, dell’etica? Un altro LLM? Una catena di montaggio algoritmica dove ogni livello controlla il precedente, ma nessuno capisce davvero cosa sta succedendo?

E poi ci lamentiamo del software buggato, dei leak, dei data breach. O della startup che impazzisce perché il suo stack AI ha deciso di refattorizzare tutto alle 3 di notte.

Microsoft, in questo scenario, non è la cattiva. È solo la più avanzata tra i pionieri del nuovo ordine. Amazon, Google, persino le fintech: tutti osservano, prendono appunti, e si preparano a seguire. La trasformazione non è più culturale, è strutturale. Il lavoro dell’ingegnere software, una volta rifugio dorato della classe media tecnica, è sempre più simile a quello del copywriter: soggetto a delega automatica.

Il che è paradossale: più si parla di carenza di sviluppatori, più gli sviluppatori vengono licenziati. La nuova narrativa è che mancano “architetti”, “prompt engineer”, “AI integrator”, non “code monkey”. Il paradosso è che, nel frattempo, nessuno dice chi risolverà i bug prodotti da GPT-4. Forse GPT-5?

A un bar di Seattle, raccontano che un ingegnere licenziato da Microsoft abbia brindato con questa frase: “Prima scrivevo codice per un’AI che imparava. Ora l’AI scrive codice per un manager che non capisce cosa fa.”

Ecco il vero scroll magnetico: se metà del codice è scritto dall’intelligenza artificiale, e metà degli ingegneri è fuori dall’azienda, chi sta veramente guidando l’innovazione? Oppure… si è solo attivato l’autopilota?