Seattle, maggio 2025. L’aria è satura di entusiasmo artificiale, cariche elettriche da keynote e presentazioni PowerPoint sfornate come biscotti caldi dalla fabbrica del capitalismo tecnologico. Satya Nadella è appena salito sul palco del Build Developer Conference, sorriso da CEO seriale, giacca stirata, voce pacata. Ma appena il tempo di pronunciare qualche frase da manuale sul futuro brillante dell’AI, e una voce rompe l’incantesimo: “Free Palestine!”.La scena dura pochi istanti. Ma è sufficiente per incrinare il vetro levigato della narrazione aziendale. Il disturbatore non è un provocatore qualunque, ma Joe Lopez, ingegnere firmware con quattro anni di esperienza nei sistemi hardware Azure. Uno di casa. Uno che fino a ieri era “una risorsa”. Oggi, invece, è diventato un problema.

Non è solo, e soprattutto non è un caso isolato. C’è una faglia che si allarga ogni giorno sotto i piedi di Microsoft, Google e compagnia bella: il dissenso interno, alimentato dal sangue versato a migliaia di chilometri di distanza ma ospitato nei rack dei loro data center.

Joe Lopez, pochi minuti dopo essere stato portato via dalla security con l’aria mesta che si riserva a chi rompe le regole della rappresentazione, invia una mail a migliaia di colleghi. Non un rant anarchico, ma un’autopsia morale dettagliata. Perché sì, Azure — il cuore cloud dell’impero Microsoft — è finito sotto accusa per complicità con l’apparato militare israeliano. E no, le risposte aziendali non convincono più nemmeno chi le scrive.

Parlare oggi di Azure senza toccare Palestina, sorveglianza massiva e uso militare dell’AI è come discutere di armi da fuoco ignorando il concetto di proiettile.

Nel blog post con cui Microsoft ha tentato di sterilizzare la polemica, si legge che un audit interno (e un’entità esterna rimasta, convenientemente, anonima) non ha trovato prove di uso offensivo della tecnologia. Nella stessa dichiarazione, però, si ammette candidamente che al Ministero della Difesa israeliano è stato garantito “accesso speciale” alla tecnologia, oltre i termini standard. Accesso speciale. Due parole che nella cultura digitale contemporanea suonano come “autorizzazione ad agire senza vincoli”.

Nel frattempo, fuori dai palchi e dai blog post, la macchina si muove. Una macchina fatta di riconoscimento vocale, traduzioni in tempo reale, reti neurali addestrate a distinguere “minacce” da “vite umane”. Un’arma asimmetrica vestita da piattaforma cloud.

Nessun colpo di scena, purtroppo. Sapevamo già tutto. Chiunque segua anche marginalmente la geopolitica tecnologica sa che il binomio “AI + Difesa” è diventato il nuovo standard industriale. Eppure, ciò che fa male non è tanto la complicità in sé — ormai considerata inevitabile nel mondo cloud-first — quanto la reazione anestetizzata dei vertici aziendali. Satya Nadella, Mustafa Suleyman, Brad Smith: una trinità laica che parla di etica mentre vende i mattoni per costruire il panopticon.

Eppure, la crepa è aperta. E grida.

Il movimento “No Azure for Apartheid”, nato da dentro Microsoft, si sta espandendo. Include ex dipendenti, attivisti, ingegneri che fino a ieri compilavano driver e oggi chiedono conto del ruolo che la loro tecnologia ha nel sostenere un sistema di sorveglianza e oppressione. Non è solo un problema di immagine — anche se la brand reputation oggi è la valuta più volatile di tutte — è una questione di struttura.

Perché se sei un colosso del cloud e continui a vendere storage, machine learning, edge computing e visione artificiale a governi accusati di crimini di guerra, allora non sei un “partner tecnologico neutrale”. Sei parte integrante della filiera bellica.

E qui la domanda si fa tossica: qual è il limite etico di un’azienda da mille miliardi di dollari quando i suoi servizi sono software-defined, remotizzati e astratti in layer virtuali? La risposta implicita è: non c’è. O meglio: il limite è dettato dalla soglia di rumore mediatico che riesci a gestire con comunicati preconfezionati.

Il dissenso di Joe Lopez è un promemoria scomodo: non basta dichiarare neutralità quando i tuoi server elaborano targeting per droni o profilazione di massa. Non basta un audit se non c’è trasparenza. Non basta dire “non lo sapevamo” quando sei letteralmente la piattaforma su cui gira tutto.

C’è qualcosa di profondamente simbolico nel fatto che la protesta sia avvenuta sul palco di Build. Costruire. Ma cosa stiamo costruendo, davvero?

Un mondo dove l’AI automatizza non solo il lavoro, ma anche la guerra?

Un’infrastruttura dove la sorveglianza è un servizio opzionale a pagamento?

Un’etica aziendale che si attiva solo quando tocca l’azionariato?

Il cinismo, in questo caso, è solo buon senso con un grado in più di lucidità. Nessuna grande tech company è davvero innocente. Ma c’è una differenza sostanziale tra la complicità passiva e la partecipazione attiva. Tra ospitare dati e fornire strumenti per usarli contro civili.

La domanda che Joe Lopez pone nella sua email — “è il mio lavoro a uccidere bambini?” — non è una provocazione ideologica. È una frattura ontologica. Perché il tecnocrate etico, il developer idealista, l’ingegnere che voleva solo “fare cose che funzionano bene” si ritrova improvvisamente a fare i conti con l’effetto collaterale più devastante della rivoluzione digitale: l’indifferenza strutturale.

Una curiosità da bar, per chiudere il cerchio: nel 2007, Microsoft ritirò un progetto in Cina perché la censura governativa era considerata incompatibile con i “valori dell’azienda”. Oggi, nel 2025, quella stessa azienda fornisce AI conversazionale, reti neurali e infrastruttura cloud a uno dei teatri di guerra più documentati al mondo.

Ma tranquilli: tutto è conforme ai termini di servizio.