Hai mai chiesto a un idiota di pianificarti una vacanza? No? Bene. Google NotebookLM sì, lo ha fatto. Con stile, certo. Con linguaggio fluente, impeccabile. Peccato che ti fa perdere l’aereo, come è successo a Martin Peers. Data sbagliata. Di soli 24 ore. Roba da vacanza annullata o divorzio anticipato.

Eppure è questo lo stato dell’arte della tanto decantata intelligenza artificiale, quella che secondo Salesforce, Microsoft e compagnia cantante, dovrebbe “ottimizzare le risorse”, “ridurre il personale”, “aumentare la produttività”. Ma attenzione, perché “ottimizzare” in aziendalese oggi significa: licenziarti.

L’uso dell’AI nel business non è più un test. È un default mode. Il CEO di Anthropic, Dario Amodei, con serena spietatezza ha previsto che l’AI potrebbe spazzare via metà dei lavori da impiegato entry-level nei prossimi anni. Con la stessa naturalezza con cui si prevede la pioggia per il weekend. E poi ha aggiunto: “ma intanto cureremo il cancro.” Una citazione che sembra uscita da un distopico TED Talk scritto da ChatGPT in overdose da dati Bloomberg.

L’assurdo? Le stesse aziende che licenziano in nome dell’efficienza AI, iniziano a pentirsene. Klarna, il fintech svedese che aveva fatto scuola nel sostituire umani con algoritmi, si è svegliata con la sindrome del “cliente incazzato”. Il CEO ha ammesso che si erano spinti troppo oltre nel taglio dei costi. L’AI non basta. Soprattutto quando ti accorgi che non risponde al telefono, non capisce l’ironia e non gestisce bene una richiesta urgente con un tono passivo-aggressivo, come sa fare solo una receptionist di lungo corso.

Eppure il paradosso più inquietante è che l’AI sbaglia spesso—ma le sue decisioni vengono comunque prese per buone. Come se fosse infallibile per contratto. Google, Microsoft, Salesforce stanno tutti implementando agenti AI capaci di “agire al posto dell’utente”. Tradotto: agenti autonomi che prendono decisioni. Peccato che ogni tanto quelle decisioni portano a bug in codice mission-critical, a piani di volo errati o a e-mail di licenziamento inviate al dipendente sbagliato.

Nel frattempo, le aziende si aggrappano al mantra dell’efficienza. Licenziano con la scusa dell’AI anche quando il vero problema è il fallimento del loro modello di business. Business Insider ha appena tagliato il 21% del personale, invocando “il cambiamento nel modo in cui le persone consumano le notizie”. Ma guarda caso, hanno anche dichiarato di voler esplorare l’uso dell’intelligenza artificiale per “operare in modo più efficiente”. Che combinazione.

La verità? Non è l’AI che è efficiente. È solo più docile. Non sciopera, non si lamenta, non chiede ferie. Se sbaglia, nessuno la rimprovera: basta dire che è “in fase di miglioramento”. È il dipendente perfetto, se sei un CEO ossessionato dal margine operativo.

Ma torniamo alla questione cruciale: è davvero efficiente sostituire l’umano con una macchina imperfetta? È razionale spendere miliardi in modelli LLM energivori, mentre il pianeta brucia, per poi usarli per scrivere e-mail di customer service più stupide di un bot degli anni ’90?

Oppure è solo l’ennesima illusione tecnocratica, un culto della produttività con i piedi d’argilla e la testa nella nuvola (cloud, ovviamente)?

C’è una dissonanza cognitiva che aleggia come una minaccia: investiamo in AI come fosse la soluzione a tutto, anche quando palesemente non lo è. L’industria si comporta come un passeggero su un’auto a guida autonoma lanciata a 180 km/h, che però sbanda ogni cinque chilometri. E invece di tirare il freno a mano, ci limitiamo a installare nuovi sensori.

Forse dovremmo chiederci a chi conviene davvero questo processo. Perché l’AI non sostituirà solo i lavori entry-level. Sta già scalando le gerarchie. Coders, marketer, copywriter, project manager: tutti a rischio. E il paradosso è che a costruirne l’ascesa sono proprio coloro che potrebbero diventare superflui. “C’era una volta un middle manager che addestrò il suo sostituto neurale”. Non è una favola. È un pitch da venture capitalist.

Si parla tanto di “augmented intelligence”, come se la macchina fosse lì per potenziarci. Ma il risultato più frequente è una “diminished humanity”: meno empatia, meno intuizione, meno margine di errore umano, che spesso è l’unico spazio dove nasce la vera innovazione.

Una curiosità storica: la prima volta che un computer fece un errore fatale fu nel 1962, durante il lancio del razzo Mariner 1. Il bug? Un trattino mancante. Costo? 80 milioni di dollari. Oggi lo chiameremmo hallucination, e diremmo che la colpa è “dell’input ambiguo”. All’epoca si disse solo: “Human error.”

La differenza è sottile, ma fondamentale: ora gli errori della macchina sono colpa nostra, ma le sue decisioni restano insindacabili. È il nuovo dogma. Se ti licenzia l’AI, te lo meriti.

Benvenuti nella nuova era: dove l’efficienza è un pretesto, l’errore è sistemico e il progresso è un algoritmo che non sa quando parte il tuo volo.