Chi pensa che i chatbot generativi siano solo giocattoli digitali dovrebbe rimettersi a vendere corsi di leadership su LinkedIn e lasciare il tavolo a chi prende decisioni che contano davvero. Il problema non è l’intelligenza artificiale in sé, ma il modo in cui le aziende stanno divorando contenuti generati da LLM come se fossero verità rivelate. Benvenuti nel regno del “botshit”, la miscela perfetta di allucinazioni dei chatbot e ignoranza manageriale, che trasforma dati spazzatura in decisioni disastrose.

Botshit è un termine crudo, eppure elegante nella sua brutalità concettuale. Non parliamo di bug, ma di un veleno epistemico che nasce quando i modelli linguistici generano risposte plausibili ma false, e qualche manager annoiato le usa senza pensarci due volte. È la degenerazione perfetta del business moderno: ridurre a zero il costo del “bullshit” umano grazie alla velocità della macchina, ma senza ridurre di un centesimo il costo della verità.

ChatGPT, Bard e compagnia non sanno nulla. Ripetiamolo con calma, perché molti faticano a capirlo: non sanno nulla. Sono ingegneri della probabilità travestiti da intellettuali digitali. La loro funzione è predire quale parola viene dopo l’altra, non distinguere il vero dal falso. Sono pappagalli stocastici, come li definisce Bender, e come tutti i pappagalli possono risultare affascinanti finché non ti accorgi che stanno solo ripetendo quello che hanno imparato, mescolato a un po’ di fantasia.

Le allucinazioni dei chatbot sono il loro biglietto da visita più pericoloso. Non sono errori casuali, sono il sottoprodotto naturale di un sistema che non ha un’idea di cosa significhi “verità”. A volte questi sistemi tirano fuori la risposta giusta, ma è un colpo di fortuna, non un atto di conoscenza. E qui entra in scena il botshit: nel momento in cui un umano pigro o entusiasta trasforma quella risposta allucinata in azione, il danno è fatto. È così che un avvocato americano si è presentato in tribunale con citazioni inventate da ChatGPT e si è beccato una multa, o che un documento generato da Bard ha accusato società innocenti di scandali inesistenti.

La cosa più affascinante, e insieme deprimente, è che il botshit prospera meglio dove la pressione a sembrare competenti è più alta. Un CEO che si sente in dovere di avere sempre un’opinione, un manager che non sopporta dire “non lo so”, un analista che deve riempire una slide in fretta: tutti candidati perfetti a ingoiare botshit e a spacciare per oro digitale quello che è poco più che immondizia probabilistica.

I rischi epistemici dei chatbot sono il vero campo di battaglia. Le aziende che li ignorano stanno letteralmente costruendo decisioni strategiche su castelli di sabbia. Parliamo di due variabili fondamentali: quanto è importante la veridicità di una risposta e quanto è facile verificarla. Sembra banale, ma osservando come le imprese usano i chatbot ti rendi conto che molti C-level non hanno nemmeno pensato a impostare un sistema di verifica. È come usare un oracolo di Delfi per fare previsioni finanziarie: a volte funziona, ma non sai perché, e soprattutto non sai quando smetterà di funzionare.

Autenticare, automatizzare, aumentare, delegare: quattro modi di usare un chatbot, quattro rischi diversi. Il botshit cambia forma a seconda del contesto. L’ignoranza è il pericolo maggiore quando si usa il chatbot per “aumentare” la creatività, perché si rischia di scartare informazioni utili o di fidarsi troppo di quelle sbagliate. La miscalibrazione è letale nei contesti ad alta posta in gioco, quando si attribuisce alle risposte un peso maggiore o minore del dovuto. La routinizzazione è il sonnifero perfetto per chi delega alle macchine processi verificabili ma cruciali, finendo per “addormentarsi al volante”. Il black box è la trappola più elegante: delegare in autonomia compiti complessi a sistemi che non si capiscono, sperando che il loro alone di autorevolezza basti a garantire verità.

Il fascino del botshit, però, è anche il motivo per cui continuerà a diffondersi. È utile, rapido, spesso persuasivo. Piace perché ci racconta quello che vogliamo sentire, con un linguaggio lucido e patinato. È l’effetto Einstein applicato alle macchine: se un chatbot con un nome altisonante e un brand da miliardi di dollari lo dice, allora dev’essere vero. È la stessa logica che ha reso le frasi pseudo-profonde dei guru motivazionali tanto redditizie, solo che qui l’effetto scala in modo esponenziale.

Chi governa aziende non può permettersi di essere ingenuo. Gestire i rischi epistemici dei chatbot non è un dettaglio tecnico, è una questione di sopravvivenza strategica. Le decisioni basate su botshit non crollano subito, ma scavano lentamente la credibilità, minano la fiducia degli stakeholder, distruggono la reputazione. Un errore creativo su un brainstorming è tollerabile, un errore su un piano di acquisizione o su un’analisi regolatoria può costare milioni.

Il paradosso più grottesco è che stiamo trattando output di modelli predittivi come se fossero conoscenza consolidata, quando la verità è che dovremmo considerarli poco più che “rumore intelligente”. La conoscenza è sempre stata cara e faticosa da produrre, e lo sarà sempre. Il botshit ci illude che non sia più necessario pagare quel prezzo. Ma ogni CEO esperto sa che le scorciatoie cognitive sono il modo più veloce per rovinare un business.

La domanda vera non è se useremo i chatbot, ma come li useremo. Se sei un leader tecnologico e pensi di cavartela con linee guida generiche e qualche corso di prompt engineering, sei già spacciato. Serve un approccio sistemico, una cultura organizzativa che tratti i chatbot per quello che sono: strumenti potenti, ma pericolosi se usati senza consapevolezza critica. Bisogna costruire guardrail tecnologici, processi di verifica, e soprattutto insegnare alle persone il lusso di dire “non lo so” quando non ci sono basi solide per sapere.

Perché in fondo il botshit non è colpa della macchina. È colpa di chi ha deciso che l’apparenza di competenza vale più della verità. E in un’epoca in cui la reputazione è la moneta più preziosa, continuare a ingoiare botshit sperando che nessuno se ne accorga è la strategia più rischiosa di tutte.