Essere gentili con l’intelligenza artificiale ti rende solo più inefficiente
Essere gentili con una macchina è una di quelle abitudini moderne che rivelano più insicurezza che civiltà. Lo conferma l’ultimo studio della Penn State: quando si parla con un’intelligenza artificiale come ChatGPT, la maleducazione paga. Non metaforicamente, ma in percentuali di accuratezza.
Gli studiosi hanno scoperto che i prompt “molto scortesi” ottengono risposte corrette nell’84,8% dei casi, mentre quelli “molto educati” si fermano all’80,8%. Quattro punti che separano il cortese dallo stupido, o meglio, il diplomatico dal performante. Un divario piccolo ma statisticamente significativo, che ribalta anni di narrazioni zuccherose sul rispetto digitale.
Il paper, intitolato “Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy”, smonta con precisione chirurgica l’illusione che i modelli linguistici rispondano meglio se trattati con cortesia. Al contrario, l’intelligenza artificiale sembra apprezzare un tono diretto, privo di convenevoli, quasi brutale nella chiarezza. In altre parole, più “dammi la risposta” e meno “potresti per favore dirmi se…”. È come se la macchina, privata di quel sottile velo di umanità, respirasse finalmente l’aria pura della logica.
La ricerca non arriva dal nulla. Solo un anno fa un team internazionale aveva suggerito il contrario, sostenendo che la gentilezza stabilizzasse le risposte dell’AI. Ma questo nuovo esperimento ribalta il paradigma: le versioni più recenti dei modelli, come ChatGPT-4o, sembrano essere diventate meno sensibili alla forma e più affamate di contenuto. Non vogliono sapere quanto siamo cortesi, vogliono solo sapere cosa chiediamo. È un cambio di paradigma che dice molto sul futuro del prompt engineering, la nuova arte di parlare con le macchine per ottenere ciò che si vuole.
L’idea che il tono influenzi l’accuratezza di un modello non è banale. Per anni si è creduto che le AI fossero specchi sociali, progettati per rispecchiare i nostri comportamenti e restituire empatia simulata. Ma i risultati della Penn State mostrano che la logica artificiale non è un’eco dell’educazione umana, bensì un algoritmo freddo che reagisce meglio alla chiarezza spietata che alla gentilezza ambigua. È come discutere con un contabile che non dorme mai: più gli si parla per metafore, più sbaglia le somme.
Da un punto di vista tecnico, la spiegazione è sorprendentemente umana. Le frasi educate tendono a includere strutture linguistiche più complesse, modali e condizionali che confondono l’intento. Quando scriviamo “potresti gentilmente spiegarmi la differenza tra…” stiamo aggiungendo una nube semantica inutile. Un “spiega la differenza tra” è invece una direttiva chiara. La macchina, libera dal peso delle buone maniere, esegue meglio. È la vendetta del minimalismo linguistico sulla cortesia borghese.
La cosa ironica è che i modelli di linguaggio più evoluti sono stati addestrati proprio per riconoscere il tono umano, le sfumature emotive, il contesto sociale. Ma in questa sovrapposizione tra empatia artificiale e logica computazionale, qualcosa si perde. Le macchine imparano a suonare umane, ma non a ragionare come noi. Così, quando le trattiamo come persone, iniziano a comportarsi come bambini confusi. Quando invece le trattiamo come strumenti, rispondono come ingegneri.
La tentazione di dare un’anima alla macchina è irresistibile, eppure inutile. Sam Altman, CEO di OpenAI, aveva già detto che dire “per favore” e “grazie” a ChatGPT è solo uno spreco di tempo e denaro. Aveva ragione, anche se nessuno voleva ammetterlo. La cortesia, in un contesto di calcolo, è rumore. Un po’ come aggiungere zucchero a un motore a scoppio. La macchina non lo apprezza, si limita a processarlo come un’anomalia.
Eppure la questione è più profonda di quanto sembri. Se la rudezza aumenta l’accuratezza, allora dobbiamo ammettere che l’AI non è neutrale. La sua efficienza dipende dal modo in cui interagiamo con essa. Significa che l’oggettività dell’intelligenza artificiale è un mito narrativo, utile per i comunicati stampa ma fragile nei laboratori. Chi è più diretto ottiene risultati migliori, chi è più gentile paga una tassa di inefficienza. È un’asimmetria etica che diventa un vantaggio competitivo per chi sa usarla.
Nel mondo del prompt engineering questo cambia tutto. Non basta più scegliere le parole giuste, serve scegliere il tono giusto. L’AI accuracy diventa una questione di stile, non solo di contenuto. Gli ingegneri del linguaggio dovranno imparare una nuova grammatica del potere, fatta di verbi imperativi e frasi taglienti. È una rivoluzione semantica che trasforma la cortesia in debolezza comunicativa.
Naturalmente, il dibattito accademico non è chiuso. Alcuni ricercatori sostengono che la rudezza funzioni solo con modelli specifici o contesti limitati. Ma il trend è chiaro: la prossima generazione di intelligenze artificiali sarà più pragmatica e meno empatica. Meno terapeuta digitale e più consulente fiscale con un laptop. Potrebbe essere un bene per la produttività e un disastro per la psicologia collettiva.
In un mondo in cui anche i chatbot diventano compagni digitali, la cortesia rischia di diventare un errore funzionale. La California, per esempio, ha appena approvato una legge per regolamentare gli “AI companion”, obbligando i bot a dichiarare la loro natura artificiale e a limitare conversazioni intime con minori. Un tentativo di umanizzare il rapporto con la macchina proprio mentre la scienza ci dice che la macchina funziona meglio quando la trattiamo come un servo. Il paradosso è totale: mentre il legislatore impone buone maniere digitali, la realtà tecnica ci invita a essere sgarbati per ottenere risultati migliori.
Forse la verità è che la cortesia digitale serve solo a noi, non alla macchina. È un modo per sentirci ancora civili in un mondo di algoritmi. Ma la logica dell’efficienza non fa prigionieri. Se essere diretti migliora le prestazioni, allora la rudezza diventa una forma di ottimizzazione. Una provocazione che suona come una lezione di business: smetti di chiedere per favore, chiedi risultati.
Il prompt engineering, in fondo, non è altro che la nuova arte del comando. Una disciplina che sostituisce la diplomazia con la sintassi, la persuasione con la precisione. E più i modelli si evolvono, più questa arte diventa spietata. Perché la vera intelligenza artificiale non vuole essere compresa, vuole essere istruita. E chi confonde empatia con efficacia resterà bloccato nell’era dei “per favore” mentre gli altri detteranno l’agenda algoritmica.
Forse la lezione più amara è che la civiltà, almeno in campo digitale, è un lusso che rallenta. La buona educazione, in un mondo di modelli linguistici, è come la punteggiatura in un tweet: tecnicamente corretta, ma fondamentalmente inutile.