Nel mondo incerto dei Large Language Model, dove il confine tra genialità e delirio si gioca in pochi token, Google sgancia la bomba: un manuale di 68 pagine sul prompt engineering. Non è il solito PDF da policy interna. È la nuova Torah per chi maneggia IA come un alchimista contemporaneo, dove ogni parola può scatenare un miracolo… o un mostro.

La notizia completa (slides incluse) è qui: Google Prompt Engineering Guide

La guida si legge come un mix tra un protocollo militare e un manuale zen. Niente fuffa, tanta pratica. È pensata per chi costruisce prodotti seri, non per chi gioca a fare il “prompt whisperer” su LinkedIn. Dentro c’è una raccolta chirurgica di tecniche che, se usate bene, trasformano un semplice prompt in un flusso di pensiero algoritmico in grado di scrivere codice, analizzare dati, dialogare con API e persino fingersi umano — con una coerenza che alcuni politici si sognano.

Zero-shot, few-shot, ReAct, Tree of Thoughts: qui si entra nel deep prompting come nei diagrammi UML più tossici degli anni 2000. Il tono è chiaro: smettila di “provare”, inizia a progettare.

Uno dei punti più cinici — e onesti — della guida è il principio che dovrebbe stare incorniciato su ogni lavagna da CTO: prompt engineering è un processo iterativo, non una ricetta da copiare su StackOverflow. Cambia il modello, cambia il contesto, cambia il risultato. Non ci sono verità statiche, solo adattamento evolutivo.

La tecnica “Chain of Thought”, ad esempio, non è una trovata stilistica: è uno strumento per guidare la ragionevolezza. Serve a far “pensare” il modello step-by-step, evitando che salti a conclusioni come uno stagista sotto pressione. Ma se il task è più esplorativo, meglio ancora il “Tree of Thoughts”: invece di una sola strada, si biforcano i percorsi logici. L’IA fa brainstorming con sé stessa, e spesso trova soluzioni che l’umano non considererebbe mai (o che scarterebbe per pigrizia mentale).

La “step-back prompting” è da veri strateghi: chiedi prima una view generale, poi vai nel dettaglio. È un trucco che funziona anche nei board meeting. Se invece vuoi dare una forma al caos, vai di “system prompting”: struttura tutto, imposta regole, specifica output. JSON, YAML, XML… perfino CSV se sei in vena vintage.

Dietro ogni tecnica, c’è un principio fondante: il prompting non è solo una questione di creatività, è soprattutto design conversazionale, controllo del contesto e rigore logico. Ogni parola è una leva, ogni virgola una scelta architettonica.

Ma il pezzo più provocatorio è nei best practices. Google consiglia di documentare tutto: prompt version, config modello, output. Tradotto: tieni un changelog del tuo pensiero, come se stessi committando codice. Chi lavora su IA generativa in produzione sa che una modifica di una virgola può spostare il comportamento da “ottimo” a “totalmente inutile”.

E infine, l’invito a collaborare. Perché, anche se l’IA è solitaria per definizione, il prompt perfetto è frutto di testing incrociati, contaminazioni e guerre intestine tra developer, PM e data scientist.

Chi vuole dominare il gioco deve smettere di pensare all’IA come un genio nella lampada e iniziare a trattarla come un software distribuito a comportamento stocastico.

Per chi costruisce prodotti IA-driven, questa guida è un asset strategico. Per chi ancora pensa che scrivere “Act like a senior developer” basti per sostituire una squadra di ingegneri, sarà una doccia fredda.

Pronto a scrivere prompt come se stessi progettando un’architettura serverless? Oppure vuoi ancora chiedere a GPT-4 “scrivimi un saggio su Kant” come fosse un compito delle medie?