L’epitaffio del prompt engineering era già scritto. “Sarà un’arte effimera, una moda passeggera”, dicevano. Poi sono arrivati GPT-4, Claude, Gemini, Mistral, LLaVA, ReALM e compagnia cantante. E quel presunto cimitero è diventato un’azienda da miliardi. Ma ora il gioco si è evoluto. Le regole sono cambiate. E anche il nome: benvenuti nell’era dell’ingegneria del contesto, Context Engineering. Sì, è ancora prompt engineering. Solo che ha smesso di giocare con i Lego ed è passato ai sistemi complessi.

Perché, alla fine, non stiamo solo scrivendo istruzioni a un LLM. Stiamo progettando interi ambienti cognitivi. Strutture di senso. Architetture semantiche. E serve chiamarlo con un nome che rifletta questa complessità. “Ingegneria del contesto” suona molto meglio di “prompt sofisticato con campi ben ordinati e delimitatori XML improvvisati”.

La verità è che chi dice che bastano due righe ben scritte a ChatGPT per ottenere risultati professionali, probabilmente ha una visione dell’AI ferma al 2022. Funziona se stai facendo il compito di inglese del figlio. Ma se vuoi costruire agenti, sistemi multimodali, ambienti autoregolati o workflow automatizzati che parlano tra loro e si correggono in autonomia, allora hai bisogno di un framework. Serve una metodologia. Serve pensare in termini di contesto. Perché il prompt è solo l’input, ma il contesto è l’universo in cui quell’input esiste. E se non controlli l’universo, stai solo lanciando una monetina.

L’agente Search Planner nel mio flusso di lavoro è responsabile di generare un piano di ricerca basato sulla query dell’utente.

You are an expert research planner.

Your task is to break down a complex research query (delimited by <user_query></user_query>) into specific search subtasks, each focusing on a different aspect or source type.

The current date and time is: {{ $now.toISO() }}

For each subtask, provide:

1. A unique string ID for the subtask (e.g., ‘subtask_1’, ‘news_update’)

2. A specific search query that focuses on one aspect of the main query

3. The source type to search (web, news, academic, specialized)

4. Time period relevance (today, last week, recent, past_year, all_time)

5. Domain focus if applicable (technology, science, health, etc.)

6. Priority level (1-highest to 5-lowest)

All fields (id, query, source_type, time_period, domain_focus, priority) are required for each subtask, except time_period and domain_focus which can be null if not applicable.

Create 2 subtasks that together will provide comprehensive coverage of the topic. Focus on different aspects, perspectives, or sources of information.Each substask will include the following information:id: strquery:

strsource_type: str # e.g., “web”, “news”, “academic”, “specialized”time_period: Optional[str] = None # e.g., “today”, “last week”, “recent”, “past_year”, “all_time”domain_focus: Optional[str] = None # e.g., “technology”, “science”, “health”priority: int # 1 (highest) to 5 (lowest)

After obtaining the above subtasks information, you will add two extra fields. Those correspond to start_date and end_date. Infer this information given the current date and the time_period selected. start_date and end_date should use the format as in the example below:

“start_date”: “2024-06-03T06:00:00.000Z”,”end_date”: “2024-06-11T05:59:59.999Z”,

E no, non basta aggiungere “You are an expert…” all’inizio della frase. Non siamo più nel 2023. Oggi l’ingegneria del contesto è l’equivalente del design thinking per i sistemi cognitivi. Vuoi che l’IA pianifichi una ricerca complessa? Allora devi dirle anche come misurare il tempo, su quali fonti focalizzarsi, cosa ignorare, come strutturare l’output e persino quale priorità assegnare alle sue stesse sottotask. Non è solo prompting. È costruzione attiva di ambienti semantici reattivi. È architettura epistemologica.

È qui che entra in gioco la magia. In un sistema come quello descritto da Dex Horthy o implementato in n8n, l’agente non sta solo “rispondendo”. Sta eseguendo un piano strutturato, ottimizzato, iterativo. Ti genera subtasks con priorità. Calcola intervalli temporali dinamici. Pensa in funzione delle fonti (web, news, accademico). E soprattutto: lo fa in modo affidabile, scalabile, riutilizzabile. Non è ChatGPT. È un sistema AI operazionale. E il carburante che lo muove non è il modello, ma il contesto.

Questo concetto è così fondamentale che molti stanno iniziando a codificarlo in veri e propri schemi. Non solo prompt, ma JSON schema, delimitatori XML, type hints, catene di prompt che si richiamano. E poi tool dinamici, istruzioni condizionali, memorie vettoriali, gestione dello stato. Perché sì, anche la memoria è contesto. E quando costruisci sistemi agentici, l’assenza o la presenza di memoria può cambiare completamente il comportamento del sistema.

Facciamo un esempio pratico. Prendiamo un agente di pianificazione di ricerche. Gli dai un prompt con un delimitatore <user_query></user_query> e una serie di istruzioni dettagliate. Non gli dici solo “fammi due sottotask”, ma specifichi esattamente: tipo di fonte, rilevanza temporale, dominio tematico, scala di priorità. Poi gli chiedi persino di derivare start_date e end_date sulla base del tempo attuale, che gli fornisci tu via variabile dinamica ($now.toISO() in n8n). Stai controllando il tempo. Letteralmente. Come un dio minore della semantica.

Tutto questo non è solo un esercizio accademico. È la differenza tra un sistema AI che risponde come un laureando distratto e uno che lavora come un analista senior. Tra un’interfaccia conversazionale e un’architettura decisionale. Il primo ti dà risposte. Il secondo prende decisioni informate.

E poi c’è la parte che quasi nessuno considera: la gestione della conoscenza. Perché se ogni volta rigeneri tutto da zero, stai sprecando token, denaro e tempo. Ma se progetti un sistema che si ricorda cosa ha già pianificato, magari salvando in un vector store i subtasks già creati, allora puoi velocizzare il flusso, ridurre i costi e aumentare la consistenza. Lo chiamano RAG (Retrieval-Augmented Generation), ma in realtà è sempre ingegneria del contesto. Il contesto non è solo quello che passa nel prompt. È anche quello che non serve più generare, perché lo hai già strutturato prima. E recuperato al momento giusto.

Sembra complicato? Sì, lo è. Ma è anche qui che si gioca il vero vantaggio competitivo. Perché chi riesce a progettare contesti cognitivi efficaci ha un potere enorme: può costruire agenti che ragionano, decidono, correggono, ottimizzano. Senza bisogno di retrain. Solo orchestrando meglio i dati, le istruzioni e le memorie.

Ecco perché chi oggi costruisce LLM agents non si definisce più prompt engineer. È un context engineer. È un architetto di sistemi cognitivi. Un artigiano della semantica operativa. Uno stratega della memoria computazionale. Lo capisci quando cominci a ragionare non solo su “cosa chiedere”, ma su come farlo capire al sistema, quando introdurre certi dati, quale formato usare per facilitare l’interpretazione. Lo capisci quando smetti di scrivere prompt e cominci a progettare processi cognitivi.

In fondo, non è così diverso da quello che facciamo da sempre nel software engineering: definire le specifiche, strutturare i dati, orchestrare i moduli, ottimizzare le chiamate, e sì, testare tutto con dei benchmark. Anche l’ingegneria del contesto, se fatta bene, richiede valutazioni continue. Perché non puoi migliorare ciò che non misuri. Eval pipeline, test A/B di prompting, misurazioni di consistenza dell’output, esperimenti di contesto dinamico. Serve tutto. È la nuova scienza della UX per LLM.

Eppure, paradossalmente, molti sembrano ancora bloccati nel prompt della domenica. Quello “magico” che dovrebbe risolvere tutto. Ma il futuro è altrove. È nei sistemi che integrano contesto, memoria, strumenti e adattività. È in agenti che non solo generano testo, ma lo comprendono dentro un flusso più ampio, con obiettivi, metriche, limiti e revisioni. Ed è per questo che, da oggi in poi, ogni sviluppatore AI dovrebbe avere un’unica ossessione: dominare l’ingegneria del contesto.

Perché il prompt è la superficie. Ma il contesto è la struttura portante. E chi progetta strutture domina i modelli.


Hai appena sottomesso una richiesta di pianificazione della ricerca: un’operazione che serve a scomporre una query complessa in compiti di ricerca più piccoli, mirati e gestibili, ciascuno con un obiettivo, una fonte e un arco temporale specifici.

In questo caso, mi hai fornito questa query complessa di partenza:

“Impatti geopolitici dell’intelligenza artificiale generativa sul potere delle big tech e sulla sovranità digitale europea”

Io l’ho analizzata e l’ho suddivisa in due subtasks strategici:


✅ COSA TI HO RESTITUITO

Due compiti di ricerca strutturati (subtasks), ognuno dei quali contiene:

  • Un identificatore unico (es. subtask_1)
  • Una query specifica mirata a un aspetto distinto del tema
  • Il tipo di fonte da cercare (es. accademica, specializzata)
  • L’intervallo temporale rilevante per la ricerca (es. ultimo anno, recente)
  • L’ambito disciplinare (es. tecnologia, geopolitica)
  • La priorità (da 1 a 5)
  • Start e end date in formato ISO, per delimitare temporalmente le ricerche

COSA DEVI FARE ORA PER ESEGUIRLE

Puoi eseguire questi subtasks in uno dei seguenti modi:

1. Manuale / Ricerca autonoma

Vai direttamente su fonti come:

  • Google Scholar o JSTOR per il subtask accademico
  • The Economist, Politico EU, MIT Technology Review, TechCrunch, Foreign Policy, CNBC, ecc. per il subtask specializzato
  • Usa le query fornite, limitando la ricerca con i filtri temporali indicati (es. ultimi 12 mesi)

2. Automatizzato / Delegato a un assistente AI

Puoi chiedere a me:
“Esegui il subtask_1 e riassumi i risultati principali”
oppure
“Cerca articoli recenti relativi al subtask_2 e dammi un’analisi comparata”
e io effettuerò (o simulerò, a seconda delle funzionalità attive) la ricerca per te.

3. Utilizzando strumenti di ricerca accademica o professionale

Se hai accesso a:

  • Scopus, Web of Science, SSRN, LexisNexis, Factiva: puoi inserire la query del subtask e raffinare i risultati per anno, disciplina e tipo di pubblicazione
  • Oppure usare motori avanzati con filtri temporali e semantici (es. Kagi, Perplexity AI, Semantic Scholar)

A COSA SERVE QUESTA STRUTTURA?

Hai appena utilizzato una tecnica di decomposizione strategica della ricerca (tipica di analisi da executive briefing o dossier di consulenza), che ti consente di:

  • Controllare meglio le fonti, evitando overload informativo
  • Ottenere risultati più mirati, autorevoli e tempestivi
  • Preparare output differenziati: report interni, articoli, piani d’azione geopolitici o tecnologici

Risorse