Negli ultimi mesi abbiamo visto un’esplosione di progetti AI: assistenti aziendali, chatbot, co-pilot, sistemi di generazione automatica di contenuti. Tutti partono da un’idea simile: “collego un LLM, scrivo un prompt, e ottengo quello che mi serve”.
Poi arrivano le prime delusioni.
L’agente risponde in modo incoerente.
Il chatbot “non si ricorda” le interazioni precedenti.
Le risposte sono vaghe, piene di bias o eccessivamente accondiscendenti.
E allora si tende a dare la colpa al modello (“forse serve GPT-5, o un fine-tuning”), ma nella maggior parte dei casi non è un problema di modello. È un problema di contesto.
Il vero collo di bottiglia: il contesto
Come spiega Phil Schmid nel suo articolo “The New Skill in AI is Not Prompting, It’s Context Engineering”, il vero limite non è la capacità del modello, ma la qualità di ciò che gli fornisci prima che generi la risposta.
Il modello è come un motore potentissimo. Non importa quanto sia ben progettato: se non gli fornisci il giusto carburante, non ti porterà lontano.
Nell’AI, quel “carburante” è il contesto: regole, esempi e tutte quelle istruzioni di base che guidano il comportamento dell’agente, la memoria a breve termine data dalla cronologia delle risposte dell'utente e del modello nella conversazione attuale, così come quella a lungo termine, basata su conversazioni precedenti, che hanno permesso di memorizzare le preferenze apprese dall'utente e tutte le informazioni pregresse utili per un uso futuro. E ancora: le informazioni recuperate da fonti esterne (documenti, DB, API), i tool e le funzioni a cui il modello può accedere e la formattazione dell’input e dell’output.
Tutti questi elementi definiscono il perimetro cognitivo dell’agente.
Se mancano o sono gestiti male, anche il modello migliore fallirà.
Dal prompt-engineering al context-engineering
Il context-engineering è l’arte (e la disciplina) di costruire, aggiornare e fornire all’AI il contesto giusto, nel formato giusto, al momento giusto.
Rappresenta un’evoluzione necessaria del prompt-engineering, che invece si “limita” ai metodi per scrivere e organizzare le istruzioni da dare a un LLM per ottenere risultati ottimali.
In questo caso, non si tratta più di scrivere i prompt giusti, ma di progettare un sistema che costruisca dinamicamente il contesto, recuperando le informazioni rilevanti e filtrando ciò che non serve, con l’obiettivo di arricchire la memoria e guidare il modello verso la risposta corretta.
In pratica, il context-engineering è ciò che trasforma un modello in un agente intelligente, capace di ragionare, ricordare e agire in modo coerente.
Il compito principale del codice, quindi, non è capire come rispondere, ma raccogliere le informazioni di cui l'LLM ha bisogno per raggiungere il suo obiettivo.
RAG: dare conoscenza viva all’agente
Uno dei pilastri del context-engineering è la Retrieval-Augmented Generation (RAG).
Invece di chiedere al modello di basarsi sulla propria conoscenza intrinseca (i dati pubblici su cui si è addestrato), la RAG gli permette di recuperare in tempo reale le informazioni da fonti esterne: documentazione aziendale, database, policy interne, FAQ, knowledge base.
Facciamo un esempio. Quale dei miei prodotti a catalogo utilizzare per il lancio di una campagna in Cina? Per deciderlo, dovrò considerare varie informazioni di contesto, come trend di mercato e informazioni logistiche (dati su cui il modello è già addestrato), schede tecniche, storico ordini, budget disponibili, risultati di campagne precedenti, etc. (informazioni aziendali, esterne al modello). Con la RAG i dati del tuo business vengono potenziati dall’AI, pur restando protetti all’interno del perimetro aziendale.
A livello pratico, cosa significa usare la RAG per creare un’AI per la tua impresa?
Si parte da una domanda o un task da risolvere, cercando degli archivi aziendali le informazioni più pertinenti. Si passano quei frammenti al modello come contesto e, in tal modo, il modello genererà una risposta “aumentata” da quel contesto.
Il risultato?
L’agente diventa aggiornabile, affidabile e specifico per il tuo dominio, senza bisogno di rifare addestramenti costosi. In definitiva, con la RAG è possibile sviluppare applicazioni che utilizzano la Gen AI alimentata dai propri dati aziendali. Da ChatGPT, con le sue risposte generiche, basate su dati pubblici, passiamo a un modello che conosce e potenzia il core business dell’azienda.
Se vuoi spingerti oltre, puoi implementare un’Agentic RAG, dove l’agente stesso valuta se il contesto è sufficiente, riformula query, recupera nuovi dati, e aggiorna la memoria.
In altre parole: il contesto non è statico, ma parte attiva del ragionamento.
MCP: collegare strumenti e dati in modo intelligente
Il contesto non è solo conoscenza, è anche capacità di agire.
Qui entra in gioco il Model Context Protocol (MCP).
MCP è uno standard che permette agli agenti di collegarsi in modo sicuro e modulare a fonti di dati e strumenti esterni: database, API aziendali, sistemi di gestione documentale, CRM, o altri agenti.
Configurando il proprio MCP server, è possibile fornire i propri dati ad agenti e assistenti AI, per generare risposte sempre più precise o completare azioni sui propri sistemi.
Immaginiamo un agente che deve generare un report settimanale: con il MCP può recuperare i dati dal CRM, chiedere aggiornamenti al sistema ERP e inviare il risultato via e-mail, tutto senza che si debbano scrivere integrazioni personalizzate per ogni tool.
In un’architettura moderna, MCP agisce come una sorta di “porta universale”, simile a quella USB-C: proprio come questa consente a dispositivi diversi di collegarsi facilmente tra loro, un MCP server permette a un’AI di interfacciarsi contemporaneamente e in modo standard con più fonti dati e strumenti esterni.
Per fare un altro esempio, un agente può prenotare un viaggio per noi, in base alle nostre richieste, tramite MCP. Grazie un protocollo standard, infatti, sarà in grado di recuperare i dati di disponibilità e prezzo degli hotel sulla piattaforma di booking, collegandosi al relativo MCP server. Analogamente, potrà ottenere informazioni sull’itinerario più breve e hotel più vicino a un punto indicato, collegandosi all’MCP server di Google Maps. Infine, selezionerà e completerà la transazione tramite il metodo di pagamento preferito, inviando un riepilogo coi dettagli del viaggio via mail.
Il Model Context Protocol introduce un cambio di prospettiva radicale nel modo in cui le aziende potranno usare l’AI. Non ci si limiterà più a usare ChatGPT per ottenere informazioni basate sulla sua conoscenza intrinseca. Un'azienda che offre un qualsiasi servizio digitale, tramite il proprio MCP server, potrà consentire a qualsiasi LLM di utilizzare il proprio servizio, basandosi sui propri dati. Che si tratti di un sistema di gestione di un magazzino, di un’app di diagnostica per immagini o di una piattaforma per stipulare una polizza assicurativa, con MCP si può offrire a qualunque modello la capacità di fare le cose più disparate e che riflettono il business value dell’azienda.
Agenti AI: orchestratori del contesto
Un agente AI non è solo un modello che risponde: è un orchestratore di contesto.
Decide quando recuperare informazioni, quando chiamare un tool, quando aggiornare la memoria.
Ma perché un agente funzioni davvero, deve avere un contesto ben progettato (memoria + conoscenza + tool), un’infrastruttura dinamica per costruirlo e aggiornarlo (RAG, MCP) e una logica di priorità (quale informazione è più rilevante in ogni fase).
Senza tutto questo, l’agente perde coerenza, si confonde o diventa inutilmente costoso da eseguire.
Con un buon context-engineering, invece, può adattarsi, imparare e mantenere prestazioni costanti anche in ambienti complessi.
In sintesi: il contesto è il vero “fine-tuning”
Molti cercano di migliorare il modello.
Ma nella maggior parte dei casi, ciò che davvero serve è migliorare come costruisci il contesto attorno al modello.
Questo vale per ogni scenario: dal customer service, dove serve integrare cronologia e policy aggiornate, al marketing, dove l’AI deve adattarsi a brand tone e dati di mercato, fino alle applicazioni enterprise e alle piattaforme di servizi healthcare o fintech dove sicurezza, privacy e precisione dei dati sono vitali.
In definitiva, se il tuo progetto AI non funziona come speravi, non pensare subito a cambiare modello. Lavora sul contesto gli stai fornendo.