Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Perché il tuo progetto AI fallirà se non gli dai il giusto contesto
Business
Immagine di Guadagnare il doppio o lavorare in remoto? La risposta non è ovvia Guadagnare il doppio o lavorare in remoto? La risposta non �...
Immagine di IA 2025: tutto quello che (non) è cambiato IA 2025: tutto quello che (non) è cambiato...

Perché il tuo progetto AI fallirà se non gli dai il giusto contesto

Il successo dell'IA dipende dal context-engineering. Integrando dati e strumenti (RAG/MCP), i modelli diventano agenti aziendali precisi, aggiornati e capaci di agire in modo coerente.

Avatar di Davide De Sio

a cura di Davide De Sio

Head of Software Engineering Eleva

Pubblicato il 22/12/2025 alle 13:51

L'articolo in un minuto

  • Il vero limite dei progetti AI non è il modello utilizzato, ma la qualità del contesto fornito: memoria, informazioni esterne, tool e formattazione definiscono il perimetro cognitivo dell'agente
  • Il context-engineering rappresenta l'evoluzione del prompt-engineering, progettando sistemi che costruiscono dinamicamente il contesto attraverso tecniche come RAG per recuperare dati aziendali in tempo reale
  • Il Model Context Protocol (MCP) permette agli agenti di collegarsi a fonti dati e strumenti esterni in modo standard, trasformando l'AI da semplice chatbot a orchestratore intelligente capace di agire sui sistemi aziendali

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Negli ultimi mesi abbiamo visto un’esplosione di progetti AI: assistenti aziendali, chatbot, co-pilot, sistemi di generazione automatica di contenuti. Tutti partono da un’idea simile: “collego un LLM, scrivo un prompt, e ottengo quello che mi serve”.

Poi arrivano le prime delusioni.
L’agente risponde in modo incoerente.
Il chatbot “non si ricorda” le interazioni precedenti.
Le risposte sono vaghe, piene di bias o eccessivamente accondiscendenti.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

E allora si tende a dare la colpa al modello (“forse serve GPT-5, o un fine-tuning”), ma nella maggior parte dei casi non è un problema di modello. È un problema di contesto.

Il vero collo di bottiglia: il contesto

Come spiega Phil Schmid nel suo articolo “The New Skill in AI is Not Prompting, It’s Context Engineering”, il vero limite non è la capacità del modello, ma la qualità di ciò che gli fornisci prima che generi la risposta.

Il modello è come un motore potentissimo. Non importa quanto sia ben progettato: se non gli fornisci il giusto carburante, non ti porterà lontano.

Nell’AI, quel “carburante” è il contesto: regole, esempi e tutte quelle istruzioni di base che guidano il comportamento dell’agente, la memoria a breve termine data dalla cronologia delle risposte dell'utente e del modello nella conversazione attuale, così come quella a lungo termine, basata su conversazioni precedenti, che hanno permesso di memorizzare le preferenze apprese dall'utente e tutte le informazioni pregresse utili per un uso futuro. E ancora: le informazioni recuperate da fonti esterne (documenti, DB, API), i tool e le funzioni a cui il modello può accedere e la formattazione dell’input e dell’output.

Tutti questi elementi definiscono il perimetro cognitivo dell’agente.
Se mancano o sono gestiti male, anche il modello migliore fallirà.

Dal prompt-engineering al context-engineering

Il context-engineering è l’arte (e la disciplina) di costruire, aggiornare e fornire all’AI il contesto giusto, nel formato giusto, al momento giusto.

Rappresenta un’evoluzione necessaria del prompt-engineering, che invece si “limita” ai metodi per scrivere e organizzare le istruzioni da dare a un LLM per ottenere risultati ottimali. 

In questo caso, non si tratta più di scrivere i prompt giusti, ma di progettare un sistema che costruisca dinamicamente il contesto, recuperando le informazioni rilevanti e filtrando ciò che non serve, con l’obiettivo di arricchire la memoria e guidare il modello verso la risposta corretta.

In pratica, il context-engineering è ciò che trasforma un modello in un agente intelligente, capace di ragionare, ricordare e agire in modo coerente.

Il compito principale del codice, quindi, non è capire come rispondere, ma raccogliere le informazioni di cui l'LLM ha bisogno per raggiungere il suo obiettivo.

RAG: dare conoscenza viva all’agente

Uno dei pilastri del context-engineering è la Retrieval-Augmented Generation (RAG).

Invece di chiedere al modello di basarsi sulla propria conoscenza intrinseca (i dati pubblici su cui si è addestrato), la RAG gli permette di recuperare in tempo reale le informazioni da fonti esterne: documentazione aziendale, database, policy interne, FAQ, knowledge base. 

Facciamo un esempio. Quale dei miei prodotti a catalogo utilizzare per il lancio di una campagna in Cina? Per deciderlo, dovrò considerare varie informazioni di contesto, come trend di mercato e informazioni logistiche (dati su cui il modello è già addestrato), schede tecniche, storico ordini, budget disponibili, risultati di campagne precedenti, etc. (informazioni aziendali, esterne al modello). Con la RAG i dati del tuo business vengono potenziati dall’AI, pur restando protetti all’interno del perimetro aziendale.

A livello pratico, cosa significa usare la RAG per creare un’AI per la tua impresa?

Si parte da una domanda o un task da risolvere, cercando degli archivi aziendali le informazioni più pertinenti. Si passano quei frammenti al modello come contesto e, in tal modo, il modello genererà una risposta “aumentata” da quel contesto.

Il risultato?
L’agente diventa aggiornabile, affidabile e specifico per il tuo dominio, senza bisogno di rifare addestramenti costosi. In definitiva, con la RAG è possibile sviluppare applicazioni che utilizzano la Gen AI alimentata dai propri dati aziendali. Da ChatGPT, con le sue risposte generiche, basate su dati pubblici, passiamo a un modello che conosce e potenzia il core business dell’azienda. 

Se vuoi spingerti oltre, puoi implementare un’Agentic RAG, dove l’agente stesso valuta se il contesto è sufficiente, riformula query, recupera nuovi dati, e aggiorna la memoria.

In altre parole: il contesto non è statico, ma parte attiva del ragionamento.

MCP: collegare strumenti e dati in modo intelligente

Il contesto non è solo conoscenza, è anche capacità di agire.
Qui entra in gioco il Model Context Protocol (MCP).

MCP è uno standard che permette agli agenti di collegarsi in modo sicuro e modulare a fonti di dati e strumenti esterni: database, API aziendali, sistemi di gestione documentale, CRM, o altri agenti.

Configurando il proprio MCP server, è possibile fornire i propri dati ad agenti e assistenti AI, per generare risposte sempre più precise o completare azioni sui propri sistemi.

Immaginiamo un agente che deve generare un report settimanale: con il MCP può recuperare i dati dal CRM, chiedere aggiornamenti al sistema ERP e inviare il risultato via e-mail, tutto senza che si debbano scrivere integrazioni personalizzate per ogni tool.

In un’architettura moderna, MCP agisce come una sorta di “porta universale”, simile a quella USB-C: proprio come questa consente a dispositivi diversi di collegarsi facilmente tra loro, un MCP server permette a un’AI di interfacciarsi contemporaneamente e in modo standard con più fonti dati e strumenti esterni.

Per fare un altro esempio, un agente può prenotare un viaggio per noi, in base alle nostre richieste, tramite MCP. Grazie un protocollo standard, infatti, sarà in grado di recuperare i dati di disponibilità e prezzo degli hotel sulla piattaforma di booking, collegandosi al relativo MCP server. Analogamente, potrà ottenere informazioni sull’itinerario più breve e hotel più vicino a un punto indicato, collegandosi all’MCP server di Google Maps. Infine, selezionerà e completerà la transazione tramite il metodo di pagamento preferito, inviando un riepilogo coi dettagli del viaggio via mail.

Il Model Context Protocol introduce un cambio di prospettiva radicale nel modo in cui le aziende potranno usare l’AI. Non ci si limiterà più a usare ChatGPT per ottenere informazioni basate sulla sua conoscenza intrinseca. Un'azienda che offre un qualsiasi servizio digitale, tramite il proprio MCP server, potrà consentire a qualsiasi LLM di utilizzare il proprio servizio, basandosi sui propri dati. Che si tratti di un sistema di gestione di un magazzino, di un’app di diagnostica per immagini o di una piattaforma per stipulare una polizza assicurativa, con MCP si può offrire a qualunque modello la capacità di fare le cose più disparate e che riflettono il business value dell’azienda.

Agenti AI: orchestratori del contesto

Un agente AI non è solo un modello che risponde: è un orchestratore di contesto.
Decide quando recuperare informazioni, quando chiamare un tool, quando aggiornare la memoria.

Ma perché un agente funzioni davvero, deve avere un contesto ben progettato (memoria + conoscenza + tool), un’infrastruttura dinamica per costruirlo e aggiornarlo (RAG, MCP) e una logica di priorità (quale informazione è più rilevante in ogni fase).

Senza tutto questo, l’agente perde coerenza, si confonde o diventa inutilmente costoso da eseguire.
Con un buon context-engineering, invece, può adattarsi, imparare e mantenere prestazioni costanti anche in ambienti complessi.

In sintesi: il contesto è il vero “fine-tuning”

Molti cercano di migliorare il modello.
Ma nella maggior parte dei casi, ciò che davvero serve è migliorare come costruisci il contesto attorno al modello.

Questo vale per ogni scenario: dal customer service, dove serve integrare cronologia e policy aggiornate, al marketing, dove l’AI deve adattarsi a brand tone e dati di mercato, fino alle applicazioni enterprise e alle piattaforme di servizi healthcare o fintech dove sicurezza, privacy e precisione dei dati sono vitali.

In definitiva, se il tuo progetto AI non funziona come speravi, non pensare subito a cambiare modello. Lavora sul contesto gli stai fornendo.

Le notizie più lette

#1
Il nuovo Apple Vision Pro è un flop senza pari
2

Smartphone

Il nuovo Apple Vision Pro è un flop senza pari

#2
Un gioco di Star Wars vale oro a causa del jailbreak di PS5, ce lo avete?
4

Videogioco

Un gioco di Star Wars vale oro a causa del jailbreak di PS5, ce lo avete?

#3
Allarme Fortinet, 10.000 firewall vulnerabili e a rischio
1

Hardware

Allarme Fortinet, 10.000 firewall vulnerabili e a rischio

#4
Il Trump Phone viene rinviato di nuovo con sorpresa di nessuno!
1

Smartphone

Il Trump Phone viene rinviato di nuovo con sorpresa di nessuno!

#5
Tesla ha perso il primato! BYD è in testa nel mercato delle elettriche

Automotive

Tesla ha perso il primato! BYD è in testa nel mercato delle elettriche

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

IA 2025: tutto quello che (non) è cambiato
1

Business

IA 2025: tutto quello che (non) è cambiato

Di Antonino Caffo
Guadagnare il doppio o lavorare in remoto? La risposta non è ovvia
2

Business

Guadagnare il doppio o lavorare in remoto? La risposta non è ovvia

Di Valerio Porcu
L'Europa riscrive il futuro, decine di startup miliardarie nascono negli atenei

Business

L'Europa riscrive il futuro, decine di startup miliardarie nascono negli atenei

Di Valerio Porcu
OpenAI ricopre d'oro i suoi dipendenti, la media è 1,5 milioni di dollari
1

Business

OpenAI ricopre d'oro i suoi dipendenti, la media è 1,5 milioni di dollari

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.