OpenAI ha sollevato il velo su uno degli aspetti più tecnici e affascinanti degli agenti AI per la programmazione, pubblicando un'analisi dettagliata del funzionamento interno di Codex, il loro assistente di sviluppo basato su intelligenza artificiale. La rivelazione arriva attraverso un post di Bolin, ingegnere del team, che ha scelto di condividere pubblicamente l'architettura del cosiddetto "agent loop", il ciclo logico che orchestra le interazioni tra sviluppatore, modello AI e strumenti software. Una trasparenza che contrasta nettamente con l'opacità che caratterizza le interfacce web consumer come ChatGPT o Claude, e che conferma una tendenza: sia OpenAI che Anthropic rilasciano in open-source i client CLI per il coding su GitHub, permettendo agli sviluppatori di esaminare direttamente l'implementazione.
Al cuore di ogni agente AI si trova un ciclo iterativo che rappresenta il vero motore dell'intelligenza operativa. Il processo inizia quando l'agente riceve l'input dell'utente e costruisce un prompt testuale strutturato per il modello linguistico. Il modello genera quindi una risposta che può seguire due percorsi: produrre una risposta finale per l'utente oppure richiedere l'esecuzione di una tool call, come l'esecuzione di un comando shell o la lettura di un file. Nel secondo caso, l'agente esegue l'operazione richiesta, aggiunge l'output al prompt originale e interroga nuovamente il modello.
La documentazione pubblicata da Bolin rivela come Codex costruisce il prompt iniziale inviato alla Responses API di OpenAI, l'interfaccia che gestisce l'inferenza del modello. La struttura è articolata in componenti con ruoli gerarchici precisi: system, developer, user e assistant, ciascuno con una priorità assegnata che determina il peso delle istruzioni nel processo decisionale dell'AI.
Il campo tools risulta particolarmente interessante dal punto di vista architetturale: definisce l'intero arsenale di funzioni che il modello può invocare, includendo comandi shell, strumenti di pianificazione, capacità di ricerca web e qualsiasi strumento personalizzato fornito attraverso server Model Context Protocol (MCP). Quest'ultimo aspetto apre scenari di estensibilità significativi, permettendo agli sviluppatori di integrare toolchain personalizzate nel flusso di lavoro dell'agente.
Il campo input contiene una serie strutturata di elementi che descrivono il contesto operativo completo: i permessi della sandbox di esecuzione, istruzioni opzionali per gli sviluppatori, il contesto ambientale come la directory di lavoro corrente e, infine, il messaggio effettivo dell'utente. Questa stratificazione evidenzia come l'efficacia di un agente AI dipenda non solo dalla potenza del modello sottostante, ma dalla qualità dell'ingegneria del prompt e dalla ricchezza del contesto fornito.
La scelta di OpenAI e Anthropic di mantenere open-source i client CLI per il coding, mentre tengono chiuse le implementazioni delle interfacce web consumer, suggerisce una strategia deliberata: costruire fiducia nella comunità degli sviluppatori attraverso la trasparenza, riconoscendo che gli ingegneri che adottano questi strumenti nel workflow quotidiano necessitano di comprenderne il funzionamento interno. Una filosofia che potrebbe accelerare l'adozione degli agenti AI nello sviluppo professionale, riducendo la percezione di "scatola nera" che ancora circonda molte implementazioni di intelligenza artificiale generativa.