Il tema degli agenti di intelligenza artificiale sta dominando le conversazioni tecnologiche del 2025, promettendo rivoluzioni nella produttività aziendale e personale. Tuttavia, dietro l'entusiasmo generalizzato si nascondono questioni fondamentali che meritano un'analisi approfondita. Le sfide legate alla governance, alla trasparenza e alla sicurezza di questi sistemi autonomi richiedono un approccio più ponderato di quanto il mercato attuale sembri suggerire.
La definizione di agente IA è apparentemente semplice: si tratta di sistemi automatizzati capaci di eseguire processi end-to-end, trasformando un input iniziale in un risultato finale senza intervento umano costante. Fabrizio Degni, ricercatore esperto di etica e governance dell'intelligenza artificiale, sottolinea come questi strumenti rappresentino "un'evoluzione interessante verso quella che ci aspettiamo essere la famosa AGI", ma avverte sulla necessità di un approccio cauto nell'implementazione.
"Dal punto di vista dei rischi, gli agenti devono essere considerati in modo ponderato. Semplificando, gli agenti sono bot che possono svolgere un processo in maniera autonoma. Un esempio è Manus AI, una piattaforma capace di utilizzare diversi tools per eseguire un'operazione". Un caso reale ha visto un utente ottenere un sito funzionante in 40-50 minuti, con il codice pronto per il caricamento su hosting.
Il paradosso della trasparenza artificiale
Potenzialmente, oggi un'azienda potrebbe "assumere" un agente IA che ricopra varie figure di una risorsa umana. "Ma c'è un problema" prosegue Degni. "Già adesso, ci ritroviamo a dialogare con delle intelligenze artificiali portatrici di limitazioni nette, come l'assenza di una coscienza". Un bene da un lato, un male dall'altro, perché questa "carenza" vuol dire togliere alle IA la necessaria etica che dovrebbero avere per essere davvero utili all'essere umano.
"Un aspetto particolarmente preoccupante emerge dall'analisi del modello o3 di OpenAI, che nonostante le capacità di ragionamento molto pubblicizzate, presenta il doppio del fattore di allucinazione rispetto ai modelli precedenti. Questo paradosso evidenzia come il progresso tecnologico non sia sempre lineare: modelli più "intelligenti" possono risultare meno affidabili in aspetti fondamentali come l'accuratezza delle informazioni.
La questione delle allucinazioni rappresenta un problema strutturale che non può essere risolto completamente. Recenti ricerche confermano che si tratta di una caratteristica intrinseca di questi sistemi, paragonabile a un tasso di errore che deve essere accettato e gestito. Questo implica la necessità costante di supervisione umana competente, capace di riconoscere e correggere gli output errati.
Nonostante i progressi apparenti, la questione della "black box" rimane irrisolta. I nuovi modelli come o3 di OpenAI mostrano il loro processo di ragionamento attraverso la funzione "thinking", permettendo agli utenti di osservare i passaggi logici e formulare obiezioni specifiche. Tuttavia, questa trasparenza potrebbe essere più apparente che reale. La durata del "ragionamento" varia significativamente, sollevando dubbi sulla sua autenticità: a volte l'IA "ragiona" per cinque minuti, altre volte per uno solo, producendo risultati simili.
L'orchestrazione come soluzione architettonica
Poi c'è DeepSeek, che ha sconvolto un po' il mercato. "La concorrenza accelera lo scenario e, in un certo senso, lo stravolge. L'IA è diventato un fattore centrale anche in Borsa. Da human-centered, l'intelligenza artificiale può seriamente influenzare le strategie aziendali".
Una tendenza emergente nel contesto della GenAI prevede l'utilizzo di architetture orchestrate, dove un agente principale funge da direttore d'orchestra, coordinando agenti specializzati per compiti specifici. Questo approccio permette di ottimizzare l'efficienza, utilizzando modelli smaller e meno costosi per attività specifiche, invece de richiedere sempre il modello più potente per ogni operazione. "Un modello di Nvidia in passato ha mostrato come gli agenti IA potessero comunicare tra di loro scambiandosi delle skill. Invece di una un modello general purpose, che potrebbe non svolgere in maniera il suo compito, possiamo utilizzare un agente specifico e specializzato".
L'orchestrazione offre anche vantaggi dal punto di vista della governance e della sicurezza. Concentrando i controlli sull'agente principale che gestisce input e output, le aziende possono applicare politiche di sicurezza più stringenti in un single point of control. Tuttavia, questo approccio aumenta paradossalmente l'opacità del sistema, rendendo ancora più difficile comprendere i processi interni.
Degni avverte che gli agenti sono "al momento qualcosa di prematuro" proprio per la mancanza di consapevolezza dei loro processi e limitazioni. La mancanza di principi etici by design rappresenta un altro nodo critico. A differenza dell'Europa, che con l'AI Act ha tentato di stabilire guardrail normativi, altri mercati hanno privilegiato la velocità di sviluppo rispetto alla regolamentazione preventiva. Questo ha creato un divario significativo nelle velocità di innovazione, ma anche nei livelli di protezione e responsabilità.