L'intelligenza artificiale agentica, o Agentic AI, sta ridefinendo le priorità operative delle aziende globali, spingendo i responsabili IT a ripensare le infrastrutture tecnologiche interne.
HCLTech, fornitore di servizi IT e consulenza con sede in India, sta collaborando con Google Cloud per supportare questa transizione: ad aprile 2025 le due società hanno lanciato oltre 200 agenti specifici per settore e funzione, con altrettanti in fase di sviluppo. L'obiettivo è accelerare l'adozione di sistemi automatizzati capaci di azioni correttive autonome, andando oltre l'automazione tradizionale e l'intelligenza artificiale generativa.
Piyush Saxena, Senior Vice President e responsabile globale della business unit Google di HCLTech, sottolinea come le aziende richiedano fondamenta solide, framework di sicurezza adeguati e compliance rigorosa prima di implementare agenti autonomi nei propri ambienti operativi. Un cliente del settore bancario, ad esempio, sta pianificando un modello operativo basato su centomila agenti distribuiti nei prossimi tre anni, evidenziando la portata degli investimenti in corso.
Tuttavia, dietro l'entusiasmo si nasconde una cautela diffusa tra i decision maker. L'infrastruttura IT deve essere sufficientemente robusta per sostenere l'integrazione di agenti multipli in ecosistemi multicloud, garantendo interoperabilità e orchestrazione. Saxena avverte che la preparazione operativa non è opzionale: senza processi IT maturi e pattern di progettazione AI scalabili, i casi d'uso agentici rischiano di non superare la fase sperimentale.
Il tema della sicurezza emerge come criticità centrale. Una vulnerabilità in un singolo agente può propagarsi attraverso intere reti di sistemi automatizzati, amplificando l'impatto in modo imprevedibile. Per mitigare questi rischi, HCLTech fa riferimento a framework consolidati come OWASP e MITRE OCCULT, implementando "agenti guardiani" che vigilano sul comportamento autonomo per garantire trasparenza etica e conformità normativa. La governance diventa così architrave dell'intero impianto.
La carenza di competenze rappresenta l'ostacolo principale per i Chief Information Officer, come evidenziato dallo studio Foundry State of the CIO 2025. La domanda si concentra su nuove professionalità tecniche come il prompt engineering e l'ingegneria dei processi, ma anche su abilità umane quali pensiero critico, supervisione strategica e ragionamento etico. La combinazione di competenze tecniche e soft skill diventa prerequisito per un percorso AI efficace, secondo Saxena.
HCLTech e Google Cloud rispondono con programmi di formazione e certificazione continui, sia interni che rivolti ai team dei clienti. La piattaforma Gemini di Google è al centro di questi percorsi didattici, progettati per trasmettere competenze sia tecniche che di business. L'iniziativa si rivolge prioritariamente ai settori finanziario, assicurativo, sanitario e delle scienze della vita, dove l'adozione dell'Agentic AI procede a ritmo sostenuto.
Tra gli agenti sviluppati figura l'Insight Agent per il settore manifatturiero, progettato per rilevamento predittivo e soluzioni correttive in ambienti multicloud. Questo approccio verticale mira a ridurre il lavoro manuale e migliorare la qualità decisionale in casi d'uso specifici, traducendo la sperimentazione in valore misurabile. Saxena anticipa che, oltre all'Agentic AI, l'Edge Inferencing emergerà come tendenza rilevante nel 2026.
La partnership tra HCLTech e Google Cloud si configura come risposta industriale a una transizione tecnologica che richiede non solo capacità computazionale, ma anche ripensamento organizzativo. I CIO devono definire strategie di adozione chiare e comunicare il blueprint dell'Agentic AI a tutti gli stakeholder per garantire visione trasparente ed esecuzione efficace.
Resta da verificare se l'enfasi sulla formazione e i framework di sicurezza saranno sufficienti a colmare il divario tra ambizioni tecnologiche e capacità organizzative reali. La proliferazione di agenti autonomi solleva interrogativi sulla governabilità di sistemi complessi, sulla responsabilità in caso di errori automatizzati e sull'effettivo controllo umano in processi sempre più delegati a logiche algoritmiche.
Il passaggio dall'automazione tradizionale all'autonomia decisionale richiede non solo infrastrutture adeguate, ma anche una riflessione etica e strategica che vada oltre le certificazioni e i corsi di aggiornamento.