Gli agenti non sono più concetti accademici ma strumenti operativi concreti. Ecco allora che i Chief Information Officer si trovano a orchestrare team ibridi composti da umani e sistemi autonomi, una responsabilità che fino a pochi anni fa sarebbe sembrata fantascienza. Eppure, nonostante questa evoluzione nelle mansioni quotidiane, l'immagine pubblica della figura del CIO fatica a staccarsi dall'idea tradizionale di semplice gestore della tecnologia.
I numeri raccontano una diffusione rapida e pervasiva. Secondo il report Pulse of Agentic AI 2026 di Dynatrace, oltre un quarto delle organizzazioni globali ha già avviato undici o più progetti basati su agenti intelligenti, con applicazioni che spaziano dalle operazioni IT al DevOps, dall'ingegneria del software al supporto clienti. Circa la metà di queste iniziative rimane nella fase di proof of concept o pilota, ma una fetta crescente di aziende sta già implementando questi sistemi su larga scala.
La questione cruciale per i CIO diventa quindi comprendere quando delegare attività specifiche agli agenti AI. Joe Locandro, CIO globale di Rimini Street, identifica il punto ottimale nei processi ripetitivi che attraversano sistemi multipli: "Automatizzare operazioni che richiedono l'estrazione di dati da diverse fonti e l'eliminazione di passaggi manuali permette di semplificare i flussi di lavoro e ridurre significativamente lo sforzo necessario per completare compiti di routine". Debo Dutta, Chief AI Officer di Nutanix, aggiunge che gli agenti eccellono particolarmente nei lavori ripetitivi che richiedono molto contesto aziendale e nelle ricerche approfondite, dove raccogliere informazioni frammentate altrimenti richiederebbe uno sforzo umano considerevole.
Hrishikesh Pippadipally, CIO dell'azienda contabile Wiss, ha sviluppato un approccio metodico basato su tre criteri fondamentali. Innanzitutto, l'attività deve essere chiaramente delimitata con input, output e criteri di successo ben definiti. In secondo luogo, il profilo di rischio deve essere gestibile: le mansioni consultive o preparatorie sono più adatte rispetto a quelle che comportano decisioni finali o responsabilità normative. Infine, bisogna valutare se il compito beneficia maggiormente di velocità, scala o riconoscimento di pattern piuttosto che di intuizione umana, giudizio o contesto relazionale.
La misurazione delle prestazioni rappresenta un'altra sfida complessa. Le metriche IT tradizionali catturano solo una parte del quadro complessivo, e concentrarsi esclusivamente sui risparmi economici significa perdere dimensioni critiche del valore generato. Pippadipally preferisce valutare una combinazione di riduzione dei tempi di ciclo, volume di output, tassi di errore e capacità umana liberata per lavori a più alto valore aggiunto. Max Stukalenko, responsabile IT di MacPaw, suggerisce che una soglia ragionevole di tempo risparmiato dovrebbe aggirarsi intorno al 50% per caso d'uso, mentre Oleksii Reshetniak di Intellias mette in guardia dal dichiarare un ROI chiaro troppo presto, considerando le prime settimane come fase di calibrazione piuttosto che prova definitiva.
Thomas Serban von Davier, ricercatore in intelligenza artificiale presso il Software Engineering Institute della Carnegie Mellon, offre una prospettiva tecnica illuminante: "La maggior parte degli agenti oggi sono large language models potenziati con accesso a strumenti, sistemi o dati tramite API e permessi controllati. Un'adozione efficace dipende meno dalla tecnologia in sé e più da strategie chiare di governance e accesso sviluppate in collaborazione con i team IT".
Le difficoltà principali che i CIO devono affrontare sono molteplici e interconnesse. La proliferazione di strumenti AI rende più complesso mantenere una coerenza architettonica e una supervisione uniforme nell'intera organizzazione, aumentando sia la complessità che il rischio. Locandro sottolinea come la velocità con cui tecnologia e software evolvono renda particolarmente ardua la selezione delle piattaforme e degli strumenti corretti, con la sfida aggiuntiva di decidere cosa debba essere integrato nelle soluzioni esistenti e cosa invece sviluppato su misura.
Governance, responsabilità e fiducia sono al centro delle conversazioni con i direttori informatici. Teymuraz Bezhashvyly, CTO di hidden hint, una società svizzera di analisi retail, evidenzia come definire confini chiari per le azioni consentite agli agenti, assegnare la proprietà dei risultati, integrarli in architetture legacy e gestire le aspettative rispetto alle capacità effettive richieda un'attenzione meticolosa. Di conseguenza, il ruolo del CIO si sta evolvendo verso una supervisione più forte della governance AI, della gestione del rischio e dell'allineamento interfunzionale.
La resistenza al cambiamento organizzativo rappresenta un ostacolo tanto significativo quanto le sfide tecniche. Anton Vodolazkyi, CTO di Obrio, descrive un approccio pragmatico: iniziare con l'AI per attività di ricerca o esplorazione di soluzioni alternative, intervenendo manualmente solo quando necessario. Stukalenko conferma che workshop sull'intelligenza artificiale e approcci di gamification funzionano discretamente, ma cambiare il modo in cui le persone lavorano richiede tempo e sforzo considerevole.
L'esperienza sul campo ha insegnato lezioni preziose. Dutta raccomanda una pianificazione accurata, specialmente per quanto riguarda i diversi tipi di agenti, i loro obiettivi e i metodi per valutarne l'efficacia. La flessibilità architettonica emerge come elemento cruciale: progettare sistemi aziendali che supportino fornitori multipli di agenti aiuta a evitare un'eccessiva dipendenza da un singolo provider e facilita l'adattamento mentre capacità, modelli di pricing e requisiti normativi continuano a evolversi.
Bezhashvyly sottolinea che la responsabilità non può essere un ripensamento: proprietà chiara e governance devono essere stabilite precocemente, e gli agenti intelligenti dovrebbero essere trattati più come membri junior del team che come sostituti autonomi. I cicli di feedback e il monitoraggio devono essere implementati sin dal primo giorno, e qualcuno deve sempre possedere l'output finale indipendentemente da quanto lavoro abbia svolto un agente. Guardando indietro, confessa, coinvolgerebbe i team di sicurezza e legali più precocemente ed eviterebbe di sovraingegnerizzare le implementazioni iniziali prima che i pattern d'uso reali siano ben compresi.
Pippadipally riassume efficacemente la dimensione umana della trasformazione: se dovesse ricominciare, investirebbe prima nella gestione del cambiamento e nella formazione, particolarmente su come i manager supervisionano il lavoro guidato dall'AI. Il passaggio da considerare gli agenti come semplici applicazioni a trattarli come parte integrante della forza lavoro richiede un cambiamento di mentalità altrettanto fondamentale della tecnologia sottostante, ridefinendo non solo i processi ma l'essenza stessa della leadership tecnologica contemporanea.