Le istituzioni finanziarie oggi devono bilanciare l'adozione dell'intelligenza artificiale agentica e standard di sicurezza decisamente rigorosi. In un settore dove l'errore non è un'opzione e le normative stringono sempre di più, i responsabili tecnologici delle banche e degli istituti di credito stanno trovando modi creativi per far lavorare gli agenti IA senza compromettere la fiducia dei clienti. La questione non è più se implementare questi strumenti, ma come farlo in modo intelligente e controllato.
Secondo una ricerca condotta da Gravitee, società specializzata nella gestione di API, il 70% delle aziende prevede di avere oltre quindici agenti AI attivi nelle proprie organizzazioni entro fine anno. Si stima che più di un milione di bot entreranno a far parte della forza lavoro globale. Un'ondata che investirà con particolare forza proprio il settore finanziario, dove i processi manuali rappresentano ancora una percentuale significativa delle operazioni quotidiane.
Joe Wilson, vicepresidente senior e CIO di CSG International, azienda che fornisce software per sistemi di supporto aziendale, sintetizza il dilemma con una metafora efficace: "Quando si tratta di AI, rischiamo la morte per mille tagli inflitti da moduli AI frammentati". Le problematiche legate all'accuratezza dei modelli linguistici e al controllo degli accessi minacciano la sicurezza, rendendo necessari approcci più ponderati. I dirigenti tecnologici devono procedere a ritmo sostenuto senza violare le migliori pratiche di sicurezza né finire nel cimitero dei progetti pilota mai completati.
La cautela è evidente nei numeri. Una ricerca del dicembre 2025 condotta dalla Harvard Business Review e sponsorizzata da Workato rivela che solo il 6% delle organizzazioni si fida completamente dell'AI per gestire processi aziendali dall'inizio alla fine in completa autonomia. Il restante 94% mantiene gli agenti AI ai margini, assegnandoli a compiti a basso rischio e sotto supervisione umana. Questa riluttanza non è priva di fondamento in un settore dove ogni transazione richiede tradizionalmente almeno due parti approvanti, secondo il principio del "maker and checker" che è alla base del funzionamento degli istituti finanziari.
Eppure i successi iniziali stanno emergendo. Block, la società di servizi finanziari dietro Square e Cash App, ha sviluppato un agente AI open source chiamato Goose, ora utilizzato da oltre 12.000 dipendenti. Secondo Angie Jones, responsabile delle relazioni con gli sviluppatori, i lavoratori riferiscono di risparmiare fino al 75% del tempo su attività comuni. L'agente viene impiegato trasversalmente in ogni funzione aziendale, sfruttando il protocollo MCP per consentire agli agenti AI di interagire con API, strumenti e sistemi di dati.
Charles Hearn, CTO di Alloy, una piattaforma specializzata in prevenzione di identità e frodi, prevede un aumento nell'utilizzo di agenti AI per automatizzare attività routinarie e precedentemente manuali. Compiti come la risoluzione di corrispondenze in liste di controllo, la revisione di documenti e la raccolta di informazioni di due diligence si prestano particolarmente all'automazione. Dan Shmitt, CIO di Salesforce, sottolinea che stiamo andando oltre l'assistenza passiva verso sistemi orchestrati e orientati ai risultati, dove gli agenti non si limitano a rispondere ma agiscono, collaborano e contribuiscono a produrre risultati concreti.
Il rapporto 2025 State of AI Automation in the Finance Office di Auditoria.AI, che ha intervistato oltre 250 professionisti della finanza, identifica i conti da riscuotere, l'estrazione di documenti e la gestione di caselle email sovraccariche come le principali funzioni manuali. L'interesse per tendenze tecnologiche emergenti come l'AI generativa e gli agenti autonomi supera ora quello per la RPA nell'automazione di tali compiti. Carl Froggett, CIO di Deep Instinct, azienda di cybersicurezza basata sul deep learning, spiega che gli agenti eccellono nell'aggregare dati da sistemi multipli, classificare e riassumere informazioni, e inoltrare le questioni solo quando serve il giudizio umano.
Shree Reddy, vicepresidente esecutivo e CIO della cooperativa di credito federale PenFed Credit Union, sta implementando la piattaforma Agentforce 360 di Salesforce per introdurre agenti AI che automatizzano processi e migliorano le esperienze di dipendenti e membri. Questi si concentrano su funzioni finanziarie essenziali come il rilevamento e risposta autonoma alle anomalie, il controllo qualità intelligente e l'elaborazione intelligente dei servizi. La cooperativa ha già registrato una riduzione del 10% nel tempo medio di gestione per i suoi agenti di supporto e una diminuzione del 30% delle spese operative utilizzando agenti intelligenti.
Queste capacità richiedono però governance rigorosa. Reddy condivide che hanno costruito guardrail come tracce di audit complete per ogni decisione assistita dall'AI, monitoraggio rigoroso della deriva del modello e dei bias, e capacità immediate di interruzione d'emergenza se vengono raggiunte determinate soglie di rischio legate a limiti chiaramente definiti di esposizione finanziaria. La qualità dei dati rappresenta una sfida fondamentale per settori come le cooperative di credito: una governance inadeguata porta a risultati inaffidabili, inaccettabili quando si tratta di finanza personale.
Prima che comportamenti agenziali veramente autonomi possano entrare negli ambienti finanziari e scalare attraverso diversi domini, servirà una combinazione di fattori. I CIO devono risolvere problemi relativi ai dati, supervisionare in sicurezza il ciclo di vita delle nuove implementazioni di agenti AI e garantire interoperabilità e orchestrazione, il tutto bilanciando l'elemento umano nel processo. Wilson raccomanda l'adozione di protocolli come ISO 27001 come punto di partenza per l'igiene della sicurezza organizzativa, ma suggerisce di spingersi oltre verso ISO 42001, un solido framework AI che le organizzazioni dovrebbero considerare per rafforzare la sicurezza nell'intera azienda.
Gli standard e protocolli aperti stanno emergendo come fondamentali per processi finanziari guidati da agenti. Reddy consiglia di implementare il protocollo MCP e Agent2Agent (A2A), orchestrazione indipendente dai fornitori e guardrail policy-as-code. Altri protocolli di pagamento in sviluppo potrebbero presto svolgere un ruolo nell'abilitare gli agenti AI a condurre transazioni autonome più sicure. Coinbase ha sviluppato x402, uno standard aperto per consentire agli agenti AI di effettuare pagamenti programmatici ai servizi web. Protocolli simili come l'Agentic Commerce Protocol, co-sviluppato da Stripe e OpenAI, e l'Universal Commerce Protocol, reso open source da Google e partner, mirano a potenziare il commercio agenziale con metodi transazionali standardizzati e sicuri.
L'approccio più prudente prevede agenti con capacità limitate. Wilson suggerisce di far fare meno a più agenti, concentrando ciascuno su compiti rigorosamente delimitati e specifici che richiedono solo un piccolo sottoinsieme di accesso ai dati. Questo si allinea con un approccio zero-trust, che garantisce un controllo più granulare sul flusso di informazioni riducendo l'esposizione dei dati. Froggett aggiunge che le istituzioni necessitano di framework che diano priorità all'auditabilità e all'accesso guidato da policy, con particolare attenzione alla governance dei modelli per sistemi agenziali e alla spiegabilità di ogni azione agenziale.
Nonostante ottenere un ritorno sull'investimento rimanga complesso, quasi l'80% dei dirigenti tecnologici senior prevede di aumentare l'utilizzo dell'AI nel 2026, secondo il sondaggio The 2026 Reveal Top Software Development Challenges. Il momentum sta crescendo anche in finanza: una ricerca Gartner ha scoperto che quasi il 60% delle funzioni finanziarie prevede di aumentare gli investimenti in AI di almeno il 10% nei prossimi due anni. Quando gli agenti AI passeranno dal recupero all'azione, il ROI diventerà più chiaro, traducendosi in miglioramenti misurabili in termini di efficienza operativa, riduzione dei tempi di ciclo e gestione di compiti senza necessità di continui interventi umani.
La visione di PenFed è che la tecnologia responsabilmente applicata possa favorire il progresso aziendale, con il ROI dagli agenti AI che si traduce in interazioni cliente più personalizzate, maggiore produttività ed efficienza operativa. Il valore creato viene restituito alla comunità attraverso tariffe migliori e servizi potenziati, sostenendo la missione delle cooperative di credito. Wilson vede nei benefici futuri la possibilità per i CIO di ottenere analisi quasi in tempo reale del proprio ecosistema interno, riducendo i rischi normativi e creando una funzione di conformità vivente e dinamica che accorcia i cicli di raccolta delle evidenze e alleggerisce gli oneri amministrativi.