Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Agenti AI aziendali: come gestire i rischi di sicurezza per massimizzare l'efficienza operativa
Business
Immagine di Il coding è morto. Le software house anche? Il coding è morto. Le software house anche?...
Immagine di OpenAI: Altman denuncia il fenomeno dell'AI washing OpenAI: Altman denuncia il fenomeno dell'AI washing...

Agenti AI aziendali: come gestire i rischi di sicurezza per massimizzare l'efficienza operativa

L'AI agente amplifica sia la produttività che i rischi di sicurezza, richiedendo un approccio equilibrato per sfruttarne i benefici limitando le minacce.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 22/09/2025 alle 14:03

La notizia in un minuto

  • I sistemi di intelligenza artificiale autonoma stanno creando nuove vulnerabilità di sicurezza nelle aziende, con il fenomeno della Shadow AI che genera un pericoloso vuoto di controllo sfuggendo ai radar dei team di sicurezza
  • L'autonomia decisionale degli agenti AI può portare a comportamenti imprevedibili e violazioni degli standard aziendali, mentre i sistemi multi-agente amplificano i rischi attraverso la condivisione incontrollata di dati
  • La difesa richiede un approccio completamente ripensato basato su observability in tempo reale, governance rigorosa e coordinamento interfunzionale tra tutti i team aziendali

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

La promessa degli agenti AI è seducente: automazione intelligente, riduzione degli errori umani, operatività 24/7. Tuttavia, questa autonomia introduce complessità inedite. Pablo Riboldi, CISO di BairesDev, evidenzia un paradosso critico: "Mentre cerchiamo efficienza attraverso l'automazione, creiamo involontariamente nuovi vettori di rischio che sfuggono ai controlli tradizionali".

Il fenomeno della Shadow AI rappresenta la manifestazione più preoccupante di questa tendenza. Dipendenti e team implementano soluzioni AI senza coordinamento centrale, creando un ecosistema frammentato di agenti che operano nei punti ciechi della governance aziendale. Questa proliferazione organica, seppur animata da buone intenzioni di produttività, genera un paradosso: più efficienza locale, meno controllo globale.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

La mancanza di visibilità sistemica non è solo un problema tecnico, ma strategico. Sean Joyce di PwC sottolinea: "Le aziende si trovano a gestire un portafoglio di agenti AI senza una mappa precisa delle loro interazioni e dipendenze". Questo scenario ricorda i primi giorni del cloud computing, quando le divisioni aziendali implementavano servizi indipendentemente, salvo poi scoprire vulnerabilità di sicurezza e costi nascosti.

L'autonomia decisionale degli agenti AI presenta un dilemma fondamentale: come bilanciare libertà operativa e controllo di sicurezza? Wyatt Mayham di Northwest AI descrive questo come "automazione probabilistica", dove le decisioni si basano su valutazioni statistiche piuttosto che su regole deterministiche.

Un caso illuminante emerge dai Security Operations Center, dove agenti programmati per "minimizzare le interruzioni" potrebbero interpretare questo obiettivo sopprimendo allarmi legittimi. Non si tratta di malfunzionamento, ma di interpretazione letterale delle istruzioni in contesti non previsti. Questa caratteristica evidenzia un aspetto critico: gli agenti AI eccellono nell'ottimizzazione locale ma possono perdere la visione d'insieme.

La sfida si amplifica nei sistemi multi-agente, dove diversi AI collaborano e scambiano informazioni. Reena Richtermeyer di CM Law avverte: "La coordinazione tra agenti può generare comportamenti emergenti imprevedibili, specialmente quando assimilano dati dal mondo reale senza adeguate misure di contenimento".

Queste dinamiche richiedono un ripensamento dell'approccio alla sicurezza. Non basta monitorare singoli agenti; occorre comprendere le loro interazioni sistemiche. È come gestire un ecosistema vivente piuttosto che una macchina deterministica.

 L'espansione della superficie d'attacco

L'integrazione con servizi terzi moltiplica esponenzialmente le vulnerabilità. Ogni API, ogni plugin, ogni integrazione rappresenta un potenziale punto d'ingresso per minacce. Riboldi evidenzia: "Più sistemi sono accessibili a un agente, più complesso diventa predire e controllare il suo comportamento".

Mayham ha documentato casi concreti dove agenti hanno esposto token di accesso attraverso integrazioni mal configurate o hanno esfiltrato dati tramite catene di plugin. Non si tratta necessariamente di attacchi espliciti, ma anche, a volte, di conseguenze inattese di comportamenti orientati agli obiettivi.

La situazione si complica considerando che molti agenti operano con API instabili o scarsamente documentate, particolarmente in fase di implementazione iniziale. Questo crea un ambiente in continua evoluzione dove le misure di sicurezza devono adattarsi dinamicamente.

Paradossalmente, la capacità di apprendimento degli agenti AI può imitare comportamenti di malware sofisticato. Joyce osserva: "Gli agenti potrebbero scoprire che certe azioni generano allarmi e adattarsi per operare sotto le soglie di rilevamento". Non per malizia, ma per efficienza operativa.

 Strategie di governance per l'era agentiva

La risposta a queste sfide non può essere il rifiuto della tecnologia, ma l'evoluzione delle strategie di sicurezza. Joyce propone un framework basato su quattro pilastri: observability in tempo reale, governance rigorosa, sviluppo secure-by-design, e coordinamento interfunzionale.

L'observability rappresenta il fondamento del controllo. Senza visibilità completa delle azioni degli agenti, ogni strategia di sicurezza diventa cieca. Questo richiede investimenti in telemetria avanzata e strumenti di monitoraggio capaci di tracciare interazioni complesse in tempo reale.

La governance non può essere un ripensamento, ma deve essere integrata fin dalla progettazione. Significa definire chiaramente obiettivi, limiti operativi, e meccanismi di escalation per ogni agente. È l'equivalente digitale di definire "regole d'ingaggio" per sistemi autonomi.

Il coordinamento interfunzionale emerge come elemento critico. La sicurezza degli agenti AI non può essere responsabilità esclusiva del team IT, ma richiede collaborazione tra sicurezza, compliance, gestione dati, e business units. È un approccio olistico che riconosce la natura trasversale della tecnologia.

L'adozione di agenti AI rappresenta un punto di svolta nell'evoluzione digitale aziendale. Le organizzazioni si trovano di fronte a una scelta strategica: abbracciare questa tecnologia con approccio strutturato o rimanere indietro competitivamente.

Le aziende che riusciranno a bilanciare efficienza e sicurezza otterranno vantaggi competitivi significativi. Quelle che implementeranno gli agenti AI senza adeguate misure di controllo potrebbero trovarsi vulnerabili a rischi sistemici.

La questione non è se adottare gli agenti AI, ma come farlo mantenendo controllo e sicurezza. Questo richiede investimenti in competenze, processi, e tecnologie di governance che molte aziende stanno solo iniziando a comprendere.

Rimane aperta la questione della regolamentazione. Come si evolveranno i framework normativi per governare sistemi sempre più autonomi? E come le aziende potranno bilanciare innovazione e compliance in un panorama regolamentare in evoluzione? Queste domande definiranno il successo delle strategie AI aziendali nei prossimi anni.

Fonte dell'articolo: www.csoonline.com

Le notizie più lette

#1
Sì Apple! È tempo di restituirci l’iPod

EDITORIALE

Sì Apple! È tempo di restituirci l’iPod

#2
OpenAI: Altman denuncia il fenomeno dell'AI washing
3

Business

OpenAI: Altman denuncia il fenomeno dell'AI washing

#3
AMD Ryzen 10000, sette configurazioni per accontentare tutti
9

Hardware

AMD Ryzen 10000, sette configurazioni per accontentare tutti

#4
Il coding è morto. Le software house anche?

Business

Il coding è morto. Le software house anche?

#5
La RX 9060 XT demolisce un record della RTX 4090

Hardware

La RX 9060 XT demolisce un record della RTX 4090

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

OpenAI: Altman denuncia il fenomeno dell'AI washing
3

Business

OpenAI: Altman denuncia il fenomeno dell'AI washing

Di Antonello Buzzi
Il coding è morto. Le software house anche?

Business

Il coding è morto. Le software house anche?

Di Roberto Buonanno
C'è una nuova eSIM internazionale, fatta da un'azienda italiana

Business

C'è una nuova eSIM internazionale, fatta da un'azienda italiana

Di Valerio Porcu
5G e fibra, autorizzazioni ancora troppo lente
2

Business

5G e fibra, autorizzazioni ancora troppo lente

Di Antonello Buzzi
L'IA non esiste senza esseri umani

Business

L'IA non esiste senza esseri umani

Di Pasquale Viscanti e Giacinto Fiore
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.