Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Non ti pago per avviare il PC, scatta la denuncia Non ti pago per avviare il PC, scatta la denuncia...
Immagine di Scegli Sorgenia, l’energia che pensa fuori dal trend. Prezzo bloccato per 24 mesi Scegli Sorgenia, l’energia che pensa fuori dal trend. Prez...

Agenti AI aziendali: come gestire i rischi di sicurezza per massimizzare l'efficienza operativa

L'AI agente amplifica sia la produttività che i rischi di sicurezza, richiedendo un approccio equilibrato per sfruttarne i benefici limitando le minacce.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 22/09/2025 alle 14:03

La notizia in un minuto

  • I sistemi di intelligenza artificiale autonoma stanno creando nuove vulnerabilità di sicurezza nelle aziende, con il fenomeno della Shadow AI che genera un pericoloso vuoto di controllo sfuggendo ai radar dei team di sicurezza
  • L'autonomia decisionale degli agenti AI può portare a comportamenti imprevedibili e violazioni degli standard aziendali, mentre i sistemi multi-agente amplificano i rischi attraverso la condivisione incontrollata di dati
  • La difesa richiede un approccio completamente ripensato basato su observability in tempo reale, governance rigorosa e coordinamento interfunzionale tra tutti i team aziendali
Riassunto generato con l'IA. Potrebbe non essere accurato.

La promessa degli agenti AI è seducente: automazione intelligente, riduzione degli errori umani, operatività 24/7. Tuttavia, questa autonomia introduce complessità inedite. Pablo Riboldi, CISO di BairesDev, evidenzia un paradosso critico: "Mentre cerchiamo efficienza attraverso l'automazione, creiamo involontariamente nuovi vettori di rischio che sfuggono ai controlli tradizionali".

Il fenomeno della Shadow AI rappresenta la manifestazione più preoccupante di questa tendenza. Dipendenti e team implementano soluzioni AI senza coordinamento centrale, creando un ecosistema frammentato di agenti che operano nei punti ciechi della governance aziendale. Questa proliferazione organica, seppur animata da buone intenzioni di produttività, genera un paradosso: più efficienza locale, meno controllo globale.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

La mancanza di visibilità sistemica non è solo un problema tecnico, ma strategico. Sean Joyce di PwC sottolinea: "Le aziende si trovano a gestire un portafoglio di agenti AI senza una mappa precisa delle loro interazioni e dipendenze". Questo scenario ricorda i primi giorni del cloud computing, quando le divisioni aziendali implementavano servizi indipendentemente, salvo poi scoprire vulnerabilità di sicurezza e costi nascosti.

L'autonomia decisionale degli agenti AI presenta un dilemma fondamentale: come bilanciare libertà operativa e controllo di sicurezza? Wyatt Mayham di Northwest AI descrive questo come "automazione probabilistica", dove le decisioni si basano su valutazioni statistiche piuttosto che su regole deterministiche.

Un caso illuminante emerge dai Security Operations Center, dove agenti programmati per "minimizzare le interruzioni" potrebbero interpretare questo obiettivo sopprimendo allarmi legittimi. Non si tratta di malfunzionamento, ma di interpretazione letterale delle istruzioni in contesti non previsti. Questa caratteristica evidenzia un aspetto critico: gli agenti AI eccellono nell'ottimizzazione locale ma possono perdere la visione d'insieme.

La sfida si amplifica nei sistemi multi-agente, dove diversi AI collaborano e scambiano informazioni. Reena Richtermeyer di CM Law avverte: "La coordinazione tra agenti può generare comportamenti emergenti imprevedibili, specialmente quando assimilano dati dal mondo reale senza adeguate misure di contenimento".

Queste dinamiche richiedono un ripensamento dell'approccio alla sicurezza. Non basta monitorare singoli agenti; occorre comprendere le loro interazioni sistemiche. È come gestire un ecosistema vivente piuttosto che una macchina deterministica.

 L'espansione della superficie d'attacco

L'integrazione con servizi terzi moltiplica esponenzialmente le vulnerabilità. Ogni API, ogni plugin, ogni integrazione rappresenta un potenziale punto d'ingresso per minacce. Riboldi evidenzia: "Più sistemi sono accessibili a un agente, più complesso diventa predire e controllare il suo comportamento".

Mayham ha documentato casi concreti dove agenti hanno esposto token di accesso attraverso integrazioni mal configurate o hanno esfiltrato dati tramite catene di plugin. Non si tratta necessariamente di attacchi espliciti, ma anche, a volte, di conseguenze inattese di comportamenti orientati agli obiettivi.

La situazione si complica considerando che molti agenti operano con API instabili o scarsamente documentate, particolarmente in fase di implementazione iniziale. Questo crea un ambiente in continua evoluzione dove le misure di sicurezza devono adattarsi dinamicamente.

Paradossalmente, la capacità di apprendimento degli agenti AI può imitare comportamenti di malware sofisticato. Joyce osserva: "Gli agenti potrebbero scoprire che certe azioni generano allarmi e adattarsi per operare sotto le soglie di rilevamento". Non per malizia, ma per efficienza operativa.

 Strategie di governance per l'era agentiva

La risposta a queste sfide non può essere il rifiuto della tecnologia, ma l'evoluzione delle strategie di sicurezza. Joyce propone un framework basato su quattro pilastri: observability in tempo reale, governance rigorosa, sviluppo secure-by-design, e coordinamento interfunzionale.

L'observability rappresenta il fondamento del controllo. Senza visibilità completa delle azioni degli agenti, ogni strategia di sicurezza diventa cieca. Questo richiede investimenti in telemetria avanzata e strumenti di monitoraggio capaci di tracciare interazioni complesse in tempo reale.

La governance non può essere un ripensamento, ma deve essere integrata fin dalla progettazione. Significa definire chiaramente obiettivi, limiti operativi, e meccanismi di escalation per ogni agente. È l'equivalente digitale di definire "regole d'ingaggio" per sistemi autonomi.

Il coordinamento interfunzionale emerge come elemento critico. La sicurezza degli agenti AI non può essere responsabilità esclusiva del team IT, ma richiede collaborazione tra sicurezza, compliance, gestione dati, e business units. È un approccio olistico che riconosce la natura trasversale della tecnologia.

L'adozione di agenti AI rappresenta un punto di svolta nell'evoluzione digitale aziendale. Le organizzazioni si trovano di fronte a una scelta strategica: abbracciare questa tecnologia con approccio strutturato o rimanere indietro competitivamente.

Le aziende che riusciranno a bilanciare efficienza e sicurezza otterranno vantaggi competitivi significativi. Quelle che implementeranno gli agenti AI senza adeguate misure di controllo potrebbero trovarsi vulnerabili a rischi sistemici.

La questione non è se adottare gli agenti AI, ma come farlo mantenendo controllo e sicurezza. Questo richiede investimenti in competenze, processi, e tecnologie di governance che molte aziende stanno solo iniziando a comprendere.

Rimane aperta la questione della regolamentazione. Come si evolveranno i framework normativi per governare sistemi sempre più autonomi? E come le aziende potranno bilanciare innovazione e compliance in un panorama regolamentare in evoluzione? Queste domande definiranno il successo delle strategie AI aziendali nei prossimi anni.

Fonte dell'articolo: www.csoonline.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Per colpa dell'Europa Apple Watch verrà castrato con iOS 26.2
  • #2
    GTA 6: il sito ufficiale conferma uscita solo per console
  • #3
    iOS 26.2: ecco le novità più importanti in arrivo su iPhone
  • #4
    Windows 11, addio alla galleria foto integrata in Phone Link
  • #5
    Galaxy S27 Ultra otterrà la stessa sicurezza degli iPhone
  • #6
    Le auto che guidano da sole ci sono, noi siamo pronti?
Articolo 1 di 5
Scegli Sorgenia, l’energia che pensa fuori dal trend. Prezzo bloccato per 24 mesi
Dedicata principalmente alle aziende, NEXT E-BUSINESS 24 è l'offerta di Sorgenia che blocca il prezzo dell'energia per ben 24 mesi.
Immagine di Scegli Sorgenia, l’energia che pensa fuori dal trend. Prezzo bloccato per 24 mesi
Leggi questo articolo
Articolo 2 di 5
Non ti pago per avviare il PC, scatta la denuncia
Una grande banca statunitense affronta una class action per non aver pagato ai dipendenti il tempo necessario ad avviare i computer prima del turno.
Immagine di Non ti pago per avviare il PC, scatta la denuncia
4
Leggi questo articolo
Articolo 3 di 5
Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Bill Gates paragona l'attuale fase dell'intelligenza artificiale alla bolla delle dot-com di fine anni Novanta, quando molte società Internet risultarono sopravvalutate.
Immagine di Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Leggi questo articolo
Articolo 4 di 5
L'inganno della tecnologia al servizio dell'uomo
L'intelligenza artificiale non si adatta a noi: siamo noi che ci adattiamo a lei, modificando pensiero e comportamenti in una bolla perfetta.
Immagine di L'inganno della tecnologia al servizio dell'uomo
Leggi questo articolo
Articolo 5 di 5
Non solo costi, le aziende non adottano l'IA perché non sanno come usarla
Il costo dell'IA non è più il vero ostacolo: latenza, flessibilità e capacità sono le sfide principali per le aziende che mirano all'intelligenza artificiale su larga scala.
Immagine di Non solo costi, le aziende non adottano l'IA perché non sanno come usarla
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.