Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di 6 modi innovativi per usare l'IA nella sicurezza
Business
Immagine di Un nuovo modello IA controlla il computer meglio di OpenAI e Anthropic, a un decimo dei costi Un nuovo modello IA controlla il computer meglio di OpenAI e...
Immagine di ChatGPT con pubblicità (anche per chi paga) ChatGPT con pubblicità (anche per chi paga)...

6 modi innovativi per usare l'IA nella sicurezza

L'intelligenza artificiale trasforma anche la cybersecurity: scopri sei metodi innovativi per proteggere la tua azienda con tecnologie AI avanzate.

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 24/09/2025 alle 12:04
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

L'intelligenza artificiale offre alle aziende strumenti sempre più sofisticati per difendersi da minacce in continua evoluzione. Mentre i tradizionali sistemi di sicurezza si basano su regole predefinite e soglie di allerta, l'AI introduce capacità predittive e adattive che permettono di anticipare gli attacchi prima che si verifichino. Gli esperti del settore stanno sviluppando metodologie innovative che trasformano radicalmente l'approccio alla protezione aziendale, spostando il paradigma dalla reazione alla prevenzione.

Quando l'intelligenza artificiale diventa oracolo digitale

La capacità di prevedere gli attacchi informatici prima che avvengano rappresenta una delle frontiere più promettenti dell'AI applicata alla sicurezza. Andre Piazza, stratega della sicurezza presso BforeAI, spiega come i sistemi predittivi permettano ai difensori di prendere decisioni preventive e persino di automatizzare le risposte prima ancora che si verifichi un incidente. Questa tecnologia, operando con elevati tassi di accuratezza, può migliorare significativamente la produttività dei team di sicurezza, spesso sopraffatti dal numero di avvisi, dai falsi positivi e dal carico di lavoro necessario per processare tutto.

Il funzionamento di questi sistemi si basa sull'analisi di enormi quantità di dati e metadati provenienti da Internet. L'algoritmo "random forest" utilizza database di infrastrutture validate come buone o cattive, definite "ground truth", che fungono da standard aureo per le previsioni. La precisione delle predizioni viene mantenuta attraverso aggiornamenti continui che tengono conto dei cambiamenti nella superficie di attacco e delle nuove tecniche sviluppate dai criminali informatici.

Simulatori di guerra cibernetica: le reti generative avversariali

Michel Sahyoun di NopalCyber propone un approccio ancora più sofisticato attraverso le reti generative avversariali (GAN), sistemi che possono sia creare che proteggere da cyberattacchi estremamente sofisticati mai visti prima. Questa tecnica permette ai sistemi di cybersecurity di apprendere e adattarsi allenandosi contro un numero vastissimo di minacce simulate, preparando proattivamente le difese per minacce emergenti.

Le GAN operano attraverso due componenti fondamentali: un generatore che produce scenari realistici di cyberattacco, e un discriminatore che valuta questi scenari imparando a distinguere le attività maligne da quelle legittime. Insieme formano un ciclo di feedback dinamico dove il generatore affina le sue simulazioni basandosi sulle valutazioni del discriminatore, mentre quest'ultimo migliora continuamente la sua capacità di rilevare minacce sempre più sofisticate.

L'AI non sostituisce l'analista, ma diventa il suo assistente più intelligente

Dall'analista junior al detective digitale potenziato

Hughes Network Systems ha sviluppato un approccio che trasforma il ruolo dell'analista entry-level attraverso l'automazione del processo di triage delle minacce. Come spiega Ajith Edakandi, responsabile prodotti cybersecurity di Hughes Enterprise, il loro motore AI monitora attivamente gli avvisi di sicurezza, correla dati da multiple fonti e genera narrazioni contestuali che altrimenti richiederebbero sforzi manuali significativi.

Il sistema è addestrato sui playbook e runbook degli analisti esperti, imparando i passaggi tipici durante vari tipi di investigazioni. Quando riceve un avviso, l'AI inizia le stesse azioni investigative che farebbe un umano, raccogliendo dati da fonti affidabili e sintetizzando la storia della minaccia. Il risultato finale è un riassunto pronto per l'analista che riduce i tempi di investigazione da quasi un'ora a pochi minuti.

La precisione delle micro-deviazioni: se l'AI vede l'invisibile

Steve Tcherchian di XYPRO Technology evidenzia come i modelli AI possano creare baseline comportamentali dei sistemi, rilevando micro-deviazioni che sfuggirebbero a umani o sistemi tradizionali basati su regole. Invece di inseguire comportamenti malvagi noti, l'AI apprende continuamente cosa significhi "normale" a livello di sistema, utente, rete e processi, segnalando qualsiasi cosa si discosti da quella norma.

Alimentati da dati in tempo reale, log di processo, pattern di autenticazione e flussi di rete, questi modelli AI vengono continuamente addestrati sul comportamento normale per rilevare attività anomale. Nel tempo, il modello diventa sempre più intelligente e preciso nell'identificazione di questi segnali di rischio.

Il labirinto digitale: l'inganno diventa strategia

Gyan Chawdhary di Kontra propone un approccio rivoluzionario chiamato "proactive generative deception". Invece di limitarsi a rilevare le minacce, l'AI viene addestrata per creare e distribuire continuamente segmenti di rete, dati e comportamenti utente altamente realistici ma falsi. Come spiega Chawdhary, è come costruire un labirinto digitale in continua evoluzione per gli attaccanti.

Questa strategia va oltre i tradizionali honeypot rendendo l'inganno molto più pervasivo, intelligente e adattivo, con l'obiettivo di esaurire e confondere gli attaccanti prima che possano raggiungere asset legittimi. L'approccio cambia completamente le dinamiche di potere, costringendo gli attaccanti a reagire alle illusioni generate dall'AI invece di costringere i difensori a rincorrere sempre nuove minacce.

Tuttavia, sviluppare un ambiente di inganno generativo proattivo richiede risorse significative: infrastrutture cloud robuste, potenti risorse GPU per l'addestramento dei modelli AI generativi, e team altamente specializzati di ingegneri AI/ML, architetti di cybersecurity e specialisti di rete. Kumar Saurabh di AirMDR sottolinea come un'azienda di 1.000 persone possa facilmente ricevere 200 avvisi al giorno, richiedendo almeno nove analisti per investigare ogni singolo alert, evidenziando l'importanza cruciale di queste tecnologie automatizzate nel panorama della sicurezza moderna.

Fonte dell'articolo: www.csoonline.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

ChatGPT con pubblicità (anche per chi paga)

Business

ChatGPT con pubblicità (anche per chi paga)

Di Valerio Porcu
Un nuovo modello IA controlla il computer meglio di OpenAI e Anthropic, a un decimo dei costi

Business

Un nuovo modello IA controlla il computer meglio di OpenAI e Anthropic, a un decimo dei costi

Di Antonino Caffo
Il cloud, forse, non è poi così sicuro (spoiler: è colpa dell'IA)
1

Business

Il cloud, forse, non è poi così sicuro (spoiler: è colpa dell'IA)

Di Antonino Caffo
Microsoft -3%, colpa dell'AI che non fa abbastanza soldi
1

Business

Microsoft -3%, colpa dell'AI che non fa abbastanza soldi

Di Valerio Porcu
L'IA è la nuova alleata del project management
1

Business

L'IA è la nuova alleata del project management

Di Antonino Caffo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.