Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di 6 modi innovativi per usare l'IA nella sicurezza
Business
Immagine di Perché i progetti con gli agenti IA falliscono Perché i progetti con gli agenti IA falliscono...
Immagine di Fare domande furbette ai colloqui è inutile, ecco le prove Fare domande furbette ai colloqui è inutile, ecco le prove...

6 modi innovativi per usare l'IA nella sicurezza

L'intelligenza artificiale trasforma anche la cybersecurity: scopri sei metodi innovativi per proteggere la tua azienda con tecnologie AI avanzate.

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 24/09/2025 alle 12:04
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

L'intelligenza artificiale offre alle aziende strumenti sempre più sofisticati per difendersi da minacce in continua evoluzione. Mentre i tradizionali sistemi di sicurezza si basano su regole predefinite e soglie di allerta, l'AI introduce capacità predittive e adattive che permettono di anticipare gli attacchi prima che si verifichino. Gli esperti del settore stanno sviluppando metodologie innovative che trasformano radicalmente l'approccio alla protezione aziendale, spostando il paradigma dalla reazione alla prevenzione.

Quando l'intelligenza artificiale diventa oracolo digitale

La capacità di prevedere gli attacchi informatici prima che avvengano rappresenta una delle frontiere più promettenti dell'AI applicata alla sicurezza. Andre Piazza, stratega della sicurezza presso BforeAI, spiega come i sistemi predittivi permettano ai difensori di prendere decisioni preventive e persino di automatizzare le risposte prima ancora che si verifichi un incidente. Questa tecnologia, operando con elevati tassi di accuratezza, può migliorare significativamente la produttività dei team di sicurezza, spesso sopraffatti dal numero di avvisi, dai falsi positivi e dal carico di lavoro necessario per processare tutto.

Il funzionamento di questi sistemi si basa sull'analisi di enormi quantità di dati e metadati provenienti da Internet. L'algoritmo "random forest" utilizza database di infrastrutture validate come buone o cattive, definite "ground truth", che fungono da standard aureo per le previsioni. La precisione delle predizioni viene mantenuta attraverso aggiornamenti continui che tengono conto dei cambiamenti nella superficie di attacco e delle nuove tecniche sviluppate dai criminali informatici.

Simulatori di guerra cibernetica: le reti generative avversariali

Michel Sahyoun di NopalCyber propone un approccio ancora più sofisticato attraverso le reti generative avversariali (GAN), sistemi che possono sia creare che proteggere da cyberattacchi estremamente sofisticati mai visti prima. Questa tecnica permette ai sistemi di cybersecurity di apprendere e adattarsi allenandosi contro un numero vastissimo di minacce simulate, preparando proattivamente le difese per minacce emergenti.

Le GAN operano attraverso due componenti fondamentali: un generatore che produce scenari realistici di cyberattacco, e un discriminatore che valuta questi scenari imparando a distinguere le attività maligne da quelle legittime. Insieme formano un ciclo di feedback dinamico dove il generatore affina le sue simulazioni basandosi sulle valutazioni del discriminatore, mentre quest'ultimo migliora continuamente la sua capacità di rilevare minacce sempre più sofisticate.

L'AI non sostituisce l'analista, ma diventa il suo assistente più intelligente

Dall'analista junior al detective digitale potenziato

Hughes Network Systems ha sviluppato un approccio che trasforma il ruolo dell'analista entry-level attraverso l'automazione del processo di triage delle minacce. Come spiega Ajith Edakandi, responsabile prodotti cybersecurity di Hughes Enterprise, il loro motore AI monitora attivamente gli avvisi di sicurezza, correla dati da multiple fonti e genera narrazioni contestuali che altrimenti richiederebbero sforzi manuali significativi.

Il sistema è addestrato sui playbook e runbook degli analisti esperti, imparando i passaggi tipici durante vari tipi di investigazioni. Quando riceve un avviso, l'AI inizia le stesse azioni investigative che farebbe un umano, raccogliendo dati da fonti affidabili e sintetizzando la storia della minaccia. Il risultato finale è un riassunto pronto per l'analista che riduce i tempi di investigazione da quasi un'ora a pochi minuti.

La precisione delle micro-deviazioni: se l'AI vede l'invisibile

Steve Tcherchian di XYPRO Technology evidenzia come i modelli AI possano creare baseline comportamentali dei sistemi, rilevando micro-deviazioni che sfuggirebbero a umani o sistemi tradizionali basati su regole. Invece di inseguire comportamenti malvagi noti, l'AI apprende continuamente cosa significhi "normale" a livello di sistema, utente, rete e processi, segnalando qualsiasi cosa si discosti da quella norma.

Alimentati da dati in tempo reale, log di processo, pattern di autenticazione e flussi di rete, questi modelli AI vengono continuamente addestrati sul comportamento normale per rilevare attività anomale. Nel tempo, il modello diventa sempre più intelligente e preciso nell'identificazione di questi segnali di rischio.

Il labirinto digitale: l'inganno diventa strategia

Gyan Chawdhary di Kontra propone un approccio rivoluzionario chiamato "proactive generative deception". Invece di limitarsi a rilevare le minacce, l'AI viene addestrata per creare e distribuire continuamente segmenti di rete, dati e comportamenti utente altamente realistici ma falsi. Come spiega Chawdhary, è come costruire un labirinto digitale in continua evoluzione per gli attaccanti.

Questa strategia va oltre i tradizionali honeypot rendendo l'inganno molto più pervasivo, intelligente e adattivo, con l'obiettivo di esaurire e confondere gli attaccanti prima che possano raggiungere asset legittimi. L'approccio cambia completamente le dinamiche di potere, costringendo gli attaccanti a reagire alle illusioni generate dall'AI invece di costringere i difensori a rincorrere sempre nuove minacce.

Tuttavia, sviluppare un ambiente di inganno generativo proattivo richiede risorse significative: infrastrutture cloud robuste, potenti risorse GPU per l'addestramento dei modelli AI generativi, e team altamente specializzati di ingegneri AI/ML, architetti di cybersecurity e specialisti di rete. Kumar Saurabh di AirMDR sottolinea come un'azienda di 1.000 persone possa facilmente ricevere 200 avvisi al giorno, richiedendo almeno nove analisti per investigare ogni singolo alert, evidenziando l'importanza cruciale di queste tecnologie automatizzate nel panorama della sicurezza moderna.

Fonte dell'articolo: www.csoonline.com

Le notizie più lette

#1
Fare domande furbette ai colloqui è inutile, ecco le prove
2

Business

Fare domande furbette ai colloqui è inutile, ecco le prove

#2
Dopo 100 anni, la teoria dei colori di Schrödinger è completa
1

Scienze

Dopo 100 anni, la teoria dei colori di Schrödinger è completa

#3
NVIDIA entra nel mercato SoC per PC Windows
3

Hardware

NVIDIA entra nel mercato SoC per PC Windows

#4
Pokémon Rosso Fuoco e Verde Foglia dominano il Nintendo eShop
4

Videogioco

Pokémon Rosso Fuoco e Verde Foglia dominano il Nintendo eShop

#5
Recensione Samsung 9100 PRO 8TB, veloce e capiente
5

Hardware

Recensione Samsung 9100 PRO 8TB, veloce e capiente

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Fare domande furbette ai colloqui è inutile, ecco le prove
2

Business

Fare domande furbette ai colloqui è inutile, ecco le prove

Di Valerio Porcu
Perché i progetti con gli agenti IA falliscono

Business

Perché i progetti con gli agenti IA falliscono

Di Antonino Caffo
Milano-Cortina 2026, l’IA ha vinto tutto anche senza medaglie
1

Business

Milano-Cortina 2026, l’IA ha vinto tutto anche senza medaglie

Di Valerio Porcu
AMD e Meta siglano un mega accordo AI da 100 miliardi

Business

AMD e Meta siglano un mega accordo AI da 100 miliardi

Di Antonello Buzzi
IA fisica, macchine che si muovono e interagiscono con il mondo reale

Business

IA fisica, macchine che si muovono e interagiscono con il mondo reale

Di Sri Elaprolu, Alla Simoneau, Paul Amadeo, Randi Larson e Laura Kulowski
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.