Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di 6 modi innovativi per usare l'IA nella sicurezza
Business
Immagine di IA e HR: le strategie che ogni azienda dovrebbe conoscere IA e HR: le strategie che ogni azienda dovrebbe conoscere...
Immagine di Perplexity Computer: ho speso 200 euro in 12 ore così non devi farlo tu Perplexity Computer: ho speso 200 euro in 12 ore così non d...

6 modi innovativi per usare l'IA nella sicurezza

L'intelligenza artificiale trasforma anche la cybersecurity: scopri sei metodi innovativi per proteggere la tua azienda con tecnologie AI avanzate.

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 24/09/2025 alle 12:04
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

L'intelligenza artificiale offre alle aziende strumenti sempre più sofisticati per difendersi da minacce in continua evoluzione. Mentre i tradizionali sistemi di sicurezza si basano su regole predefinite e soglie di allerta, l'AI introduce capacità predittive e adattive che permettono di anticipare gli attacchi prima che si verifichino. Gli esperti del settore stanno sviluppando metodologie innovative che trasformano radicalmente l'approccio alla protezione aziendale, spostando il paradigma dalla reazione alla prevenzione.

Quando l'intelligenza artificiale diventa oracolo digitale

La capacità di prevedere gli attacchi informatici prima che avvengano rappresenta una delle frontiere più promettenti dell'AI applicata alla sicurezza. Andre Piazza, stratega della sicurezza presso BforeAI, spiega come i sistemi predittivi permettano ai difensori di prendere decisioni preventive e persino di automatizzare le risposte prima ancora che si verifichi un incidente. Questa tecnologia, operando con elevati tassi di accuratezza, può migliorare significativamente la produttività dei team di sicurezza, spesso sopraffatti dal numero di avvisi, dai falsi positivi e dal carico di lavoro necessario per processare tutto.

Il funzionamento di questi sistemi si basa sull'analisi di enormi quantità di dati e metadati provenienti da Internet. L'algoritmo "random forest" utilizza database di infrastrutture validate come buone o cattive, definite "ground truth", che fungono da standard aureo per le previsioni. La precisione delle predizioni viene mantenuta attraverso aggiornamenti continui che tengono conto dei cambiamenti nella superficie di attacco e delle nuove tecniche sviluppate dai criminali informatici.

Simulatori di guerra cibernetica: le reti generative avversariali

Michel Sahyoun di NopalCyber propone un approccio ancora più sofisticato attraverso le reti generative avversariali (GAN), sistemi che possono sia creare che proteggere da cyberattacchi estremamente sofisticati mai visti prima. Questa tecnica permette ai sistemi di cybersecurity di apprendere e adattarsi allenandosi contro un numero vastissimo di minacce simulate, preparando proattivamente le difese per minacce emergenti.

Le GAN operano attraverso due componenti fondamentali: un generatore che produce scenari realistici di cyberattacco, e un discriminatore che valuta questi scenari imparando a distinguere le attività maligne da quelle legittime. Insieme formano un ciclo di feedback dinamico dove il generatore affina le sue simulazioni basandosi sulle valutazioni del discriminatore, mentre quest'ultimo migliora continuamente la sua capacità di rilevare minacce sempre più sofisticate.

L'AI non sostituisce l'analista, ma diventa il suo assistente più intelligente

Dall'analista junior al detective digitale potenziato

Hughes Network Systems ha sviluppato un approccio che trasforma il ruolo dell'analista entry-level attraverso l'automazione del processo di triage delle minacce. Come spiega Ajith Edakandi, responsabile prodotti cybersecurity di Hughes Enterprise, il loro motore AI monitora attivamente gli avvisi di sicurezza, correla dati da multiple fonti e genera narrazioni contestuali che altrimenti richiederebbero sforzi manuali significativi.

Il sistema è addestrato sui playbook e runbook degli analisti esperti, imparando i passaggi tipici durante vari tipi di investigazioni. Quando riceve un avviso, l'AI inizia le stesse azioni investigative che farebbe un umano, raccogliendo dati da fonti affidabili e sintetizzando la storia della minaccia. Il risultato finale è un riassunto pronto per l'analista che riduce i tempi di investigazione da quasi un'ora a pochi minuti.

La precisione delle micro-deviazioni: se l'AI vede l'invisibile

Steve Tcherchian di XYPRO Technology evidenzia come i modelli AI possano creare baseline comportamentali dei sistemi, rilevando micro-deviazioni che sfuggirebbero a umani o sistemi tradizionali basati su regole. Invece di inseguire comportamenti malvagi noti, l'AI apprende continuamente cosa significhi "normale" a livello di sistema, utente, rete e processi, segnalando qualsiasi cosa si discosti da quella norma.

Alimentati da dati in tempo reale, log di processo, pattern di autenticazione e flussi di rete, questi modelli AI vengono continuamente addestrati sul comportamento normale per rilevare attività anomale. Nel tempo, il modello diventa sempre più intelligente e preciso nell'identificazione di questi segnali di rischio.

Il labirinto digitale: l'inganno diventa strategia

Gyan Chawdhary di Kontra propone un approccio rivoluzionario chiamato "proactive generative deception". Invece di limitarsi a rilevare le minacce, l'AI viene addestrata per creare e distribuire continuamente segmenti di rete, dati e comportamenti utente altamente realistici ma falsi. Come spiega Chawdhary, è come costruire un labirinto digitale in continua evoluzione per gli attaccanti.

Questa strategia va oltre i tradizionali honeypot rendendo l'inganno molto più pervasivo, intelligente e adattivo, con l'obiettivo di esaurire e confondere gli attaccanti prima che possano raggiungere asset legittimi. L'approccio cambia completamente le dinamiche di potere, costringendo gli attaccanti a reagire alle illusioni generate dall'AI invece di costringere i difensori a rincorrere sempre nuove minacce.

Tuttavia, sviluppare un ambiente di inganno generativo proattivo richiede risorse significative: infrastrutture cloud robuste, potenti risorse GPU per l'addestramento dei modelli AI generativi, e team altamente specializzati di ingegneri AI/ML, architetti di cybersecurity e specialisti di rete. Kumar Saurabh di AirMDR sottolinea come un'azienda di 1.000 persone possa facilmente ricevere 200 avvisi al giorno, richiedendo almeno nove analisti per investigare ogni singolo alert, evidenziando l'importanza cruciale di queste tecnologie automatizzate nel panorama della sicurezza moderna.

Fonte dell'articolo: www.csoonline.com

Le notizie più lette

#1
Perplexity Computer: ho speso 200 euro in 12 ore così non devi farlo tu
2

Business

Perplexity Computer: ho speso 200 euro in 12 ore così non devi farlo tu

#2
RDNA 5 AT0, la top AMD torna per i gamer
7

Hardware

RDNA 5 AT0, la top AMD torna per i gamer

#3
Il MacBook low-cost avrà queste limitazioni
3

Hardware

Il MacBook low-cost avrà queste limitazioni

#4
SwitchBot AI Hub rivoluziona la smart home con OpenClaw

Altri temi

SwitchBot AI Hub rivoluziona la smart home con OpenClaw

#5
Samsung Galaxy S26 e S26 Ultra, perfettamente bilanciati
4

Anteprima

Samsung Galaxy S26 e S26 Ultra, perfettamente bilanciati

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Reti che pensano e SIM nel cloud: la nuova architettura della connettività industriale
1

Business

Reti che pensano e SIM nel cloud: la nuova architettura della connettività industriale

Di Valerio Porcu
IA e HR: le strategie che ogni azienda dovrebbe conoscere

Business

IA e HR: le strategie che ogni azienda dovrebbe conoscere

Di Antonino Caffo
Perplexity Computer: ho speso 200 euro in 12 ore così non devi farlo tu
2

Business

Perplexity Computer: ho speso 200 euro in 12 ore così non devi farlo tu

Di Roberto Buonanno
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.