Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon
Accedi a Xenforo
Immagine di AMD traccia la rotta per l’AI aperta: nuove GPU, software e infrastrutture rack-scale AMD traccia la rotta per l’AI aperta: nuove GPU, software ...
Immagine di Verifica dell’età per siti porno; arriva anche in Italia ma non sarà come in Francia Verifica dell’età per siti porno; arriva anche in Italia ...

La sicurezza moderna deve essere proattiva, e con l'AI si può fare

L'IA può aumentare il rischio di minacce online, ma è anche uno strumento utile per difendersi in maniera ancor più efficace.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale

Pubblicato il 11/03/2025 alle 14:18

La sicurezza digitale all'alba del 2025 si trova davanti a un bivio critico, dove l'intelligenza artificiale rappresenta contemporaneamente la più grande minaccia e la più promettente soluzione. Con i costi globali del cybercrime che si avvicinano alla cifra record di 10 trilioni di dollari, i criminali informatici stanno affinando strategie sempre più sofisticate, sfruttando le vulnerabilità di un mondo sempre più interconnesso. In questo scenario, l'elemento umano rimane il principale anello debole della catena di sicurezza, con l'AI che amplifica esponenzialmente la capacità degli attacchi di sembrare autentici e personalizzati.

L'inganno perfetto: quando l'AI diventa un'arma

I deepfake rappresenteranno la minaccia più significativa nel panorama della sicurezza informatica del 2025. La capacità di questi strumenti di replicare in modo convincente voci, volti e persino stili di scrittura sta evolvendo a ritmi vertiginosi. I criminali informatici possono ora addestrare modelli linguistici avanzati sui contenuti pubblici di una persona per imitare perfettamente il suo stile comunicativo, conoscenze e personalità, creando impersonificazioni pericolosamente credibili.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Le truffe tradizionali come il Business Email Compromise (BEC) e le frodi basate su falsi dipendenti diventeranno ancora più insidiose grazie a questa tecnologia. Per le aziende, questi attacchi rappresentano un rischio primario, con conseguenze potenzialmente devastanti sia economiche che reputazionali.

Un'altra area in crescita è il "Bypass-KYC-as-a-service", un servizio nel mercato criminale che permette di aggirare i sistemi di verifica dell'identità sfruttando tre elementi: dati biometrici esposti involontariamente, informazioni personali trafugate (soprattutto da attacchi ransomware) e le capacità in espansione dell'AI.

Agenti autonomi: la nuova frontiera della vulnerabilità

Man mano che le aziende adottano agenti AI autonomi per rimanere competitive, emergono nuovi rischi difficilmente rilevabili con i metodi tradizionali. Questi agenti, dotati di autonomia decisionale, possono interagire con sistemi e dati aziendali creando catene di eventi invisibili agli operatori umani. Questa mancanza di visibilità rappresenta una seria preoccupazione per la sicurezza, poiché diventa difficile monitorare e controllare le azioni degli agenti in tempo reale.

Gli agenti AI potrebbero diventare bersagli privilegiati per gli autori di malware, con potenziale per attività non autorizzate o dannose, incluso il "dirottamento dell'agente" da parte di attori esterni. Il consumo di risorse di sistema da parte di questi agenti, che siano benigni o malevoli, può anche portare a denial-of-service quando le risorse vengono sovraccaricate.

L'intelligenza artificiale ha bisogno di indovinare solo una volta per violare la sicurezza, mentre i difensori devono avere ragione sempre.

Le aziende che adottano agenti AI devono essere particolarmente caute riguardo a violazioni di dati causate da errori di codifica, attacchi DDoS basati sull'infrastruttura e compromissioni da librerie o codice di terze parti. Il numero limitato di fornitori di agenti e modelli significa anche che un difetto in un provider popolare può creare una vulnerabilità persistente in numerose organizzazioni.

Il futuro del ransomware e delle tecniche di attacco

Il 2024 ha visto un aumento dei gruppi ransomware che sfruttano strumenti legittimi per l'esfiltrazione di dati, la raccolta di credenziali e la replica. Nel 2025, gli strumenti legittimi continueranno a essere sfruttati poiché i criminali informatici si rendono conto del loro potenziale nel mascherare l'attività di attacco come legittima.

Con l'aumento degli attacchi ransomware che iniziano attraverso vulnerabilità o utilizzando account compromessi, gli attacchi che iniziano con il phishing probabilmente diminuiranno, suggerendo un cambiamento nelle tecniche. Gli attacchi ransomware potrebbero anche spostarsi verso modelli di business che non richiedono più la crittografia.

Mentre i criminali informatici massimizzano l'AI, anche le organizzazioni dovrebbero farlo: sfruttare l'AI per migliorare il rilevamento delle minacce, automatizzare le risposte e prevedere potenziali violazioni della sicurezza. È essenziale implementare rigorose misure di sicurezza per proteggere i modelli e i dati AI.

Strategie di difesa per un futuro artificiale

La superficie di attacco continua a diventare più complessa; mentre si espande esponenzialmente, non è saggio presumere che tattiche e tecniche collaudate siano ormai superate. Le misure di sicurezza tradizionali saranno sempre più sfidate per gestire in modo completo tutti i rischi derivanti da minacce sia nuove che note.

Implementare un approccio alla cybersecurity basato sul rischio è essenziale, in particolare uno che consenta alle organizzazioni di identificare centralmente questi diversi asset e valutare e mitigare efficacemente i rischi. Semplificando e facendo convergere le operazioni di sicurezza, sarà più facile per le imprese mitigare i rischi e adottare una prospettiva proattiva sulla sicurezza.

Le imprese che integrano modelli linguistici di grandi dimensioni (LLM) dovrebbero dare priorità a robuste misure di sicurezza, tra cui il rafforzamento degli ambienti sandbox per l'esecuzione del codice, l'implementazione di una rigorosa convalida dei dati per prevenire l'esfiltrazione e l'avvelenamento dell'archivio vettoriale, e l'implementazione di difese multilivello contro l'iniezione di prompt.

In un mondo dove l'intelligenza artificiale rappresenta sia una minaccia che un'opportunità, le organizzazioni devono essere più vigili che mai, implementando strategie proattive che sfruttino la tecnologia per la protezione mantenendo al contempo un occhio attento sulle vulnerabilità umane che rimangono il primo punto di ingresso per i criminali informatici.

Fonte dell'articolo: www.trendmicro.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Google sta distruggendo i siti web
  • #2
    AMD potrebbe aver confermato l'esistenza di Steam Deck 2
  • #3
    Meta in seri guai, rischia decine di miliardi di dollari di multa per averci fregato
  • #4
    AYANEO ha realizzato il Nintendo DS definitivo
  • #5
    Cosa sono le DRAM+ e come cambieranno i PC
  • #6
    L'OLED sugli handheld è una pessima idea: indovinate perché?
Articolo 1 di 5
Verifica dell’età per siti porno; arriva anche in Italia ma non sarà come in Francia
Dal 2025 anche in Italia arriverà la verifica dell’età per accedere ai siti porno. Diversamente dalla Francia, non è ancora legge. Restano dubbi su privacy, efficacia e possibili elusioni tramite VPN.
Immagine di Verifica dell’età per siti porno; arriva anche in Italia ma non sarà come in Francia
2
Leggi questo articolo
Articolo 2 di 5
AMD traccia la rotta per l’AI aperta: nuove GPU, software e infrastrutture rack-scale
Le innovazioni di AMD annunciate all'Advancing AI 2025 aprono la strada alle infrastrutture che alimenteranno l'IA del futuro.
Immagine di AMD traccia la rotta per l’AI aperta: nuove GPU, software e infrastrutture rack-scale
2
Leggi questo articolo
Articolo 3 di 5
Scoperta una grave falla AI zero-click, ecco cosa sappiamo
Scoperta vulnerabilità zero-click 'EchoLeak' in Microsoft 365 Copilot: attacchi AI possono estrarre dati sensibili senza necessariamente interagire.
Immagine di Scoperta una grave falla AI zero-click, ecco cosa sappiamo
Leggi questo articolo
Articolo 4 di 5
Usare l'IA non è un reato, ma non devi farlo ai colloqui di queste aziende
Chi usa i chatbot ai colloqui di lavoro viene automaticamente squalificato. È il paradosso dell'innovazione da ponderare, non abusare
Immagine di Usare l'IA non è un reato, ma non devi farlo ai colloqui di queste aziende
Leggi questo articolo
Articolo 5 di 5
Queste aziende si stanno prendendo l'Europa dell'IA
Google Cloud, Microsoft Azure, Amazon Web Services e poi NVIDIA con Oracle: giochi di potere per la sovranità del blocco europeo
Immagine di Queste aziende si stanno prendendo l'Europa dell'IA
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.