Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà Anche Bill Gates dice che l'AI è una bolla e che presto sco...
Immagine di Non ti pago per avviare il PC, scatta la denuncia Non ti pago per avviare il PC, scatta la denuncia...

Usano l'AI per farsi assumere, poi attaccano l'azienda dall'interno

È stato confermato che la forza d'attacco nordcoreana "Famous Chollima" si è infiltrata in oltre 320 aziende utilizzando l'intelligenza artificiale generativa.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 08/09/2025 alle 09:30

La notizia in un minuto

  • Il collettivo nordcoreano Famous Chollima utilizza l'AI per creare CV falsi e deepfake durante i colloqui di lavoro, infiltrandosi come dipendenti in oltre 320 organizzazioni (+220% rispetto all'anno precedente)
  • Gli agenti AI autonomi stanno diventando nuovi bersagli prioritari per i cybercriminali, che li sfruttano per ottenere credenziali privilegiate e distribuire malware
  • I tempi degli attacchi si sono drasticamente ridotti: alcuni gruppi come Scattered Spider completano offensive ransomware in meno di 24 ore grazie all'automazione AI
Riassunto generato con l'IA. Potrebbe non essere accurato.

CrowdStrike, azienda globale di sicurezza informatica basata sul cloud, ha pubblicato il suo 2025 Threat Hunting Report. Il documento conferma una tendenza già rilevata da molti osservatori: i criminali sfruttano l'AI generativa per realizzare attacchi più insidiosi e, sopratutto, per abbattere i costi. 

Tra i protagonisti di questa nuova era cyber, spicca il collettivo nordcoreano Famous Chollima, che ha dimostrato come l'automazione alimentata dall'AI possa moltiplicare exponenzialmente l'efficacia degli attacchi. Il gruppo ha perfezionato un sistema di infiltrazione che sfrutta curriculum vitae generati artificialmente, interviste condotte con deepfake e identità completamente falsificate per superare i processi di selezione aziendale. Diventa così possibile infiltrare l'azienda con un collaboratore che in realtà è un membro della gang criminale. I numeri parlano chiaro: nel corso dell'ultimo anno, questi operatori sono riusciti a penetrare in oltre 320 organizzazioni, registrando un incremento del 220% rispetto al periodo precedente.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

La metodologia adottata da Famous Chollima rappresenta l'evoluzione naturale delle minacce insider, dove la tecnologia AI permette di automatizzare l'intero processo di infiltrazione. Dalla creazione di profili professionali convincenti fino all'esecuzione di compiti tecnici durante i colloqui, ogni fase viene orchestrata attraverso strumenti di intelligenza artificiale che rendono praticamente indistinguibili i candidati fraudolenti da quelli autentici.

L'IA come obiettivo degli attacchi

ìParallelamente all'uso offensivo dell'AI, i ricercatori di CrowdStrike hanno identificato un trend preoccupante: gli agenti AI autonomi stanno emergendo come obiettivi prioritari per i cybercriminali. Questi sistemi, progettati per rivoluzionare i flussi di lavoro aziendali, offrono agli attaccanti nuove superfici di attacco particolarmente appetibili. L'accesso non autorizzato agli strumenti di sviluppo di questi agenti consente ai malintenzionati di ottenere credenziali privilegiate, mantenere la persistenza nei sistemi compromessi e distribuire malware o ransomware.

L'AI diventa simultaneamente arma e bersaglio degli attacchi

La vulnerabilità di questi sistemi risiede nella loro natura ibrida: mentre automatizzano processi complessi, creano anche nuovi vettori di attacco che i tradizionali sistemi di sicurezza faticano a monitorare efficacemente. Gli attaccanti hanno rapidamente compreso che compromettere un agente AI può fornire accesso a risorse e dati che altrimenti richiederebbero multiple fasi di escalation.

L'analisi di CrowdStrike rivela anche altri usi criminali dell'AI. Per esempio, il gruppo russo Ember Bear ha intensificato le proprie campagne di disinformazione utilizzando contenuti generati artificialmente per amplificare messaggi filo-russi, mentre l'iraniano Charming Kitten ha perfezionato tecniche di phishing basate su modelli linguistici avanzati per colpire organizzazioni statunitensi ed europee.

Particolarmente significativo è l'incremento del 136% negli attacchi cloud registrato nell'ultimo periodo, con il 40% di questi episodi attribuibile a gruppi cinesi. Collettivi come Genesis Panda e Murky Panda hanno dimostrato una particolare abilità nello sfruttare configurazioni cloud errate e privilegi di accesso fidati per eludere i sistemi di rilevamento tradizionali.

Velocità e aggressività: la nuova frontiera

Un elemento che caratterizza questa nuova generazione di attacchi è la compressione temporale delle offensive. Il gruppo Scattered Spider, noto per le sue tecniche di social engineering, è riuscito a ridurre drasticamente i tempi necessari per completare un attacco completo. In alcuni casi documentati, il periodo tra la penetrazione iniziale e il deployment di ransomware si è ridotto a meno di 24 ore, grazie all'utilizzo di tecniche automatizzate di reset delle credenziali e bypass dell'autenticazione multi-fattore.

Questa accelerazione è resa possibile dall'integrazione di strumenti AI che assistono i criminali nella risoluzione rapida di problemi tecnici, nella scrittura di script personalizzati e nello sviluppo di malware. Esempi concreti di questa evoluzione sono rappresentati da minacce come Funklocker e SparkCat, che incorporano elementi di intelligenza artificiale nella loro architettura.

Adam Meyers, responsabile delle operazioni di risposta agli attacchi di CrowdStrike, sottolinea come gli attaccanti stiano applicando agli agenti AI le stesse metodologie utilizzate per compromettere piattaforme SaaS, console cloud e account privilegiati. "Il futuro della cybersecurity aziendale dipenderà fondamentalmente da come le organizzazioni riusciranno a proteggere i propri sistemi di intelligenza artificiale", avverte l'esperto, evidenziando come la protezione dell'AI rappresenti ormai una priorità strategica al pari della sicurezza dei dati tradizionali.

Fonte dell'articolo: www.cio.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Non ti pago per avviare il PC, scatta la denuncia
  • #2
    iOS 26.1: ecco come regolare la trasparenza del Liquid Glass
  • #3
    Lavoratori tech licenziati a migliaia (solo negli USA per ora)
  • #4
    Android Auto abbandona definitivamente Google Assistant
  • #5
    Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
  • #6
    Black Friday: upgrade alla tastiera che volevi, con il prezzo che speravi
Articolo 1 di 5
Non ti pago per avviare il PC, scatta la denuncia
Una grande banca statunitense affronta una class action per non aver pagato ai dipendenti il tempo necessario ad avviare i computer prima del turno.
Immagine di Non ti pago per avviare il PC, scatta la denuncia
9
Leggi questo articolo
Articolo 2 di 5
Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Bill Gates paragona l'attuale fase dell'intelligenza artificiale alla bolla delle dot-com di fine anni Novanta, quando molte società Internet risultarono sopravvalutate.
Immagine di Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Leggi questo articolo
Articolo 3 di 5
Ecco cosa succede quando possiedi i pesi dei tuoi modelli di IA
Baseten lancia una piattaforma per addestrare modelli IA open source e ridurre la dipendenza da OpenAI, con risparmio fino all'84% sui costi
Immagine di Ecco cosa succede quando possiedi i pesi dei tuoi modelli di IA
Leggi questo articolo
Articolo 4 di 5
Lavorare 72 ore a settimana, il nuovo modello che piace a USA e Cina
Mentre l'Europa testa la settimana corta, un modello opposto da 72 ore, che ricorda il '996' cinese, guadagna consensi in alcuni settori ad alta pressione.
Immagine di Lavorare 72 ore a settimana, il nuovo modello che piace a USA e Cina
3
Leggi questo articolo
Articolo 5 di 5
Altro che algoritmi, è l'inferenza il reale valore dei modelli di IA
L'addestramento è una volta sola, l'esecuzione è quotidiana. Garantire contesto e affidabilità al modello vale più che perfezionare gli LLM.
Immagine di Altro che algoritmi, è l'inferenza il reale valore dei modelli di IA
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.