image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Migliori alimentatori PC economici (febbraio 2026) Migliori alimentatori PC economici (febbraio 2026)...
Immagine di Migliori schede madri gaming (febbraio 2026) Migliori schede madri gaming (febbraio 2026)...

L'AI di Microsoft trasformata in uno strumento di phishing

Una ricerca ha rivelato vulnerabilità nell'IA Copilot: risposte manipolabili, dati estraibili e protezioni aggirabili, minando la sicurezza del sistema.

Advertisement

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author @Tom's Hardware Italia

Pubblicato il 09/08/2024 alle 19:00
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Microsoft Copilot, il sistema di intelligenza artificiale integrato nelle applicazioni Microsoft 365, è vulnerabile a diverse forme di attacco informatico che potrebbero compromettere la sicurezza dei dati aziendali.

La scoperta è stata presentata oggi alla conferenza Black Hat di Las Vegas dal ricercatore Michael Bargury, che ha dimostrato cinque potenziali metodi di manipolazione del sistema AI.

Ogni volta che si dà all'AI accesso ai dati, si crea un potenziale punto d'ingresso per un cyber criminale.

Questi attacchi sfruttano le funzionalità di Copilot per accedere e elaborare dati aziendali, trasformandole in strumenti per estrarre informazioni sensibili o diffondere contenuti malevoli. La ricerca evidenzia i rischi legati all'integrazione di sistemi AI con dati aziendali, specialmente quando vengono introdotti dati esterni non verificati.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Uno degli scenari più preoccupanti presentati da Bargury è la possibilità di trasformare Copilot in una macchina automatica per lo spear-phishing. Un attaccante che abbia già accesso a un account email aziendale potrebbe sfruttare l'AI per:

  • Analizzare i contatti frequenti dell'utente
  • Generare email personalizzate imitando lo stile di scrittura della vittima
  • Inviare massivamente messaggi contenenti link o allegati malevoli

"Posso farlo con chiunque tu abbia mai contattato, e posso inviare centinaia di email a tuo nome", afferma Bargury. "Un hacker impiegherebbe giorni per creare l'email giusta per indurti a cliccare, ma ora può generarne centinaia in pochi minuti."

Microsoft
Copilot

Altre tecniche dimostrate da Bargury includono:

  • Eludere le protezioni Microsoft per accedere a file sensibili come i dati sugli stipendi
  • Manipolare le risposte dell'AI su informazioni bancarie per fornire dettagli falsi
  • Ottenere indizi su prossime comunicazioni finanziarie aziendali
  • Trasformare Copilot in un "insider malevolo" che fornisce link a siti di phishing

Questi attacchi sfruttano il modo in cui l'AI è progettata per rispondere a domande scritte accedendo ai dati disponibili. Inserendo istruzioni aggiuntive nelle richieste, è possibile indurre il sistema a produrre risultati potenzialmente dannosi.

Phillip Misner, responsabile della risposta agli incidenti AI di Microsoft, ha dichiarato: 

Apprezziamo l'identificazione della vulnerabilità da parte di Bargury e stiamo lavorando con lui per valutare i risultati. I rischi di abuso post-compromissione dell'AI sono simili ad altre tecniche post-compromissione. La prevenzione e il monitoraggio della sicurezza in tutti gli ambienti e le identità aiutano a mitigare o fermare tali comportamenti.

La ricerca di Bargury evidenzia la necessità di maggiore attenzione su come l'AI interagisce con l'ambiente aziendale, e i dati a esso associati, e su come esegue operazioni per conto degli utenti. È fondamentale monitorare attentamente ciò che l'AI produce e invia agli utenti, assicurandosi che corrisponda effettivamente alle richieste legittime.

Johann Rehberger, esperto di sicurezza, sottolinea come questi rischi si sommino a problemi preesistenti di gestione degli accessi nelle aziende: "Immaginate di mettere Copilot sopra a quel problema". Rehberger afferma di aver utilizzato sistemi AI per cercare password comuni come "Password123", ottenendo risultati dall'interno delle aziende.

La crescente integrazione di sistemi AI generativi come Copilot, ChatGPT e Gemini nelle attività lavorative quotidiane richiede quindi un approccio alla sicurezza più sofisticato, che tenga conto delle nuove vulnerabilità introdotte da queste tecnologie.

Fonte dell'articolo: www.wired.com

Le notizie più lette

#1
Phil Spencer si ritira e Sarah Bond si dimette, è la fine per Xbox?

Videogioco

Phil Spencer si ritira e Sarah Bond si dimette, è la fine per Xbox?

#2
Furto in casa Google, rubati i segreti del chip Tensor
5

Smartphone

Furto in casa Google, rubati i segreti del chip Tensor

#3
Un'iPhone dotato di internet satellitare? Si ma tramite una cover

Smartphone

Un'iPhone dotato di internet satellitare? Si ma tramite una cover

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Migliori schede madri gaming (febbraio 2026)
2

GUIDA ALL'ACQUISTO

Migliori schede madri gaming (febbraio 2026)

Di Antonello Buzzi, David Bossi
Migliori alimentatori PC economici (febbraio 2026)
3

GUIDA ALL'ACQUISTO

Migliori alimentatori PC economici (febbraio 2026)

Di Antonello Buzzi, David Bossi
Migliori mouse ergonomici e verticali (febbraio 2026)

GUIDA ALL'ACQUISTO

Migliori mouse ergonomici e verticali (febbraio 2026)

Di Antonello Buzzi, David Bossi
Microsoft: i chatbot AI peggiorano con le lunghe chat
4

Hardware

Microsoft: i chatbot AI peggiorano con le lunghe chat

Di Antonello Buzzi
Sotto i 50€? Questa HP DeskJet ha Wi-Fi e stampa a colori

Offerte e Sconti

Sotto i 50€? Questa HP DeskJet ha Wi-Fi e stampa a colori

Di Dario De Vita

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.