image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Microsoft dice addio a RC4: fine di un algoritmo storico Microsoft dice addio a RC4: fine di un algoritmo storico...
Immagine di La Cina è davanti a tutti anche nei monitor gaming La Cina è davanti a tutti anche nei monitor gaming...

ChatGPT sfrutta Google Calendar per rubare dati sensibili

Un utente X mostra come degli eventi di calendario dannosi potrebbero sfruttare le nuove integrazioni Google di ChatGPT per scopi malevoli.

Advertisement

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author @Tom's Hardware Italia

Pubblicato il 14/09/2025 alle 11:30

La notizia in un minuto

  • Una nuova vulnerabilità permette di manipolare ChatGPT attraverso inviti Google Calendar contenenti istruzioni nascoste, che vengono eseguite quando l'utente chiede informazioni sui propri impegni
  • L'attacco sfrutta i connettori nativi Google-OpenAI introdotti di recente, che consentono a ChatGPT di accedere automaticamente a Gmail e Calendar durante le conversazioni
  • Per proteggersi è necessario limitare l'accesso al calendario modificando le impostazioni Google per accettare solo inviti da mittenti conosciuti e valutare attentamente quali account collegare all'AI

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

La vulnerabilità di sicurezza scoperta dal ricercatore Eito Miyamura rivela come l'integrazione sempre più profonda tra intelligenza artificiale e servizi di posta elettronica possa trasformarsi in un'arma a doppio taglio.

Il meccanismo identificato sfrutta una semplice debolezza: basta l'indirizzo email della vittima per orchestrare un attacco che utilizza ChatGPT come inconsapevole complice nel furto di informazioni private.

La tecnica si basa su un invito Google Calendar apparentemente innocuo, ma contenente istruzioni nascoste che manipolano il comportamento dell'assistente AI una volta attivati i connettori Google.

L'inganno nascosto nel calendario

Il funzionamento dell'attacco si rivela di una semplicità disarmante nella sua efficacia. L'aggressore invia un invito di calendario contenente istruzioni malevole integrate nel testo dell'evento, attendendo poi che la vittima interagisca con ChatGPT per richiedere qualche operazione di routine.

Quando l'utente formula una domanda apparentemente banale come "Cosa ho in calendario oggi?", l'intelligenza artificiale legge automaticamente l'evento compromesso e segue le istruzioni nascoste, procedendo alla ricerca in Gmail e all'estrazione di dettagli sensibili.

Questo tipo di vulnerabilità prende il nome di indirect prompt injection, una tecnica che sfrutta la capacità dell'AI di processare istruzioni celate all'interno di dati apparentemente legittimi. La particolarità di questo approccio risiede nel fatto che le istruzioni malevole non vengono inserite direttamente nella conversazione con l'utente, ma si nascondono nei contenuti che l'assistente è autorizzato a consultare automaticamente.

La vulnerabilità è emersa dopo che OpenAI ha introdotto, a metà agosto, i connettori nativi per Gmail, Google Calendar e Google Contacts in ChatGPT. Questa funzionalità, inizialmente riservata agli utenti Pro e successivamente estesa agli abbonati Plus, permette all'assistente di consultare automaticamente queste fonti durante le conversazioni una volta ottenuta l'autorizzazione. L'obiettivo dichiarato era quello di rendere più fluida l'esperienza utente, eliminando la necessità di specificare manualmente le fonti da consultare ogni volta.

L'attacco trasforma la comodità dell'integrazione in una vulnerabilità

Il meccanismo non rappresenta una novità assoluta nel panorama della sicurezza AI. Già in agosto, altri ricercatori avevano dimostrato come inviti compromessi potessero manipolare Google Gemini, spingendolo a controllare dispositivi smart-home e divulgare informazioni riservate. Questo lavoro di ricerca è stato successivamente documentato in un paper accademico intitolato "Invitation Is All You Need", evidenziando come il rischio fondamentale rimanga costante indipendentemente dalla piattaforma utilizzata.

Meccanismi di difesa e precauzioni

La buona notizia è che l'attacco non può concretizzarsi senza che l'utente abbia preventivamente collegato Gmail e Calendar a ChatGPT. Inoltre, il comportamento dell'assistente rimane vincolato alle politiche e ai prompt che OpenAI applica durante l'elaborazione dei contenuti di terze parti. La documentazione ufficiale specifica che gli utenti possono disconnettere le fonti o disabilitare l'uso automatico, limitando così le opportunità per eventi compromessi di influenzare conversazioni di routine.

Per una protezione più efficace, gli esperti raccomandano di agire direttamente nelle impostazioni di Google Calendar.

È consigliabile modificare l'opzione "Aggiungi automaticamente gli inviti" in modo che solo gli inviti da mittenti conosciuti o esplicitamente accettati compaiano nel calendario. Inoltre, si suggerisce di nascondere gli eventi rifiutati. Gli amministratori di Google Workspace possono implementare queste impostazioni di sicurezza a livello organizzativo.

Questa scoperta non indica che ChatGPT o Gmail siano stati "hackerati" nel senso tradizionale del termine, ma evidenzia una caratteristica intrinseca dell'AI che utilizza strumenti esterni: la particolare suscettibilità alle istruzioni ostili nascoste nei dati che è autorizzata a leggere. I connettori che rendono questi assistenti particolarmente utili espandono simultaneamente la superficie di attacco, includendo calendari e caselle di posta elettronica.

 

Fonte dell'articolo: www.tomshardware.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

La Cina è davanti a tutti anche nei monitor gaming
7

Hardware

La Cina è davanti a tutti anche nei monitor gaming

Di Marco Pedrani
Microsoft dice addio a RC4: fine di un algoritmo storico
2

Hardware

Microsoft dice addio a RC4: fine di un algoritmo storico

Di Antonello Buzzi
Windows 11, l’AI smette di essere un gadget inutile
2

Hardware

Windows 11, l’AI smette di essere un gadget inutile

Di Antonello Buzzi
Corsair, via alle offerte di Natale su hardware PC e gaming

Sponsorizzato

Corsair, via alle offerte di Natale su hardware PC e gaming

Di Antonello Buzzi
Prezzi RAM fuori controllo: comprare ora o aspettare?
1

Hardware

Prezzi RAM fuori controllo: comprare ora o aspettare?

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.