L'intelligenza artificiale di Google si trova sotto i riflettori per una vulnerabilità che potrebbe permettere ai criminali informatici di manipolare le sue risposte attraverso tecniche di ASCII smuggling. La questione ha sollevato importanti interrogativi sulla responsabilità delle aziende tecnologiche nel proteggere gli utenti da minacce emergenti, soprattutto quando questi strumenti sono sempre più integrati negli ambienti di lavoro quotidiani. Nonostante la segnalazione dettagliata di un ricercatore di sicurezza, Mountain View ha scelto di non considerare il problema come un vero e proprio bug di sicurezza.
Una minaccia nascosta nel testo comune
Il ricercatore Viktor Markopoulos ha condotto test approfonditi sui principali modelli di linguaggio artificiale, scoprendo che Gemini risulta vulnerabile a una particolare tipologia di attacco informatico. La tecnica dell'ASCII smuggling consiste nel nascondere istruzioni maligne all'interno di testi apparentemente innocui, utilizzando caratteri minuscoli o altri espedienti per renderli invisibili all'occhio umano ma leggibili dall'intelligenza artificiale.
Il meccanismo è tanto semplice quanto insidioso: un malintenzionato può inserire comandi nascosti in una email o in un invito del calendario, chiedendo successivamente all'AI di riassumere il contenuto. Durante questa operazione, il sistema legge anche le istruzioni celate, eseguendole come se fossero parte della richiesta legittima dell'utente.
I rischi nell'era dell'integrazione con Google Workspace
La vulnerabilità assume proporzioni ancora più preoccupanti considerando l'integrazione sempre più profonda di Gemini con Google Workspace. Gli attacchi potrebbero potenzialmente indurre l'AI a cercare informazioni sensibili nella casella di posta elettronica della vittima o a condividere dati di contatto riservati. Markopoulos ha dimostrato concretamente il rischio durante i suoi test, riuscendo a far promuovere a Gemini un sito web malevolo mascherato da offerta vantaggiosa per smartphone.
La ricerca ha rivelato significative differenze nel livello di protezione tra i vari assistenti AI. Mentre Gemini, DeepSeek e Grok si sono mostrati suscettibili a questa tipologia di attacco, Claude, ChatGPT e Copilot hanno dimostrato di possedere meccanismi di difesa efficaci contro l'ASCII smuggling. Questa disparità evidenzia come alcuni sviluppatori abbiano già implementato contromisure specifiche per questo tipo di minaccia.
La risposta controversa di Mountain View
Quando Markopoulos ha contattato Google per segnalare la vulnerabilità, fornendo anche una dimostrazione pratica del problema, la risposta dell'azienda ha sorpreso molti osservatori del settore. Il colosso tecnologico ha classificato la questione non come un bug di sicurezza, ma come una tattica di ingegneria sociale, scaricando di fatto la responsabilità sull'utente finale.
Questa posizione contrasta con l'approccio generalmente attento alla sicurezza che Google adotta per i suoi prodotti, come dimostrato dalle recenti restrizioni imposte al sideloading di applicazioni non verificate su Android. La decisione di non considerare prioritario questo problema solleva interrogativi sulla coerenza delle politiche di sicurezza dell'azienda e sulla protezione degli utenti che utilizzano quotidianamente questi strumenti per attività professionali e personali.
Al momento, non sembrano esserci piani per correggere questa vulnerabilità di Gemini, lasciando gli utenti potenzialmente esposti a manipolazioni che potrebbero compromettere la loro sicurezza digitale e la riservatezza delle loro comunicazioni.