Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
% Black Friday
%
Accedi a Xenforo
Immagine di Che sicurezza avremo con il lavoro pieno di agenti IA? Che sicurezza avremo con il lavoro pieno di agenti IA?...
Immagine di Una startup di IA ha ingannato per anni i suoi clienti Una startup di IA ha ingannato per anni i suoi clienti...

Caccia aperta ai bug dell'IA, fino a 30mila dollari di taglia

Google ha ufficializzato un nuovo Vulnerability Reward Program (VRP) per la sua intelligenza artificiale, offrendo ricompense fino a 30.000 dollari per la scoperta di vulnerabilità di sicurezza

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 08/10/2025 alle 11:50
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 08/10/2025 alle 11:50
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Google ha deciso di mettere una taglia sulla testa dei bug che affliggono i suoi sistemi di intelligenza artificiale. La società ha lanciato un programma di bug bounty specificamente dedicato a scovare le falle di sicurezza nei suoi prodotti basati su IA, come Gemini e la Ricerca Google. L'iniziativa mira a mobilitare la comunità globale di ricercatori di sicurezza, incentivandola con ricompense significative per rafforzare le difese di un ecosistema tecnologico sempre più pervasivo e critico.

Il nuovo programma cerca di definire con precisione cosa l'azienda consideri una minaccia reale e cosa, invece, un problema di diversa natura. Si vuole stabilire un perimetro chiaro per la ricerca di vulnerabilità nell'IA, distinguendo tra exploit con impatto diretto sulla sicurezza e questioni legate all'allineamento dei modelli, come i cosiddetti "jailbreak", che restano fuori dal perimetro delle ricompense.

Una distinzione solo parzialmente sensata, perché di fatto forzare un LLM fuori dai suoi guardrail può diventare - e si solito succede - un problema di sicurezza. Anche sicurezza fisica delle persone. Tuttavia l'approccio di Google può avere senso se si vuole separare il classico problema tecnico dalla questione del jailbreaking, la cui soluzione (se esiste) segue per forza strade diverse. 

Il programma di Google classifica le vulnerabilità in diverse categorie di gravità, con un sistema di ricompense a scaglioni. Si arriva fino a 20.000 dollari per le falle più critiche, a cui si possono aggiungere bonus fino a 10.000 dollari per report di alta qualità, portando il premio massimo a 30.000 dollari. Le vulnerabilità coperte includono l'esecuzione di azioni non autorizzate, l'esfiltrazione di dati sensibili e il furto del modello stesso.

Questa approccio strutturato è tipico dei programmi di bug bounty consolidati, che si sono dimostrati uno strumento efficace per migliorare la postura di sicurezza delle aziende, sfruttando un'intelligenza collettiva esterna. La decisione di Google di applicare questo modello all'IA segnala la maturità raggiunta da queste tecnologie e la crescente necessità di proteggerle con metodologie rigorose e collaudate.

Google ha deciso di mettere una taglia sulla testa dei bug che affliggono i suoi sistemi di intelligenza artificiale.

Tuttavia, la scelta di escludere i "jailbreak" e il "prompt injection" diretti dal programma ha generato un dibattito. Google sostiene che questi problemi rappresentino una sfida a lungo termine, meglio affrontabile analizzando le tendenze piuttosto che premiando singole scoperte. Secondo l'azienda, risolvere completamente il problema dei jailbreak potrebbe essere tecnicamente impossibile. 

Un confine netto tra sicurezza e allineamento

La mossa di Google traccia una linea di demarcazione importante tra le vulnerabilità di sicurezza tradizionali, che compromettono l'integrità di un sistema, e i problemi di "allineamento", che riguardano la capacità del modello di aderire a linee guida etiche o operative. Mentre un hacker che sfrutta una falla per rubare dati commette un'azione inequivocabilmente dannosa, un utente che induce il modello a generare contenuti inappropriati attraverso un jailbreak solleva questioni più complesse e con maggiori sfumature.

Questa distinzione riflette una nascente consapevolezza nel settore sulla complessità della sicurezza in ambito AI.

Questa separazione potrebbe quindi essere la strada giusta, utile a concentrare le risorse dove l'impatto è più critico e misurabile. I ricercatori sono ora incentivati a focalizzarsi su scenari di attacco con conseguenze concrete, come la manipolazione di un account utente o la sottrazione di informazioni proprietarie. L'approccio pragmatico di Google potrebbe definire uno standard per il settore, spingendo altre aziende a chiarire le proprie priorità in materia di sicurezza dell'IA.

Il programma di Google classifica le vulnerabilità in diverse categorie di gravità, con un sistema di ricompense a scaglioni.

Sì, però se ci si concentra solo sulla vulnerabilità tecnica si fa un lavoro a metà. È sicuramente desiderabile avere un chatbot che non esfiltra dati, ma lo è anche di più avere un LLM che possa resistere alla prompt injection o, ancora meglio, che non si possa forzare a creare malware. Google fa due passi avanti e uno indietro, lasciando aperta e irrisolta la questione più importante. 

L'azienda californiana ha però affermato di voler gestire i problemi di allineamento, solo su canali diversi.

Resta aperta la domanda su come l'industria nel suo complesso affronterà le zone grigie dell'etica e del comportamento dei modelli, un terreno scivoloso dove la collaborazione tra aziende, ricercatori e società civile diventa non solo utile, ma necessaria.


AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Contenuto esclusivo

Inserisci la tua email per sbloccare l'intero articolo.

Rispettiamo la tua privacy. Non condivideremo mai la tua email con terze parti.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Una startup di IA ha ingannato per anni i suoi clienti
1
Business

Una startup di IA ha ingannato per anni i suoi clienti

Di Antonino Caffo • 1 giorno fa
Che sicurezza avremo con il lavoro pieno di agenti IA?
1
Business

Che sicurezza avremo con il lavoro pieno di agenti IA?

Di Antonino Caffo • 1 giorno fa
QNAP risponde alla fame di dati: un JBOD da 60 bay per l'archiviazione su scala petabyte
1
Business

QNAP risponde alla fame di dati: un JBOD da 60 bay per l'archiviazione su scala petabyte

Di Valerio Porcu • 1 giorno fa
La Germania esclude Huawei e ZTE dalle reti 6G
Business

La Germania esclude Huawei e ZTE dalle reti 6G

Di Valerio Porcu • 1 giorno fa
Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk?
1
Business

Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk?

Di Antonino Caffo • 1 giorno fa
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.