Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà Anche Bill Gates dice che l'AI è una bolla e che presto sco...
Immagine di Non ti pago per avviare il PC, scatta la denuncia Non ti pago per avviare il PC, scatta la denuncia...

Caccia aperta ai bug dell'IA, fino a 30mila dollari di taglia

Google ha ufficializzato un nuovo Vulnerability Reward Program (VRP) per la sua intelligenza artificiale, offrendo ricompense fino a 30.000 dollari per la scoperta di vulnerabilità di sicurezza

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 08/10/2025 alle 11:50

Google ha deciso di mettere una taglia sulla testa dei bug che affliggono i suoi sistemi di intelligenza artificiale. La società ha lanciato un programma di bug bounty specificamente dedicato a scovare le falle di sicurezza nei suoi prodotti basati su IA, come Gemini e la Ricerca Google. L'iniziativa mira a mobilitare la comunità globale di ricercatori di sicurezza, incentivandola con ricompense significative per rafforzare le difese di un ecosistema tecnologico sempre più pervasivo e critico.

Il nuovo programma cerca di definire con precisione cosa l'azienda consideri una minaccia reale e cosa, invece, un problema di diversa natura. Si vuole stabilire un perimetro chiaro per la ricerca di vulnerabilità nell'IA, distinguendo tra exploit con impatto diretto sulla sicurezza e questioni legate all'allineamento dei modelli, come i cosiddetti "jailbreak", che restano fuori dal perimetro delle ricompense.

Una distinzione solo parzialmente sensata, perché di fatto forzare un LLM fuori dai suoi guardrail può diventare - e si solito succede - un problema di sicurezza. Anche sicurezza fisica delle persone. Tuttavia l'approccio di Google può avere senso se si vuole separare il classico problema tecnico dalla questione del jailbreaking, la cui soluzione (se esiste) segue per forza strade diverse. 

Il programma di Google classifica le vulnerabilità in diverse categorie di gravità, con un sistema di ricompense a scaglioni. Si arriva fino a 20.000 dollari per le falle più critiche, a cui si possono aggiungere bonus fino a 10.000 dollari per report di alta qualità, portando il premio massimo a 30.000 dollari. Le vulnerabilità coperte includono l'esecuzione di azioni non autorizzate, l'esfiltrazione di dati sensibili e il furto del modello stesso.

Questa approccio strutturato è tipico dei programmi di bug bounty consolidati, che si sono dimostrati uno strumento efficace per migliorare la postura di sicurezza delle aziende, sfruttando un'intelligenza collettiva esterna. La decisione di Google di applicare questo modello all'IA segnala la maturità raggiunta da queste tecnologie e la crescente necessità di proteggerle con metodologie rigorose e collaudate.

Google ha deciso di mettere una taglia sulla testa dei bug che affliggono i suoi sistemi di intelligenza artificiale.

Tuttavia, la scelta di escludere i "jailbreak" e il "prompt injection" diretti dal programma ha generato un dibattito. Google sostiene che questi problemi rappresentino una sfida a lungo termine, meglio affrontabile analizzando le tendenze piuttosto che premiando singole scoperte. Secondo l'azienda, risolvere completamente il problema dei jailbreak potrebbe essere tecnicamente impossibile. 

Un confine netto tra sicurezza e allineamento

La mossa di Google traccia una linea di demarcazione importante tra le vulnerabilità di sicurezza tradizionali, che compromettono l'integrità di un sistema, e i problemi di "allineamento", che riguardano la capacità del modello di aderire a linee guida etiche o operative. Mentre un hacker che sfrutta una falla per rubare dati commette un'azione inequivocabilmente dannosa, un utente che induce il modello a generare contenuti inappropriati attraverso un jailbreak solleva questioni più complesse e con maggiori sfumature.

Questa distinzione riflette una nascente consapevolezza nel settore sulla complessità della sicurezza in ambito AI.

Questa separazione potrebbe quindi essere la strada giusta, utile a concentrare le risorse dove l'impatto è più critico e misurabile. I ricercatori sono ora incentivati a focalizzarsi su scenari di attacco con conseguenze concrete, come la manipolazione di un account utente o la sottrazione di informazioni proprietarie. L'approccio pragmatico di Google potrebbe definire uno standard per il settore, spingendo altre aziende a chiarire le proprie priorità in materia di sicurezza dell'IA.

Il programma di Google classifica le vulnerabilità in diverse categorie di gravità, con un sistema di ricompense a scaglioni.

Sì, però se ci si concentra solo sulla vulnerabilità tecnica si fa un lavoro a metà. È sicuramente desiderabile avere un chatbot che non esfiltra dati, ma lo è anche di più avere un LLM che possa resistere alla prompt injection o, ancora meglio, che non si possa forzare a creare malware. Google fa due passi avanti e uno indietro, lasciando aperta e irrisolta la questione più importante. 

L'azienda californiana ha però affermato di voler gestire i problemi di allineamento, solo su canali diversi.

Resta aperta la domanda su come l'industria nel suo complesso affronterà le zone grigie dell'etica e del comportamento dei modelli, un terreno scivoloso dove la collaborazione tra aziende, ricercatori e società civile diventa non solo utile, ma necessaria.


Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Contenuto esclusivo

Inserisci la tua email per sbloccare l'intero articolo.

Rispettiamo la tua privacy. Non condivideremo mai la tua email con terze parti.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Per colpa dell'Europa Apple Watch verrà castrato con iOS 26.2
  • #2
    iOS 26.2: ecco le novità più importanti in arrivo su iPhone
  • #3
    Galaxy S27 Ultra otterrà la stessa sicurezza degli iPhone
  • #4
    Le auto che guidano da sole ci sono, noi siamo pronti?
  • #5
    Scegli Sorgenia, l’energia che pensa fuori dal trend. Prezzo bloccato per 24 mesi
  • #6
    Android Auto abbandona definitivamente Google Assistant
Articolo 1 di 5
Non ti pago per avviare il PC, scatta la denuncia
Una grande banca statunitense affronta una class action per non aver pagato ai dipendenti il tempo necessario ad avviare i computer prima del turno.
Immagine di Non ti pago per avviare il PC, scatta la denuncia
4
Leggi questo articolo
Articolo 2 di 5
Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Bill Gates paragona l'attuale fase dell'intelligenza artificiale alla bolla delle dot-com di fine anni Novanta, quando molte società Internet risultarono sopravvalutate.
Immagine di Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Leggi questo articolo
Articolo 3 di 5
Non solo costi, le aziende non adottano l'IA perché non sanno come usarla
Il costo dell'IA non è più il vero ostacolo: latenza, flessibilità e capacità sono le sfide principali per le aziende che mirano all'intelligenza artificiale su larga scala.
Immagine di Non solo costi, le aziende non adottano l'IA perché non sanno come usarla
Leggi questo articolo
Articolo 4 di 5
Databreach in una società di sicurezza cinese
La società di cybersecurity Knownsec, con sede in Cina, è al centro di un presunto data breach che espone dati interni e solleva dubbi sulla fiducia nel settore.
Immagine di Databreach in una società di sicurezza cinese
Leggi questo articolo
Articolo 5 di 5
L'inganno della tecnologia al servizio dell'uomo
L'intelligenza artificiale non si adatta a noi: siamo noi che ci adattiamo a lei, modificando pensiero e comportamenti in una bolla perfetta.
Immagine di L'inganno della tecnologia al servizio dell'uomo
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.