image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di IA a pagamento? No grazie (e ti spiego perché) IA a pagamento? No grazie (e ti spiego perché)...
Immagine di NVIDIA sta preparando una GPU superiore alla RTX 5090 per quest'anno NVIDIA sta preparando una GPU superiore alla RTX 5090 per qu...

Per OpenAI i browser AI resteranno vulnerabili agli attacchi

Secondo OpenAI, l’iniezione di prompt è una minaccia destinata a persistere nei browser potenziati con intelligenza artificiale.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 23/12/2025 alle 11:30

La notizia in un minuto

  • OpenAI ammette che gli attacchi di prompt injection contro agenti AI come ChatGPT Atlas rappresentano una minaccia persistente che probabilmente non verrà mai eliminata completamente, paragonabile alle truffe tradizionali
  • La difesa si basa su un "attaccante automatizzato basato su LLM" addestrato con apprendimento per rinforzo che ha identificato strategie di attacco inedite durante test che simulano workflow dannosi su centinaia di passaggi
  • Gli esperti avvertono che i browser agentici presentano un equilibrio critico tra autonomia e accesso a dati sensibili, con un profilo di rischio attuale che potrebbe non giustificare i benefici per la maggior parte degli utenti

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Il panorama degli agenti AI basati su browser si trova ad affrontare una realtà scomoda: gli attacchi di prompt injection rappresentano una minaccia persistente che probabilmente non verrà mai eliminata completamente. OpenAI ha riconosciuto apertamente questa sfida in un post pubblicato lunedì, ammettendo che la "modalità agente" di ChatGPT Atlas amplia significativamente la superficie di attacco.

L'iniezione di prompt è una tecnica di attacco che manipola gli agenti AI inducendoli a seguire istruzioni malevole, spesso nascoste all'interno di pagine web o messaggi di posta elettronica. Secondo OpenAI, questo tipo di minaccia è paragonabile alle truffe e all'ingegneria sociale tradizionale: un problema di sicurezza destinato a persistere nel lungo termine, che richiede un rafforzamento continuo delle difese piuttosto che una soluzione definitiva. Una posizione condivisa anche dal National Cyber Security Centre britannico, che ha avvertito all'inizio del mese che questi attacchi contro le applicazioni di AI generativa potrebbero non essere mai completamente mitigati.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

ChatGPT Atlas, lanciato da OpenAI lo scorso ottobre, è diventato rapidamente un banco di prova per i ricercatori di sicurezza. Nel giro di poche ore dal rilascio, erano già disponibili dimostrazioni che mostravano come bastassero poche parole inserite in un documento Google Docs per alterare il comportamento del browser sottostante. Anche Brave è intervenuta pubblicando un'analisi tecnica che evidenziava come l'iniezione indiretta di prompt rappresenti una sfida sistemica per tutti i browser potenziati con AI, incluso Comet di Perplexity.

La risposta di OpenAI a questa sfida di Sisifo si basa su un approccio proattivo: un ciclo di risposta rapida che secondo l'azienda sta già mostrando risultati promettenti nell'individuazione di strategie di attacco innovative prima che vengano sfruttate sul campo. Ma l'elemento distintivo della strategia di OpenAI è il cosiddetto "attaccante automatizzato basato su LLM", essenzialmente un bot addestrato tramite apprendimento per rinforzo a comportarsi come un hacker che cerca metodi per infiltrare istruzioni malevole verso un agente AI.

Il bot può testare gli attacchi in simulazione e studiare il ragionamento interno dell'AI bersaglio, un vantaggio che gli attaccanti esterni non possiedono

Questa tecnica, comune nei test di sicurezza AI, consente al sistema di esplorare casi limite e scenari complessi in modo rapido. Il bot sviluppato da OpenAI è in grado di simulare workflow dannosi a lungo termine che si sviluppano nell'arco di decine o addirittura centinaia di passaggi. Durante i test interni, il sistema ha identificato strategie di attacco inedite che non erano emerse né durante le campagne di red teaming condotte da esperti umani né nei report esterni di sicurezza.

In una dimostrazione pratica, OpenAI ha mostrato come l'attaccante automatizzato sia riuscito a inserire un'email malevola nella casella di posta di un utente. Quando l'agente AI ha successivamente scansionato la posta in arrivo, ha seguito le istruzioni nascoste nel messaggio e ha inviato una lettera di dimissioni invece di preparare una risposta di assenza dall'ufficio. Dopo l'aggiornamento di sicurezza implementato, la modalità agente è stata in grado di rilevare il tentativo di iniezione e segnalarlo all'utente, secondo quanto dichiarato dall'azienda.

L'approccio non è completamente dissimile da quello adottato da concorrenti come Anthropic e Google, che sostengono la necessità di difese stratificate e continuamente sottoposte a stress test. Google, ad esempio, sta concentrando i propri sforzi su controlli architetturali e a livello di policy per i sistemi agentici. Tuttavia, OpenAI non ha voluto condividere dati quantitativi sulla riduzione degli attacchi riusciti dopo l'implementazione degli aggiornamenti di sicurezza, limitandosi a confermare la collaborazione con terze parti per rafforzare Atlas contro le iniezioni di prompt già prima del lancio.

Rami McCarthy, ricercatore principale di sicurezza presso la società di cybersecurity Wiz, offre una prospettiva critica sull'efficacia delle contromisure. Secondo McCarthy, l'apprendimento per rinforzo è solo una parte della soluzione, e il vero nodo della questione sta nel bilanciamento tra autonomia e accesso. I browser agentici si trovano in una posizione particolarmente delicata: autonomia moderata combinata con accesso molto elevato a dati sensibili. Le raccomandazioni attuali riflettono questo compromesso, suggerendo di limitare l'accesso autenticato per ridurre l'esposizione e di richiedere conferme esplicite per limitare l'autonomia.

OpenAI ha implementato alcune di queste raccomandazioni: Atlas è addestrato a richiedere conferma all'utente prima di inviare messaggi o effettuare pagamenti. L'azienda consiglia inoltre agli utenti di fornire istruzioni specifiche agli agenti, evitando direttive generiche come "accedi alla mia casella email e fai quello che ritieni necessario". Istruzioni troppo ampie facilitano l'influenza di contenuti nascosti o malevoli sull'agente, anche quando sono attive misure di protezione.

Fonte dell'articolo: techcrunch.com

Le notizie più lette

#1
NVIDIA sta preparando una GPU superiore alla RTX 5090 per quest'anno
3

Hardware

NVIDIA sta preparando una GPU superiore alla RTX 5090 per quest'anno

#2
IA a pagamento? No grazie (e ti spiego perché)

Hardware

IA a pagamento? No grazie (e ti spiego perché)

#3
NotebookLM si prepara a integrare una funzione di Gemini

Hardware

NotebookLM si prepara a integrare una funzione di Gemini

#4
Apple è pronta a rinnovare la gamma iPad e MacBook a breve
3

Hardware

Apple è pronta a rinnovare la gamma iPad e MacBook a breve

#5
Windows 11 abbandona i vecchi driver di stampa
1

Hardware

Windows 11 abbandona i vecchi driver di stampa

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

NVIDIA sta preparando una GPU superiore alla RTX 5090 per quest'anno
3

Hardware

NVIDIA sta preparando una GPU superiore alla RTX 5090 per quest'anno

Di Antonello Buzzi
IA a pagamento? No grazie (e ti spiego perché)

Hardware

IA a pagamento? No grazie (e ti spiego perché)

Di Andrea Ferrario
NotebookLM si prepara a integrare una funzione di Gemini

Hardware

NotebookLM si prepara a integrare una funzione di Gemini

Di Antonello Buzzi
Apple è pronta a rinnovare la gamma iPad e MacBook a breve
3

Hardware

Apple è pronta a rinnovare la gamma iPad e MacBook a breve

Di Antonello Buzzi
5 CPU AMD tornano alla ribalta: combo e prezzi shock su Aliexpress

Hardware

5 CPU AMD tornano alla ribalta: combo e prezzi shock su Aliexpress

Di Dario De Vita

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.