image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di La crisi della RAM paralizza Steam Machine: sarà ancora più cara? La crisi della RAM paralizza Steam Machine: sarà ancora pi�...
Immagine di Sfiorata la collisione: caos orbitale tra Cina e Starlink Sfiorata la collisione: caos orbitale tra Cina e Starlink...

Claude e ChatGPT a rischio? Bastano 250 file per aprire una backdoor

Uno studio di Anthropic e Alan Turing Institute mostra che una quantità minima di dati dannosi può alterare il comportamento di un LLM.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 16/12/2025 alle 12:45

La notizia in un minuto

  • Una ricerca di Anthropic rivela che bastano solo 250 documenti dannosi per compromettere un LLM, una soglia drammaticamente più bassa delle stime precedenti e indipendente dalle dimensioni del modello
  • Il data poisoning sfrutta la fase di training inserendo contenuti progettati per creare vulnerabilità attivabili, ma la vera sfida per gli attaccanti resta l'accesso alla pipeline di raccolta dati
  • La scoperta impone al settore di rivedere i protocolli di sicurezza, dimostrando che la qualità dei dati conta più della potenza computazionale, con implicazioni rilevanti per l'AI Act europeo

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Una ricerca congiunta condotta da Anthropic, l'Alan Turing Institute e l'UK AI Security Institute ha rivelato che bastano appena 250 documenti dannosi per creare una backdoor in un LLM, indipendentemente dalle dimensioni del modello o dal volume complessivo dei dati di addestramento. Si tratta di una soglia drammaticamente più bassa rispetto alle stime precedenti, che ipotizzavano la necessità di controllare una porzione molto più significativa del dataset di training per influenzare il comportamento di questi sistemi.

La società dietro Claude, uno dei principali chatbot basati su intelligenza artificiale in competizione con ChatGPT e Gemini, ha pubblicato i risultati in un post dettagliato sul proprio blog. La scoperta ribalta le certezze consolidate sulla robustezza dei sistemi di machine learning su larga scala, dimostrando che la superficie d'attacco è molto più ampia di quanto la comunità scientifica ritenesse. I 250 documenti rappresentano una frazione infinitesimale dei miliardi di parametri e terabyte di informazioni che costituiscono il corpus di addestramento di un LLM moderno, eppure sono sufficienti a compromettere l'integrità del sistema.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Il meccanismo di questo tipo di attacco, definito "data poisoning", sfrutta il modo in cui le reti neurali apprendono dai dati durante la fase di training. Gli aggressori possono inserire contenuti specificamente progettati nel dataset di addestramento che, una volta assimilati dal modello, creano vulnerabilità attivabili attraverso determinati input. È come nascondere una porta segreta nella struttura stessa dell'intelligenza artificiale, una porta che può essere aperta solo da chi conosce la combinazione giusta.

Bastano 250 documenti dannosi per creare una backdoor in un LLM, indipendentemente dalle dimensioni del modello o dal volume dei dati di addestramento

Tuttavia, Anthropic tiene a precisare che questa scoperta non rappresenta necessariamente un via libera per potenziali attaccanti. La vera sfida per chi volesse sfruttare questa vulnerabilità non risiede tanto nel numero di esempi da inserire, quanto nell'accesso effettivo al processo di raccolta e selezione dei dati che finiscono nel training del modello. Le aziende che sviluppano LLM mantengono controlli rigorosi sulle fonti dei loro dataset, e ottenere la capacità di iniettare contenuti specifici in questa pipeline rimane un ostacolo significativo.

La ricerca evidenzia inoltre che esistono difese aggiuntive che complicano ulteriormente la vita agli attaccanti. Le tecniche di post-training, come il reinforcement learning from human feedback (RLHF) utilizzato per affinare il comportamento dei modelli dopo l'addestramento iniziale, possono mitigare gli effetti del data poisoning. Anthropic sottolinea che progettare attacchi capaci di resistere a queste contromisure richiede competenze sofisticate e risorse considerevoli.

Fonte dell'articolo: www.pcgamer.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Sfiorata la collisione: caos orbitale tra Cina e Starlink
5

Hardware

Sfiorata la collisione: caos orbitale tra Cina e Starlink

Di Antonello Buzzi
La crisi della RAM paralizza Steam Machine: sarà ancora più cara?
9

Hardware

La crisi della RAM paralizza Steam Machine: sarà ancora più cara?

Di Marco Pedrani
MacBook Air a 649€ con rimborso Unieuro fino a 300€

Hardware

MacBook Air a 649€ con rimborso Unieuro fino a 300€

Di Dario De Vita
iRobot da il via alla ristrutturazione: cosa succede ora ai tuoi Roomba? [Aggiornata]

Hardware

iRobot da il via alla ristrutturazione: cosa succede ora ai tuoi Roomba? [Aggiornata]

Di Marco Pedrani
Regali di Natale: le migliori offerte tech di PcComponentes da non perdere

Sponsorizzato

Regali di Natale: le migliori offerte tech di PcComponentes da non perdere

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.