image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Starlink si espande: via libera ad altri 7.500 satelliti Starlink si espande: via libera ad altri 7.500 satelliti...
Immagine di OpenAI sta raccogliendo dati sensibili: cosa succede? OpenAI sta raccogliendo dati sensibili: cosa succede?...

Claude e ChatGPT a rischio? Bastano 250 file per aprire una backdoor

Uno studio di Anthropic e Alan Turing Institute mostra che una quantità minima di dati dannosi può alterare il comportamento di un LLM.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 16/12/2025 alle 12:45

La notizia in un minuto

  • Una ricerca di Anthropic rivela che bastano solo 250 documenti dannosi per compromettere un LLM, una soglia drammaticamente più bassa delle stime precedenti e indipendente dalle dimensioni del modello
  • Il data poisoning sfrutta la fase di training inserendo contenuti progettati per creare vulnerabilità attivabili, ma la vera sfida per gli attaccanti resta l'accesso alla pipeline di raccolta dati
  • La scoperta impone al settore di rivedere i protocolli di sicurezza, dimostrando che la qualità dei dati conta più della potenza computazionale, con implicazioni rilevanti per l'AI Act europeo

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Una ricerca congiunta condotta da Anthropic, l'Alan Turing Institute e l'UK AI Security Institute ha rivelato che bastano appena 250 documenti dannosi per creare una backdoor in un LLM, indipendentemente dalle dimensioni del modello o dal volume complessivo dei dati di addestramento. Si tratta di una soglia drammaticamente più bassa rispetto alle stime precedenti, che ipotizzavano la necessità di controllare una porzione molto più significativa del dataset di training per influenzare il comportamento di questi sistemi.

La società dietro Claude, uno dei principali chatbot basati su intelligenza artificiale in competizione con ChatGPT e Gemini, ha pubblicato i risultati in un post dettagliato sul proprio blog. La scoperta ribalta le certezze consolidate sulla robustezza dei sistemi di machine learning su larga scala, dimostrando che la superficie d'attacco è molto più ampia di quanto la comunità scientifica ritenesse. I 250 documenti rappresentano una frazione infinitesimale dei miliardi di parametri e terabyte di informazioni che costituiscono il corpus di addestramento di un LLM moderno, eppure sono sufficienti a compromettere l'integrità del sistema.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Il meccanismo di questo tipo di attacco, definito "data poisoning", sfrutta il modo in cui le reti neurali apprendono dai dati durante la fase di training. Gli aggressori possono inserire contenuti specificamente progettati nel dataset di addestramento che, una volta assimilati dal modello, creano vulnerabilità attivabili attraverso determinati input. È come nascondere una porta segreta nella struttura stessa dell'intelligenza artificiale, una porta che può essere aperta solo da chi conosce la combinazione giusta.

Bastano 250 documenti dannosi per creare una backdoor in un LLM, indipendentemente dalle dimensioni del modello o dal volume dei dati di addestramento

Tuttavia, Anthropic tiene a precisare che questa scoperta non rappresenta necessariamente un via libera per potenziali attaccanti. La vera sfida per chi volesse sfruttare questa vulnerabilità non risiede tanto nel numero di esempi da inserire, quanto nell'accesso effettivo al processo di raccolta e selezione dei dati che finiscono nel training del modello. Le aziende che sviluppano LLM mantengono controlli rigorosi sulle fonti dei loro dataset, e ottenere la capacità di iniettare contenuti specifici in questa pipeline rimane un ostacolo significativo.

La ricerca evidenzia inoltre che esistono difese aggiuntive che complicano ulteriormente la vita agli attaccanti. Le tecniche di post-training, come il reinforcement learning from human feedback (RLHF) utilizzato per affinare il comportamento dei modelli dopo l'addestramento iniziale, possono mitigare gli effetti del data poisoning. Anthropic sottolinea che progettare attacchi capaci di resistere a queste contromisure richiede competenze sofisticate e risorse considerevoli.

Fonte dell'articolo: www.pcgamer.com

Le notizie più lette

#1
NordVPN vs ExpressVPN: qual è la migliore?
3

Hardware

NordVPN vs ExpressVPN: qual è la migliore?

#2
5 motivi per cui dovreste usare una VPN
1

Hardware

5 motivi per cui dovreste usare una VPN

#3
Maxi violazione su Instagram: rubati i dati di 17,5 milioni di utenti
6

Smartphone

Maxi violazione su Instagram: rubati i dati di 17,5 milioni di utenti

#4
OpenAI sta raccogliendo dati sensibili: cosa succede?
4

Hardware

OpenAI sta raccogliendo dati sensibili: cosa succede?

#5
I migliori annunci del CES 2026 per dispositivi Apple

CES 2026

I migliori annunci del CES 2026 per dispositivi Apple

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

OpenAI sta raccogliendo dati sensibili: cosa succede?

Hardware

OpenAI sta raccogliendo dati sensibili: cosa succede?

Di Andrea Maiellano
Starlink si espande: via libera ad altri 7.500 satelliti

Hardware

Starlink si espande: via libera ad altri 7.500 satelliti

Di Andrea Maiellano
20 anni di MacBook Pro fra innovazione e rivoluzione

Speciale

20 anni di MacBook Pro fra innovazione e rivoluzione

Di Andrea Maiellano
Una nuova tecnologia ridefinisce le regole dell’ottica

Hardware

Una nuova tecnologia ridefinisce le regole dell’ottica

Di Antonello Buzzi
Micron risponde alle critiche sulla chiusura di Crucial

Hardware

Micron risponde alle critiche sulla chiusura di Crucial

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.