image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di iRobot in bancarotta: cosa succede ora ai tuoi Roomba? iRobot in bancarotta: cosa succede ora ai tuoi Roomba?...
Immagine di La crisi della RAM paralizza Steam Machine: sarà ancora più cara? La crisi della RAM paralizza Steam Machine: sarà ancora pi�...

Inventato il veleno per "uccidere" le IA, sarà l'arma degli artisti

Nightshade "avvelena" i modelli di intelligenza artificiale generativa, dando potere agli artisti che si sentono in balia delle aziende tecnologiche.

Advertisement

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale @Tom's Hardware Italia

Pubblicato il 30/10/2023 alle 12:03
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Nightshade è uno strumento che permette agli artisti di modificare i pixel delle opere prima di caricarle online, con l’obiettivo di “avvelenare” le intelligenze artificiali che le usano per addestrarsi. Queste modifiche sono invisibili all’occhio umano, ma causano problemi al modello IA, che non darà i risultati sperati.

Lo strumento nasce come risposta alle IA per gli artisti, in particolare per contrastare le aziende che usano le opere per allenare le IA senza permesso. “avvelenare” i modelli porta queste intelligenze artificiali generative a creare risultati inutilizzabili: per fare degli esempi, i cani diventano gatti, le auto diventano mucche e così via. Oltre a questo, Nightshade agisce anche su tutti i concetti simili a quello fornito: se ad esempio l’artista vuole agire sulla parola “cane”, lo strumento agirà anche su “cucciolo”, “husky” e simili.

L’avvelenamento dei dati è estremamente efficace e altrettanto difficile da rimuovere

Il MIT Techonology Review ha potuto visionare la ricerca in anteprima, che è stata portata avanti da un team capitanato da Ben Zhao, professore dell’università di Chicago, e ha l’obiettivo di riequilibrare il potere a favore degli artisti, creando un deterrente contro la violazione dei diritti d’autore. Il team è lo stesso dietro a Glaze, uno strumento usato dagli artisti per “nascondere” il proprio stile ed evitare che venga copiato dalle IA.

Nightshade verrà integrato in Glaze, di modo che gli artisti potranno decidere se “avvelenare” l’IA o limitarsi a nascondere lo stile che caratterizza l’opera; lo strumento inoltre è open source, quindi potrà essere modificato anche da altri sviluppatori, che potranno crearne altre versioni.

L’avvelenamento dei dati è estremamente efficace in quanto difficile da rimuovere: una volta che un modello IA ha imparato qualcosa di sbagliato a causa di Nightshade, è necessario individuare e cancellare ogni singola immagine “malevola” per fare in modo che l’IA generi immagini corrette.

Immagine condivisa dai ricercatori
Immagine id 2963

Il team ha fatto dei test avvelenando Stable Diffusion, rilevando che bastano 50 immagini per inziare a creare problemi: i cani creati dall’IA avevano troppe zampe, o volti irreali; con 300 immagini Stable Diffusion ha iniziato a creare gatti quando gli venivano chiesti cani, segno che l’IA era stata “sabotata” con successo dalle immagini modificate con Nightshade.

Ben Zhao ha ammesso che c’è il rischio che le persone abusino di Nightshade per scopi malevoli; tuttavia, è anche convinto che servirebbero migliaia di campioni per avvelenare a un modello reale e di grandi dimensioni, dal momento che questi sono allenati su miliardi di immagini.

"Non conosciamo ancora difese robuste contro questi attacchi. Non abbiamo ancora visto attacchi con il veleno su modelli di apprendimento automatico moderni nel mondo reale, ma potrebbe essere solo una questione di tempo", afferma Vitaly Shmatikov, un professore dell'Università di Cornell specializzato nella sicurezza dei modelli IA ed esterno alla ricerca.

Gautam Kamath, professore assistente all'Università di Waterloo che si occupa di privacy dei dati e della robustezza dei modelli di intelligenza artificiale, ha affermato: "non scompaiono magicamente per questi nuovi modelli, anzi diventano solo più gravi. Questo è particolarmente vero quando questi modelli diventano più potenti e le persone ripongono sempre più fiducia in essi, poiché gli interessi aumentano nel tempo".

Aziende come OpenAI e Stability AI offrono agli artisti la possibilità di escludere l’uso delle loro immagini per l’addestramento, ma gli artisti sono convinti che non sia abbastanza, in quanto queste politiche di esclusione lasciano comunque alle aziende tutto il potere.

 

Fonte dell'articolo: www.technologyreview.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

La crisi della RAM paralizza Steam Machine: sarà ancora più cara?
7

Hardware

La crisi della RAM paralizza Steam Machine: sarà ancora più cara?

Di Marco Pedrani
iRobot in bancarotta: cosa succede ora ai tuoi Roomba?
9

Hardware

iRobot in bancarotta: cosa succede ora ai tuoi Roomba?

Di Marco Pedrani
Regali di Natale: le migliori offerte tech di PcComponentes da non perdere

Sponsorizzato

Regali di Natale: le migliori offerte tech di PcComponentes da non perdere

Di Antonello Buzzi
Grok continua a diffondere fake news, stavolta tocca a Bondi Beach
2

Hardware

Grok continua a diffondere fake news, stavolta tocca a Bondi Beach

Di Andrea Maiellano
RTX Titan Ada: smontato il prototipo segreto di NVIDIA
3

Hardware

RTX Titan Ada: smontato il prototipo segreto di NVIDIA

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.