image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon
Accedi a Xenforo
Immagine di Ecco il primo chip al mondo progettato completamente dall'IA Ecco il primo chip al mondo progettato completamente dall'IA...
Immagine di Il futuro dei laptop è qui: cosa cambia ora? Il futuro dei laptop è qui: cosa cambia ora?...

Inventato il veleno per "uccidere" le IA, sarà l'arma degli artisti

Nightshade "avvelena" i modelli di intelligenza artificiale generativa, dando potere agli artisti che si sentono in balia delle aziende tecnologiche.

Advertisement

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale

Pubblicato il 30/10/2023 alle 12:03

Nightshade è uno strumento che permette agli artisti di modificare i pixel delle opere prima di caricarle online, con l’obiettivo di “avvelenare” le intelligenze artificiali che le usano per addestrarsi. Queste modifiche sono invisibili all’occhio umano, ma causano problemi al modello IA, che non darà i risultati sperati.

Lo strumento nasce come risposta alle IA per gli artisti, in particolare per contrastare le aziende che usano le opere per allenare le IA senza permesso. “avvelenare” i modelli porta queste intelligenze artificiali generative a creare risultati inutilizzabili: per fare degli esempi, i cani diventano gatti, le auto diventano mucche e così via. Oltre a questo, Nightshade agisce anche su tutti i concetti simili a quello fornito: se ad esempio l’artista vuole agire sulla parola “cane”, lo strumento agirà anche su “cucciolo”, “husky” e simili.

L’avvelenamento dei dati è estremamente efficace e altrettanto difficile da rimuovere

Il MIT Techonology Review ha potuto visionare la ricerca in anteprima, che è stata portata avanti da un team capitanato da Ben Zhao, professore dell’università di Chicago, e ha l’obiettivo di riequilibrare il potere a favore degli artisti, creando un deterrente contro la violazione dei diritti d’autore. Il team è lo stesso dietro a Glaze, uno strumento usato dagli artisti per “nascondere” il proprio stile ed evitare che venga copiato dalle IA.

Nightshade verrà integrato in Glaze, di modo che gli artisti potranno decidere se “avvelenare” l’IA o limitarsi a nascondere lo stile che caratterizza l’opera; lo strumento inoltre è open source, quindi potrà essere modificato anche da altri sviluppatori, che potranno crearne altre versioni.

L’avvelenamento dei dati è estremamente efficace in quanto difficile da rimuovere: una volta che un modello IA ha imparato qualcosa di sbagliato a causa di Nightshade, è necessario individuare e cancellare ogni singola immagine “malevola” per fare in modo che l’IA generi immagini corrette.

Immagine condivisa dai ricercatori Immagine id 2963

Il team ha fatto dei test avvelenando Stable Diffusion, rilevando che bastano 50 immagini per inziare a creare problemi: i cani creati dall’IA avevano troppe zampe, o volti irreali; con 300 immagini Stable Diffusion ha iniziato a creare gatti quando gli venivano chiesti cani, segno che l’IA era stata “sabotata” con successo dalle immagini modificate con Nightshade.

Ben Zhao ha ammesso che c’è il rischio che le persone abusino di Nightshade per scopi malevoli; tuttavia, è anche convinto che servirebbero migliaia di campioni per avvelenare a un modello reale e di grandi dimensioni, dal momento che questi sono allenati su miliardi di immagini.

"Non conosciamo ancora difese robuste contro questi attacchi. Non abbiamo ancora visto attacchi con il veleno su modelli di apprendimento automatico moderni nel mondo reale, ma potrebbe essere solo una questione di tempo", afferma Vitaly Shmatikov, un professore dell'Università di Cornell specializzato nella sicurezza dei modelli IA ed esterno alla ricerca.

Gautam Kamath, professore assistente all'Università di Waterloo che si occupa di privacy dei dati e della robustezza dei modelli di intelligenza artificiale, ha affermato: "non scompaiono magicamente per questi nuovi modelli, anzi diventano solo più gravi. Questo è particolarmente vero quando questi modelli diventano più potenti e le persone ripongono sempre più fiducia in essi, poiché gli interessi aumentano nel tempo".

Aziende come OpenAI e Stability AI offrono agli artisti la possibilità di escludere l’uso delle loro immagini per l’addestramento, ma gli artisti sono convinti che non sia abbastanza, in quanto queste politiche di esclusione lasciano comunque alle aziende tutto il potere.

 

Fonte dell'articolo: www.technologyreview.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione
Advertisement

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Un click per spiarti: 40.000 videocamere accessibili a chiunque, senza password
  • #2
    L'OLED sugli handheld è una pessima idea: indovinate perché?
  • #3
    Reon Pocket Pro, il condizionatore Sony che s’indossa e funziona davvero | Test & Recensione
  • #4
    5 ventilatori da tenere d'occhio in vista del Prime Day
  • #5
    Il futuro dei laptop è qui: cosa cambia ora?
  • #6
    5 friggitrici ad aria da tenere d'occhio in vista del Prime Day
Articolo 1 di 5
Il futuro dei laptop è qui: cosa cambia ora?
Le nuove tecnologie rendono possibile avere laptop compatti e leggeri, ma potentissimi: l'ASUS ROG Zephyrus G14 2025 con GeForce RTX 5080 ne è la prova.
Immagine di Il futuro dei laptop è qui: cosa cambia ora?
1
Leggi questo articolo
Articolo 2 di 5
Ecco il primo chip al mondo progettato completamente dall'IA
Progetto open-source per il design completo di chip: QiMeng rivoluziona lo sviluppo di semiconduttori con strumenti integrati e accessibili.
Immagine di Ecco il primo chip al mondo progettato completamente dall'IA
2
Leggi questo articolo
Articolo 3 di 5
Google Cloud e Spotify down in tutto il mondo: cosa succede?
Google Cloud e Spotify in down per decine di migliaia di utenti: oltre 13.000 segnalazioni per il servizio cloud e 27.000 per la piattaforma musicale.
Immagine di Google Cloud e Spotify down in tutto il mondo: cosa succede?
Leggi questo articolo
Articolo 4 di 5
Cade l'ultimo baluardo delle RAM DDR4: ora è davvero finita
I chip DDR4 diventeranno ancora più costosi nel corso di quest'anno, con aumenti di prezzo previsti per i prossimi mesi.
Immagine di Cade l'ultimo baluardo delle RAM DDR4: ora è davvero finita
1
Leggi questo articolo
Articolo 5 di 5
Storia IA: dal 1940 a ChatGPT, come ci siamo arrivati?
L'intelligenza artificiale non è una moda passeggera, ma una delle rivoluzioni tecnologiche più profonde della nostra epoca.
Immagine di Storia IA: dal 1940 a ChatGPT, come ci siamo arrivati?
1
Leggi questo articolo
Advertisement
Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.