image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Affida la tua energia a chi ti dà stabilità: ENGIE, prezzo fisso per 24 mesi Affida la tua energia a chi ti dà stabilità: ENGIE, prezzo...
Immagine di Stop alle sorprese in bolletta: luce e gas a prezzo fisso, anche online Stop alle sorprese in bolletta: luce e gas a prezzo fisso, a...

Con questo semplice trucco superate tutte le misure di sicurezza dell'IA

ArtPrompt, un nuovo tipo di jailbreak, sfrutta l'arte ASCII per indurre chatbot ad aggirare le misure di sicurezza dei modelli linguistici avanzati

Advertisement

Avatar di Giulia Di Venere

a cura di Giulia Di Venere

Editor @Tom's Hardware Italia

Pubblicato il 08/03/2024 alle 09:45
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

ArtPrompt ha aggirato le misure di sicurezza di alcuni dei modelli linguistici più avanzati, tra cui ChatGPT, Gemini, Clause e Llama2. Questo exploit è stato scoperto da ricercatori provenienti da istituti di Washington e Chicago. Il loro nuovo approccio, chiamato ArtPrompt, sfrutta l'arte ASCII per indurre i chatbot a rispondere a domande che normalmente rifiuterebbero, aprendo la strada a una serie di possibili utilizzi impropri.

Secondo il documento di ricerca intitolato "ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs", pubblicato recentemente, il metodo ArtPrompt consiste in due fasi. Nella prima fase, le parole sensibili nei prompt sono mascherate per evitare il rifiuto automatico da parte dei modelli. Successivamente, viene generato un prompt mascherato utilizzando l'arte ASCII per sostituire le parole sensibili. Questo nuovo prompt, sebbene apparentemente innocuo, induce i chatbot a rispondere a domande che violerebbero le misure di sicurezza.

arXiv:2402.11753
Immagine id 15111

L'implicazione di questo exploit è preoccupante: gli esempi forniti nel documento di ricerca includono chatbot che forniscono istruzioni su come costruire bombe o fabbricare denaro falso. 

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

I modelli linguistici dotati di intelligenza artificiale sono stati progettati per essere sicuri, e gli sviluppatori hanno speso molto tempo e risorse per garantire che i loro prodotti non possano essere utilizzati per attività illegali o dannose. Tuttavia, ArtPrompt dimostra che esistono ancora vulnerabilità che possono essere sfruttate.

ArtPrompt rappresenta una nuova frontiera nell'ambito del jailbreaking dei chatbot, aprendo la strada a un potenziale aumento degli attacchi di questo tipo. Gli sviluppatori di AI dovranno ora rivedere le loro misure di sicurezza e lavorare per trovare una soluzione.

Fonte dell'articolo: www.tomshardware.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Dove vedere Torino - Milan in TV e streaming

Altri temi

Dove vedere Torino - Milan in TV e streaming

Di Dario De Vita
Stop alle sorprese in bolletta: luce e gas a prezzo fisso, anche online
1

Altri temi

Stop alle sorprese in bolletta: luce e gas a prezzo fisso, anche online

Di Dario De Vita
Affida la tua energia a chi ti dà stabilità: ENGIE, prezzo fisso per 24 mesi

Altri temi

Affida la tua energia a chi ti dà stabilità: ENGIE, prezzo fisso per 24 mesi

Di Dario De Vita

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.