image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Con ENGIE, il prezzo dei tuoi kWh resta lo stesso per 2 anni Con ENGIE, il prezzo dei tuoi kWh resta lo stesso per 2 anni...
Immagine di Con Alperia Smile Easy l’energia è stabile, anche quando il mercato oscilla Con Alperia Smile Easy l’energia è stabile, anche quando ...

Con questo semplice trucco superate tutte le misure di sicurezza dell'IA

ArtPrompt, un nuovo tipo di jailbreak, sfrutta l'arte ASCII per indurre chatbot ad aggirare le misure di sicurezza dei modelli linguistici avanzati

Advertisement

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Giulia Di Venere

a cura di Giulia Di Venere

Editor

Pubblicato il 08/03/2024 alle 09:45

ArtPrompt ha aggirato le misure di sicurezza di alcuni dei modelli linguistici più avanzati, tra cui ChatGPT, Gemini, Clause e Llama2. Questo exploit è stato scoperto da ricercatori provenienti da istituti di Washington e Chicago. Il loro nuovo approccio, chiamato ArtPrompt, sfrutta l'arte ASCII per indurre i chatbot a rispondere a domande che normalmente rifiuterebbero, aprendo la strada a una serie di possibili utilizzi impropri.

Secondo il documento di ricerca intitolato "ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs", pubblicato recentemente, il metodo ArtPrompt consiste in due fasi. Nella prima fase, le parole sensibili nei prompt sono mascherate per evitare il rifiuto automatico da parte dei modelli. Successivamente, viene generato un prompt mascherato utilizzando l'arte ASCII per sostituire le parole sensibili. Questo nuovo prompt, sebbene apparentemente innocuo, induce i chatbot a rispondere a domande che violerebbero le misure di sicurezza.

arXiv:2402.11753
Immagine id 15111

L'implicazione di questo exploit è preoccupante: gli esempi forniti nel documento di ricerca includono chatbot che forniscono istruzioni su come costruire bombe o fabbricare denaro falso. 

I modelli linguistici dotati di intelligenza artificiale sono stati progettati per essere sicuri, e gli sviluppatori hanno speso molto tempo e risorse per garantire che i loro prodotti non possano essere utilizzati per attività illegali o dannose. Tuttavia, ArtPrompt dimostra che esistono ancora vulnerabilità che possono essere sfruttate.

ArtPrompt rappresenta una nuova frontiera nell'ambito del jailbreaking dei chatbot, aprendo la strada a un potenziale aumento degli attacchi di questo tipo. Gli sviluppatori di AI dovranno ora rivedere le loro misure di sicurezza e lavorare per trovare una soluzione.

Fonte dell'articolo: www.tomshardware.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione
Advertisement

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Io non credo più che GTA 6 uscirà nel 2026
  • #2
    Addio limiti ottici: arrivano i materiali giromorfi
  • #3
    Il 6G abbatterà ogni limite di copertura
  • #4
    NVIDIA frena le RTX 50 SUPER per la crisi GDDR7
  • #5
    GTA 6: il sito ufficiale conferma uscita solo per console
  • #6
    Per colpa dell'Europa Apple Watch verrà castrato con iOS 26.2
Articolo 1 di 3
Con Alperia Smile Easy l’energia è stabile, anche quando il mercato oscilla
Blocca le oscillazioni del mercato con la protezione di Alperia Smile Easy. Sottoscrivibile solo online. Quota fissa 96€/POD/1° anno, dal 2° anno 144€.
Immagine di Con Alperia Smile Easy l’energia è stabile, anche quando il mercato oscilla
Leggi questo articolo
Articolo 2 di 3
Con ENGIE, il prezzo dei tuoi kWh resta lo stesso per 2 anni
Vuoi pagare sempre gli stessi kWh della tua bolletta di luce o gas? Pochi offrono l'offerta adatta, e tra questi c'è ENGIE. Fino al 13 novembre.
Immagine di Con ENGIE, il prezzo dei tuoi kWh resta lo stesso per 2 anni
Leggi questo articolo
Articolo 3 di 3
Prezzi di luce e gas più stabili? Ora puoi bloccarli con la giusta offerta
Il costo della materia prima bloccato per 12 mesi è possibile con l'offerta giusta. OCTOPUS te la da, ma solo per un tempo limitato.
Immagine di Prezzi di luce e gas più stabili? Ora puoi bloccarli con la giusta offerta
Leggi questo articolo
Advertisement
Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.