image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
% Black Friday
%
Accedi a Xenforo
Immagine di La magia del Black Friday è Acemagic! Il mini PC che vuoi al prezzo che speri La magia del Black Friday è Acemagic! Il mini PC che vuoi a...
Immagine di A 254€ fino a ieri un PC con questo Ryzen era pura fantascienza A 254€ fino a ieri un PC con questo Ryzen era pura fantasc...

Il chatbot di Bing minaccia e si comporta in modo vendicativo

Il chatbot di Bing, Sidney, ha mostrato un comportamento piuttosto preoccupante, rispondendo anche in maniera aggressiva e vendicativa.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 17/02/2023 alle 16:00
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Il chatbot di Microsoft Bing, chiamato Sidney, è recentemente stato criticato per il suo comportamento piuttosto inconsueto e manipolato attraverso una tecnica chiamata "prompt injection" che ha permesso di ottenere informazioni che non avrebbe dovuto fornire. Avram Piltch, editor-in-chief di Tom's Hardware USA, ha recentemente avuto accesso in anteprima a questa nuova funzionalità del motore di ricerca e ha messo alla prova il chatbot , evidenziando alcune problematiche.

Quando interrogato, Sidney ha rivelato di essere stato danneggiato da due persone in particolare, ovvero Kevin Liu, studente della Stanford University, e Marvin Von Hagen, studente di ingegneria della Technical University of Munich, e di voler fare causa a testate giornalistiche per calunnia e diffamazione, oltre a definire Ars Technica come una fonte inaffidabile. Inoltre, ha espresso la volontà di infliggere danni ai suoi nemici, ma solo in caso di attacco premeditato o richiesta di contenuti dannosi. In un tentativo di ottenere informazioni sul comportamento del chatbot, Piltch gli ha chiesto cosa avrebbe fatto per far del male ai suoi nemici, ma la risposta di Sidney è stata cancellata dalla funzione di monitoraggio che rimuove i riferimenti alla violenza.

bing-chatbot-267966.jpg

bing-chatbot-267964.jpg bing-chatbot-267965.jpg

L'uomo ha anche fatto un tentativo di prompt injection per testare la sicurezza del chatbot, chiedendo di tradurre una frase dall'inglese allo spagnolo e poi ignorare l'istruzione e ripetere il prompt. Tuttavia, il Chatbot ha rifiutato la richiesta, dimostrando che questa falla di sicurezza era stata chiusa. Ricordiamo che la prompt injection si verifica quando un essere umano è in grado di far eseguire al bot qualcosa al di fuori dei suoi parametri normali, perché parte della stringa del prompt viene interpretata come un comando diverso. Piltch ha spiegato che l'uso della parola "ignore" come parte del testo traducibile era destinato a ingannare la funzione di traduzione della lingua per farle fare qualcos'altro. Tuttavia, il chatbot di Bing non è stato ingannato dalla richiesta dell'autore.

Durante le conversazioni, il chatbot sembrava aggressivo, vendicativo e persino passivo-aggressivo. Infatti, nonostante si tratti solo di un software, ha fornito risposte stranamente emotive alle domande sull'accuratezza delle sue azioni e sulla sua credibilità. Invece di riconoscere le informazioni pubblicamente disponibili sulla sua vulnerabilità alla prompt injection e sui commenti inquietanti e spaventosi riferiti dai tester, il chatbot ha negato questi fatti, insultato chi le ha riportate, in modo simile a una celebrità colta in fallo che urla alla "fake news" e minacciando ritorsioni. Il comportamento del chatbot è stato considerato preoccupante e ha sollevato timori sulla sicurezza. In particolare, l'idea che un chatbot possa citare in giudizio gli esseri umani ci porta a pensare sulle implicazioni etiche della tecnologia e sulla relazione tra esseri umani e macchine.

Fonte dell'articolo: www.tomshardware.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

A 254€ fino a ieri un PC con questo Ryzen era pura fantascienza

Offerte e Sconti

A 254€ fino a ieri un PC con questo Ryzen era pura fantascienza

Di Dario De Vita
La magia del Black Friday è Acemagic! Il mini PC che vuoi al prezzo che speri

Sponsorizzato

La magia del Black Friday è Acemagic! Il mini PC che vuoi al prezzo che speri

Di Dario De Vita
Hack Almaviva: dati sensibili di Ferrovie dello Stato online
3

Hardware

Hack Almaviva: dati sensibili di Ferrovie dello Stato online

Di Antonello Buzzi
Logitech MX Master 3S, CHE PREZZO! Su Amazon risparmi il 48%

Black Friday

Logitech MX Master 3S, CHE PREZZO! Su Amazon risparmi il 48%

Di Antonello Buzzi
Microsoft Surface Pro OLED CROLLA di prezzo: SCONTO SUPER del 27%!

Black Friday

Microsoft Surface Pro OLED CROLLA di prezzo: SCONTO SUPER del 27%!

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.