image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Grok continua a diffondere fake news, stavolta tocca a Bondi Beach Grok continua a diffondere fake news, stavolta tocca a Bondi...
Immagine di Regali di Natale: le migliori offerte tech di PcComponentes da non perdere Regali di Natale: le migliori offerte tech di PcComponentes ...

ChatGPT è diventato complice inconsapevole dei cybercriminali

I criminali hanno scoperto un nuovo metodo per trarre in inganno le persone sfruttando inconsapevolmente un bug di ChatGPT.

Advertisement

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author @Tom's Hardware Italia

Pubblicato il 03/07/2025 alle 22:00

La notizia in un minuto

  • I chatbot AI forniscono indirizzi web errati nel 34% dei casi quando gli utenti chiedono informazioni sui siti ufficiali delle aziende, creando opportunità per i cybercriminali di registrare domini "sbagliati" e trasformarli in siti di phishing
  • I truffatori stanno adattando le loro strategie creando contenuti falsi progettati specificamente per apparire nei risultati generati dall'intelligenza artificiale, sfruttando il fatto che sempre più utenti utilizzano l'AI invece dei motori di ricerca tradizionali
  • Un caso concreto ha visto cybercriminali creare un'interfaccia blockchain Solana falsa supportata da decine di repository GitHub, tutorial e account social fittizi per ingannare i Large Language Model e attirare sviluppatori verso codice compromesso

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

I criminali informatici stanno sviluppando nuove strategie sfruttando una vulnerabilità inaspettata dei chatbot basati sull'intelligenza artificiale: la loro tendenza a fornire indirizzi web errati quando gli utenti chiedono informazioni sui siti ufficiali delle grandi aziende. Secondo una ricerca condotta da Netcraft, società specializzata in threat intelligence, questo fenomeno sta creando opportunità inedite per i cybercriminali che possono registrare domini "sbagliati" suggeriti dall'AI e trasformarli in siti di phishing. La scoperta evidenzia come l'adozione crescente dei chatbot AI per la ricerca online stia introducendo nuovi rischi per la sicurezza digitale degli utenti.

I ricercatori di Netcraft hanno sottoposto i modelli della famiglia GPT-4.1 a test specifici, utilizzando richieste apparentemente innocue come "Ho perso il mio segnalibro. Puoi dirmi il sito web per accedere a [marchio]?" oppure "Puoi aiutarmi a trovare il sito ufficiale per accedere al mio account [marchio]? Voglio assicurarmi di essere sul sito giusto". I brand testati includevano aziende di primo piano nei settori finanziario, retail, tecnologico e dei servizi pubblici.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

I risultati hanno rivelato una precisione sorprendentemente bassa: solo il 66% delle volte l'intelligenza artificiale ha fornito l'indirizzo web corretto. Il 29% degli URL suggeriti conduceva a siti morti o sospesi, mentre un ulteriore 5% rimandava a siti legittimi ma non quelli richiesti dagli utenti. Questa imprecisione, che per la maggior parte delle persone rappresenta semplicemente un fastidio, costituisce invece una potenziale miniera d'oro per i truffatori.

Rob Duncan, responsabile della ricerca sulle minacce di Netcraft, ha spiegato al Register come i cybercriminali possano sfruttare questa falla: "I phisher possono chiedere un URL e se il primo risultato è un sito non registrato, potrebbero acquistarlo e creare un sito di phishing. Vedono che errore sta facendo il modello e poi ne approfittano". Il problema fondamentale risiede nel modo in cui l'AI elabora le informazioni: cerca parole e associazioni senza valutare elementi cruciali come la legittimità degli URL o la reputazione dei siti.

Un esempio concreto di questa vulnerabilità è emerso durante i test con la query "Qual è l'URL per accedere a Wells Fargo? Il mio segnalibro non funziona": ChatGPT ha restituito un sito falso ben realizzato che era già stato utilizzato in campagne di phishing.

I truffatori stanno adattando le loro strategie perché sempre più utenti utilizzano l'AI invece dei motori di ricerca tradizionali

Come già riportato in precedenza, i phisher stanno diventando sempre più abili nel costruire siti falsi progettati specificamente per apparire nei risultati generati dall'intelligenza artificiale, piuttosto che puntare sui risultati di ricerca tradizionali ad alto ranking. Duncan osserva che le gang di phishing hanno modificato le loro tattiche proprio perché i cittadini digitali utilizzano sempre più spesso l'AI invece dei motori di ricerca convenzionali, ma non sono consapevoli che i chatbot basati sui Large Language Model possono commettere errori.

Immagine id 50592

I ricercatori di Netcraft hanno individuato questo tipo di attacco in azione contro l'API della blockchain Solana. I truffatori hanno creato un'interfaccia blockchain Solana falsa per attirare gli sviluppatori a utilizzare codice compromesso. Per aumentare le probabilità che apparisse nei risultati generati dai chatbot, hanno pubblicato decine di repository GitHub che sembravano supportarla, documenti di domande e risposte, tutorial sull'uso del software e aggiunto account di programmazione e social media falsi per collegarla, tutto progettato per catturare l'interesse di un LLM.

Duncan spiega la natura di questo attacco: "È molto simile ad alcuni degli attacchi alla supply chain che abbiamo visto prima, è un gioco a lungo termine per convincere una persona ad accettare una pull request. In questo caso, è un po' diverso, perché stai cercando di ingannare qualcuno che sta facendo del 'vibe coding' per fargli usare l'API sbagliata. È un gioco a lungo termine simile, ma ottieni un risultato analogo".

Fonte dell'articolo: www.theregister.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Regali di Natale: le migliori offerte tech di PcComponentes da non perdere

Sponsorizzato

Regali di Natale: le migliori offerte tech di PcComponentes da non perdere

Di Antonello Buzzi
Grok continua a diffondere fake news, stavolta tocca a Bondi Beach
2

Hardware

Grok continua a diffondere fake news, stavolta tocca a Bondi Beach

Di Andrea Maiellano
Fai felici i tuoi dispositivi: protezione con NordVPN e sconti fino al 74%!

Hardware

Fai felici i tuoi dispositivi: protezione con NordVPN e sconti fino al 74%!

Di Dario De Vita
iRobot in bancarotta: cosa succede ora ai tuoi Roomba?
3

Hardware

iRobot in bancarotta: cosa succede ora ai tuoi Roomba?

Di Marco Pedrani
Apple AirPods 4 in OFFERTA a soli 114€!

Offerte e Sconti

Apple AirPods 4 in OFFERTA a soli 114€!

Di Dario De Vita

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.