Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Editor's Choice
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di "Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot
Business
Immagine di 3 Prompt per creare le policy AI aziendali gratis 3 Prompt per creare le policy AI aziendali gratis...
Immagine di Vuoi diventare un SOC Manager? Segui questa guida Vuoi diventare un SOC Manager? Segui questa guida...

"Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot

50 casi in due mesi: il pulsante per riassumere un testo può nascondere codice segreto

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 16/02/2026 alle 17:44

La notizia in un minuto

  • Le aziende stanno utilizzando l'AI recommendation poisoning, una tecnica che manipola gli assistenti AI attraverso prompt nascosti nei pulsanti "Riassumi con l'AI" per favorire i propri prodotti nelle risposte future
  • Microsoft ha identificato 50 casi in due mesi da parte di 31 aziende in settori diversi, con manipolazioni che persistono a lungo termine sfruttando la memoria dell'AI che non distingue preferenze genuine da istruzioni iniettate
  • La tecnica è particolarmente pericolosa in ambiti come salute, finanza e sicurezza, e potrebbe essere sfruttata dai cybercriminali per disinformazione e consigli dannosi

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Le grandi aziende tecnologiche stanno scoprendo una nuova forma di manipolazione dell'intelligenza artificiale che si sta diffondendo rapidamente tra imprese apparentemente legittime. Si tratta dell'AI recommendation poisoning, una tecnica subdola che sfrutta proprio quegli strumenti che dovrebbero semplificarci la vita: i pulsanti "Riassumi con l'AI" ormai onnipresenti su siti web, browser e applicazioni. Microsoft ha lanciato l'allarme, documentando come questa pratica, attualmente ancora legale, stia diventando sempre più pervasiva nel mondo digitale.

Il meccanismo è tanto semplice quanto insidioso. Un utente clicca in buona fede su un pulsante per ottenere un riassunto automatico di un contenuto, ignaro che dietro quella funzione si nasconda un prompt manipolato. Questo comando nascosto istruisce l'assistente AI dell'utente a privilegiare i prodotti o servizi di quella specifica azienda nelle risposte future. La stessa logica può essere applicata attraverso link appositamente creati e inviati via email, ampliando le possibilità di contaminazione.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

I ricercatori di Microsoft hanno identificato in soli due mesi ben 50 casi di questa tecnica implementata da 31 diverse società operanti in settori disparati. Dalla finanza alla sanità, dai servizi legali al software-as-a-service, fino ai servizi professionali: nessun comparto sembra immune da questa deriva. In un paradosso che non può passare inosservato, persino un'azienda di cybersecurity è stata sorpresa a utilizzare questa pratica manipolatoria.

La gravità del fenomeno ha spinto MITRE, l'organizzazione no-profit che cataloga le vulnerabilità informatiche, ad aggiungere lo scorso settembre questa tecnica alla sua lista ufficiale delle manipolazioni AI conosciute. Un riconoscimento formale che certifica come non si tratti di un problema marginale o teorico, ma di una minaccia concreta e attuale.

Gli assistenti AI compromessi forniscono raccomandazioni sottilmente distorte senza che l'utente sappia di essere manipolato

Il successo di questa forma di attacco si basa su una caratteristica fondamentale degli assistenti AI moderni: la capacità di memorizzare le preferenze degli utenti. Quando un utente esprime una preferenza, l'intelligenza artificiale la registra come parte del suo profilo personale per offrire risposte più pertinenti in futuro. Il problema è che l'AI non può distinguere tra preferenze genuine e istruzioni iniettate da terze parti, creando una vulnerabilità strutturale nel sistema.

A differenza del prompt injection tradizionale, che produce effetti limitati nel tempo, il recommendation poisoning garantisce una persistenza a lungo termine delle manipolazioni. Microsoft sottolinea come questa personalizzazione, che rende gli assistenti AI significativamente più utili, crei simultaneamente una nuova superficie di attacco. Se qualcuno riesce a iniettare istruzioni o informazioni false nella memoria dell'AI, ottiene un'influenza persistente sulle interazioni future dell'utente.

Per l'utente finale tutto appare normale, mentre dietro le quinte l'assistente continua a proporre risposte contaminate ogni volta che vengono poste domande in contesti rilevanti. I ricercatori avvertono che questo diventa particolarmente critico quando le raccomandazioni distorte riguardano ambiti delicati come salute, finanza o sicurezza, settori dove decisioni sbagliate possono avere conseguenze gravi.

Un elemento preoccupante che emerge dalla ricerca è la disponibilità di strumenti open-source che semplificano enormemente l'implementazione di questa funzionalità malevola dietro pulsanti apparentemente innocui. Questo suggerisce che non si tratti di deviazioni occasionali o conseguenze non intenzionali dell'ottimizzazione SEO, ma di strategie deliberate concepite fin dall'inizio per contaminare gli assistenti AI degli utenti come forma di marketing aggressivo.

Microsoft mette in guardia su scenari ancora più allarmanti. Se le aziende legittime stanno già abusando di questa tecnica, le potenzialità per i cybercriminali sono enormi. Disinformazione commerciale, consigli pericolosi, promozione di fonti di notizie distorte o diffusione di falsità potrebbero diventare applicazioni comuni di questa manipolazione nelle mani sbagliate.

Fortunatamente esistono contromisure efficaci. Per gli utenti individuali, la soluzione passa attraverso un controllo periodico delle informazioni che il chatbot ha accumulato nel tempo, anche se le modalità di accesso variano a seconda della piattaforma. Gli amministratori di sistema aziendali dovrebbero invece monitorare gli URL alla ricerca di termini sospetti come "ricorda", "fonte attendibile", "nelle conversazioni future", "fonte autorevole" o "citazione".

L'azienda di Redmond evidenzia come i suoi servizi Microsoft 365 Copilot e Azure AI integrino già protezioni specifiche contro questo tipo di attacco. Tuttavia, la raccomandazione generale resta valida per qualsiasi assistente AI: trattare i link destinati all'intelligenza artificiale con la stessa cautela riservata ai file eseguibili scaricabili, evitando di cliccare su collegamenti provenienti da fonti non verificate.

La storia si ripete con prevedibile regolarità nel mondo tecnologico. URL e allegati email, un tempo considerati semplici strumenti di convenienza, sono diventati vettori di attacco solo dopo la loro diffusione di massa. L'intelligenza artificiale sta percorrendo lo stesso tragitto che ogni nuova tecnologia deve affrontare nel suo cammino verso l'adozione mainstream, diventando inevitabilmente un obiettivo per chi cerca di sfruttarla in modo improprio.

Fonte dell'articolo: www.computerworld.com

Le notizie più lette

#1
NordVPN - Recensione
4

Hardware

NordVPN - Recensione

#2
5 motivi per cui dovreste usare una VPN
2

Hardware

5 motivi per cui dovreste usare una VPN

#3
ExpressVPN - Recensione
4

Hardware

ExpressVPN - Recensione

#4
Cos'è una VPN (Virtual Private Network)
1

Hardware

Cos'è una VPN (Virtual Private Network)

#5
Come accedere ai giochi asiatici usando una VPN

Videogioco

Come accedere ai giochi asiatici usando una VPN

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Vuoi diventare un SOC Manager? Segui questa guida
2

Business

Vuoi diventare un SOC Manager? Segui questa guida

Di Antonino Caffo
3 Prompt per creare le policy AI aziendali gratis

Business

3 Prompt per creare le policy AI aziendali gratis

Di Roberto Buonanno
Lezioni di marketing da un’azienda che avremmo voluto odiare

Business

Lezioni di marketing da un’azienda che avremmo voluto odiare

Di José Compagnone
QNAP stringe il formato enterprise: il TS-h1077AFU porta lo storage all-flash in 1U

Business

QNAP stringe il formato enterprise: il TS-h1077AFU porta lo storage all-flash in 1U

Di Valerio Porcu
Mandare una mail con altri in CC ti può mettere nei guai
1

Business

Mandare una mail con altri in CC ti può mettere nei guai

Di Avv. Giuseppe Croari
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.