Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Black Friday

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Chi guadagna di più usa di più l'intelligenza artificiale Chi guadagna di più usa di più l'intelligenza artificiale...
Immagine di Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk? Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk?...

Copia e incolla di codice vulnerabile, ci cascano praticamente tutti

Un team di ricercatori scopre vulnerabilità critiche nei framework di inferenza AI di Meta, Nvidia e Microsoft, causate dalla copia di codice non sicuro.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 17/11/2025 alle 13:15

La notizia in un minuto

  • Vulnerabilità critiche di esecuzione di codice da remoto scoperte nei principali framework AI di Meta, Nvidia e Microsoft, causate dall'uso non sicuro di ZeroMQ e Python pickle per la deserializzazione di dati non autenticati
  • Il bug si è propagato attraverso copia-incolla di codice non verificato tra repository diversi, creando un effetto domino denominato "ShadowMQ" che ha compromesso l'intero ecosistema di inferenza AI
  • Migliaia di socket ZeroMQ esposti su Internet pubblico potrebbero permettere agli attaccanti di sottrarre modelli proprietari, accedere a dati sensibili dei clienti o compromettere cluster GPU in produzione di organizzazioni come xAI, Google Cloud e Oracle
Riassunto generato con l'IA. Potrebbe non essere accurato.

Un team di ricercatori di sicurezza informatica ha scoperto vulnerabilità critiche che consentono l'esecuzione di codice da remoto nei principali framework di inferenza per l'intelligenza artificiale, colpendo progetti sviluppati da Meta, Nvidia e Microsoft, oltre a piattaforme open source come vLLM e SGLang. La falla, identificata da Oligo Security, si è propagata attraverso un meccanismo apparentemente banale ma devastante: la copia e incolla di codice non sicuro tra repository diversi, creando un effetto domino che ha compromesso l'intera catena dell'ecosistema AI.

Un framework di inferenza AI è un software specializzato progettato per eseguire modelli di machine learning già addestrati. Il suo scopo è prendere un modello "imparato" e applicarlo a dati nuovi nel mondo reale, ottimizzandolo per massima velocità, efficienza e scalabilità in ambienti di produzione.

Si tratta di una carenza strutturale nella sicurezza dell'infrastruttura AI enterprise, dove i server di inferenza gestiscono dati sensibili, modelli proprietari e informazioni dei clienti. La scoperta solleva interrogativi inquietanti sulle pratiche di sviluppo nel settore AI, dove la pressione per accelerare il time-to-market sembra prevalere sulla verifica rigorosa della sicurezza del codice.

Secondo Avi Lumelsky, ricercatore di Oligo Security, il denominatore comune delle vulnerabilità risiede nell'uso non autenticato di ZeroMQ (ZMQ) combinato con la deserializzazione tramite Python pickle, una libreria notoriamente pericolosa quando esposta a dati non fidati. Il problema originale è emerso nel Llama Stack di Meta, dove una funzione riceveva dati attraverso il metodo 'recv-pyobj()' di ZeroMQ per poi passarli direttamente a 'pickle.loads()' di Python, permettendo l'esecuzione di codice arbitrario attraverso socket non autenticati.

ZeroMQ (o ØMQ) è una libreria di messaggistica asincrona ad alte prestazioni. Non è un broker tradizionale (come RabbitMQ), ma un "socket potenziato" che crea connessioni veloci e leggere tra applicazioni. Supporta vari pattern (come pub/sub, request/reply) per costruire sistemi distribuiti e concorrenti in modo efficiente.

Il meccanismo di propagazione battezzato "ShadowMQ" da Oligo rappresenta un caso di studio preoccupante. Lo stesso pattern vulnerabile identificato in Meta è stato replicato quasi identicamente in Nvidia TensorRT-LLM, vLLM, SGLang e Modular Max Server. In alcuni casi, i ricercatori hanno trovato commenti espliciti nel codice che dichiaravano "codice preso da vLLM", a testimonianza di come la pratica del riuso acritico abbia diffuso la vulnerabilità. Non si tratta quindi di un bug indipendente scoperto in progetti separati, ma di una contaminazione seriale del codice sorgente attraverso l'intero ecosistema.

L'impatto potenziale è significativo. Oligo ha identificato migliaia di socket ZeroMQ esposti su Internet pubblico, alcuni dei quali collegati a cluster di inferenza reali in produzione. Un attaccante che sfrutasse queste vulnerabilità potrebbe eseguire codice arbitrario su cluster GPU, elevare privilegi, sottrarre modelli proprietari o dati dei clienti, o installare mining software per criptovalute. In sostanza, l'infrastruttura AI aziendale, spesso considerata un asset strategico, può trasformarsi in un vettore di attacco critico.

Meta ha ricevuto la segnalazione della vulnerabilità (CVE-2024-50050) nel settembre 2024 e ha rapidamente sostituito l'uso di pickle con serializzazione basata su JSON. Successivamente, sono stati identificati e risolti problemi analoghi in vLLM (CVE-2025-30165), Nvidia TensorRT-LLM (CVE-2025-23254) e Modular Max Server (CVE-2025-60455). Tutti i vendor coinvolti hanno implementato logiche alternative per neutralizzare la falla.

La diffusione di SGLang risulta particolarmente critica considerando la sua adozione da parte di organizzazioni come xAI, AMD, Nvidia, Intel, LinkedIn, Cursor, Oracle Cloud e Google Cloud. Questo significa che la vulnerabilità ha potenzialmente toccato infrastrutture AI su larga scala in contesti enterprise ad alta sensibilità. La superficie di attacco esposta è quindi considerevolmente ampia, coinvolgendo non solo startup tecnologiche ma anche colossi del cloud computing e dell'hardware.

Oligo raccomanda l'aggiornamento immediato alle versioni corrette: Meta Llama Stack v0.0.41, Nvidia TensorRT-LLM 0.18.2, vLLM v0.8.0 e Modular Max Server v25.6 o successive. Oltre al patching, i ricercatori suggeriscono l'adozione di pratiche di sviluppo più rigorose: evitare pickle con dati non fidati, implementare autenticazione HMAC e TLS per comunicazioni ZMQ, e rafforzare la formazione dei team di sviluppo sui rischi di sicurezza legati alla deserializzazione.

Nell'ultimo anno abbiamo continuato a trovare vulnerabilità RCE simili in framework AI ampiamente utilizzati, evidenziando un vuoto strutturale nella sicurezza dell'ecosistema di inferenza

Se pratiche di sviluppo inadeguate possono propagarsi attraverso il copia-incolla di codice non verificato, quale livello di audit e revisione viene effettivamente applicato prima che questi framework vengano adottati in produzione da aziende che gestiscono dati critici?

La velocità di sviluppo nell'AI sta forse creando un debito di sicurezza sistemico che l'industria dovrà affrontare con crescente urgenza, soprattutto mentre regolamentazioni come l'AI Act europeo iniziano a imporre requisiti stringenti sulla robustezza e sicurezza dei sistemi di intelligenza artificiale.

Fonte dell'articolo: www.cio.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Extra risparmio su Aliexpress: torna lo sconto speciale con PayPal
  • #2
    Sconti record BLUETTI! Fino al 73% e regali imperdibili
  • #3
    L'IA è una bolla che non scoppia? E quando arriva l'AGI?
  • #4
    Il ransomware è diventato un problema sistemico
  • #5
    Stipendi fermi? Il 78% dei lavoratori italiani è infatti insoddisfatto
  • #6
    L'IA come alleata della leadership aziendale
Articolo 1 di 5
Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk?
Elon Musk lancia Grokipedia, che copia da Wikipedia ma promette obiettività. Gli utenti la ribattezzano "Copipedia" per i contenuti duplicati e i bias evidenti verso le idee di Musk.
Immagine di Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk?
1
Leggi questo articolo
Articolo 2 di 5
Chi guadagna di più usa di più l'intelligenza artificiale
L'intelligenza artificiale divide i lavoratori: chi guadagna di più abbraccia la tecnologia con entusiasmo, mentre altri temono di perdere il posto di lavoro.
Immagine di Chi guadagna di più usa di più l'intelligenza artificiale
1
Leggi questo articolo
Articolo 3 di 5
Cos’è la sostenibilità digitale e a che punto sono le PMI italiane
La trasformazione digitale delle imprese italiane è un processo in corso, che include il concetto di sostenibilità digitale, un tema divenuto centrale a livello europeo ed internazionale.
Immagine di Cos’è la sostenibilità digitale e a che punto sono le PMI italiane
Leggi questo articolo
Articolo 4 di 5
L'IA procede alla cieca, l'osservabilità reale deve connettere infrastruttura e modelli
Il successo dell'IA non dipende solo dai modelli, ma da un'infrastruttura performante e resiliente. Fondamentale è l'osservabilità, per connettere le metriche infrastrutturali al comportamento reale dei modelli.
Immagine di L'IA procede alla cieca, l'osservabilità reale deve connettere infrastruttura e modelli
1
Leggi questo articolo
Articolo 5 di 5
Microsoft guida l'economia dei prompt in azienda
L'intelligenza artificiale agente spinge le grandi aziende a riorganizzarsi. Microsoft punta a diventare una "frontier AI firm" ridefinendo flussi di lavoro.
Immagine di Microsoft guida l'economia dei prompt in azienda
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.