Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di La (in)sicurezza dell'IA non è un bug,è una feature - e non siamo pronti
Business
Immagine di L'intelligenza artificiale ridisegna le risorse umane: i dati sulla diffusione in Italia L'intelligenza artificiale ridisegna le risorse umane: i dat...
Immagine di Adesso Amazon ha un cloud europeo "sovrano". Ecco cosa significa Adesso Amazon ha un cloud europeo "sovrano". Ecco cosa signi...

La (in)sicurezza dell'IA non è un bug,è una feature - e non siamo pronti

La sicurezza dell'IA è in crisi. Il ricercatore Sander Schulhoff afferma che i team di cybersecurity sono impreparati a gestire le vulnerabilità linguistiche dei modelli LLM. Non si rattoppa un cervello.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 22/12/2025 alle 12:40

La notizia in un minuto

  • Le aziende sono impreparate a gestire i rischi dell'IA perché i team di cybersecurity tradizionali non comprendono che le vulnerabilità dei modelli linguistici avvengono attraverso manipolazione del linguaggio e non errori di codice correggibili
  • Il paradigma "puoi rattoppare un bug, ma non puoi rattoppare un cervello" evidenzia come il prompt injection richieda competenze all'intersezione tra sicurezza informatica classica e comprensione profonda dei bias logici dell'IA
  • Le soluzioni automatizzate di red-teaming e guardrail universali vendono un'illusione di sicurezza, mentre serve investire nel reskilling del personale per distinguere errori tecnici da manipolazioni logiche

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Le aziende faticano a gestire i rischi dell'intelligenza artificiale perché i team di cybersecurity tradizionali non comprendono la natura linguistica e logica delle vulnerabilità dei nuovi modelli.

Sander Schulhoff, ricercatore esperto di vulnerabilità dei sistemi di intelligenza artificiale, ha lanciato un avvertimento chiaro e tondo: le attuali strutture di difesa aziendale sono del tutto impreparate ad affrontare i fallimenti dei modelli linguistici. E non si tratta di strumenti che si potrebbero comprare, quanto piuttosto di un un fondamentale errore di prospettiva nel comprendere questi sistemi.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Se nella sicurezza informatica classica il nemico è un errore nel codice che può essere corretto con una patch, infatti, nell'ambito dei Large Language Models (LLM) ci troviamo di fronte a una sfida di natura diversa, dove la manipolazione avviene attraverso il linguaggio e le istruzioni indirette.

Il limite del paradigma tradizionale

"Puoi rattoppare un bug, ma non puoi rattoppare un cervello", ha dichiarato Schulhoff per descrivere il disallineamento tra il modo in cui pensano i team di sicurezza e il modo in cui falliscono i modelli IA. Questa distinzione è cruciale: un esperto di cybersecurity può analizzare un sistema alla ricerca di falle tecniche, ma spesso non si pone la domanda fondamentale: "E se qualcuno ingannasse l'IA spingendola a fare qualcosa che non dovrebbe?". È il problema del prompt injection, al quale per ora possiamo rispondere solo con la mitigazione - ma a volte è piuttosto efficace. 

Puoi rattoppare un bug, ma non puoi rattoppare un cervello

Ne abbiamo parlato diverse volte, anche di recente, le AI non se la cavano molto bene in tema di sicurezza, e il punto è proprio che i problemi sono “by design” e la soluzione richiede necessariamente un approccio diverso; ma la capacità di mediare tra competenze ingegneristiche e comprensione dei bias logici è ancora merce rara. 

Schulhoff sottolinea come le competenze del futuro risiedano proprio nell'intersezione tra la sicurezza informatica classica e la conoscenza profonda dei modelli IA, ad esempio sapendo quando isolare l'output di un'intelligenza artificiale in un container per evitare che codice malevolo generato per errore comprometta l'intera infrastruttura.

Il miraggio delle soluzioni preconfezionate

Un altro punto critico sollevato dal ricercatore riguarda la proliferazione di startup che promettono "guardrail" universali. Schulhoff definisce queste promesse come fuorvianti, prevedendo una correzione di mercato per quelle aziende che vendono strumenti automatizzati di red-teaming incapaci di coprire l'infinità di modi in cui un'IA può essere manipolata.

C'è un divario tra come funziona l'IA e la sicurezza informatica classica

Nonostante gli investimenti miliardari, come dimostra la recente acquisizione di Wiz da parte della Google, la tecnologia da sola non basta. La vera sicurezza richiede una visione culturale che spinga le aziende ad andare oltre il semplice consumo di strumenti pronti all'uso, investendo invece nel reskilling del personale per comprendere la logica di questi nuovi "cervelli" digitali.

Gli strumenti di difesa automatizzati spesso vendono un'illusione

Il rischio reale maggiore finisce quindi per l'eccessiva fiducia in sistemi che non comprendiamo appieno. Usarli è doveroso, e probabilmente non possiamo più immaginare un mondo senza IA; ma è altrettanto doveroso usarli con criterio. 

La domanda che ogni manager dovrebbe porsi oggi non è quanti software di protezione ha acquistato, ma quante persone nel suo team sanno distinguere un errore di codice da una manipolazione logica dell'IA. 

 

Le notizie più lette

#1
RTX 5070 Ti al capolinea, pesa la strategia di NVIDIA

Hardware

RTX 5070 Ti al capolinea, pesa la strategia di NVIDIA

#2
Se l'IA è una bolla, questo è quello che rischiamo davvero
7

Hardware

Se l'IA è una bolla, questo è quello che rischiamo davvero

#3
Adesso Amazon ha un cloud europeo "sovrano". Ecco cosa significa
4

Business

Adesso Amazon ha un cloud europeo "sovrano". Ecco cosa significa

#4
TV Micro LED RGB: cambia tutto o non cambia niente?
8

Hardware

TV Micro LED RGB: cambia tutto o non cambia niente?

#5
Ad Apple non frega nulla che iPhone Air non stia piacendo a nessuno

Editoriale

Ad Apple non frega nulla che iPhone Air non stia piacendo a nessuno

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Adesso Amazon ha un cloud europeo "sovrano". Ecco cosa significa

Business

Adesso Amazon ha un cloud europeo "sovrano". Ecco cosa significa

Di Valerio Porcu
L'intelligenza artificiale ridisegna le risorse umane: i dati sulla diffusione in Italia

Business

L'intelligenza artificiale ridisegna le risorse umane: i dati sulla diffusione in Italia

Di Valerio Porcu
Telco, l’AI accelera ma mancano competenze e controllo

Business

Telco, l’AI accelera ma mancano competenze e controllo

Di Antonello Buzzi
L’UE investe altri 307 milioni nell’intelligenza artificiale

Business

L’UE investe altri 307 milioni nell’intelligenza artificiale

Di Antonello Buzzi
La disinformazione sulla sicurezza quantistica favorisce i criminali informatici

Business

La disinformazione sulla sicurezza quantistica favorisce i criminali informatici

Di Yaroslav Rosomakho
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.