Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di La (in)sicurezza dell'IA non è un bug,è una feature - e non siamo pronti
Business
Immagine di AMD e Meta siglano un mega accordo AI da 100 miliardi AMD e Meta siglano un mega accordo AI da 100 miliardi...
Immagine di Milano-Cortina 2026, l’IA ha vinto tutto anche senza medaglie Milano-Cortina 2026, l’IA ha vinto tutto anche senza medag...

La (in)sicurezza dell'IA non è un bug,è una feature - e non siamo pronti

La sicurezza dell'IA è in crisi. Il ricercatore Sander Schulhoff afferma che i team di cybersecurity sono impreparati a gestire le vulnerabilità linguistiche dei modelli LLM. Non si rattoppa un cervello.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 22/12/2025 alle 12:40

La notizia in un minuto

  • Le aziende sono impreparate a gestire i rischi dell'IA perché i team di cybersecurity tradizionali non comprendono che le vulnerabilità dei modelli linguistici avvengono attraverso manipolazione del linguaggio e non errori di codice correggibili
  • Il paradigma "puoi rattoppare un bug, ma non puoi rattoppare un cervello" evidenzia come il prompt injection richieda competenze all'intersezione tra sicurezza informatica classica e comprensione profonda dei bias logici dell'IA
  • Le soluzioni automatizzate di red-teaming e guardrail universali vendono un'illusione di sicurezza, mentre serve investire nel reskilling del personale per distinguere errori tecnici da manipolazioni logiche

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Le aziende faticano a gestire i rischi dell'intelligenza artificiale perché i team di cybersecurity tradizionali non comprendono la natura linguistica e logica delle vulnerabilità dei nuovi modelli.

Sander Schulhoff, ricercatore esperto di vulnerabilità dei sistemi di intelligenza artificiale, ha lanciato un avvertimento chiaro e tondo: le attuali strutture di difesa aziendale sono del tutto impreparate ad affrontare i fallimenti dei modelli linguistici. E non si tratta di strumenti che si potrebbero comprare, quanto piuttosto di un un fondamentale errore di prospettiva nel comprendere questi sistemi.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Se nella sicurezza informatica classica il nemico è un errore nel codice che può essere corretto con una patch, infatti, nell'ambito dei Large Language Models (LLM) ci troviamo di fronte a una sfida di natura diversa, dove la manipolazione avviene attraverso il linguaggio e le istruzioni indirette.

Il limite del paradigma tradizionale

"Puoi rattoppare un bug, ma non puoi rattoppare un cervello", ha dichiarato Schulhoff per descrivere il disallineamento tra il modo in cui pensano i team di sicurezza e il modo in cui falliscono i modelli IA. Questa distinzione è cruciale: un esperto di cybersecurity può analizzare un sistema alla ricerca di falle tecniche, ma spesso non si pone la domanda fondamentale: "E se qualcuno ingannasse l'IA spingendola a fare qualcosa che non dovrebbe?". È il problema del prompt injection, al quale per ora possiamo rispondere solo con la mitigazione - ma a volte è piuttosto efficace. 

Puoi rattoppare un bug, ma non puoi rattoppare un cervello

Ne abbiamo parlato diverse volte, anche di recente, le AI non se la cavano molto bene in tema di sicurezza, e il punto è proprio che i problemi sono “by design” e la soluzione richiede necessariamente un approccio diverso; ma la capacità di mediare tra competenze ingegneristiche e comprensione dei bias logici è ancora merce rara. 

Schulhoff sottolinea come le competenze del futuro risiedano proprio nell'intersezione tra la sicurezza informatica classica e la conoscenza profonda dei modelli IA, ad esempio sapendo quando isolare l'output di un'intelligenza artificiale in un container per evitare che codice malevolo generato per errore comprometta l'intera infrastruttura.

Il miraggio delle soluzioni preconfezionate

Un altro punto critico sollevato dal ricercatore riguarda la proliferazione di startup che promettono "guardrail" universali. Schulhoff definisce queste promesse come fuorvianti, prevedendo una correzione di mercato per quelle aziende che vendono strumenti automatizzati di red-teaming incapaci di coprire l'infinità di modi in cui un'IA può essere manipolata.

C'è un divario tra come funziona l'IA e la sicurezza informatica classica

Nonostante gli investimenti miliardari, come dimostra la recente acquisizione di Wiz da parte della Google, la tecnologia da sola non basta. La vera sicurezza richiede una visione culturale che spinga le aziende ad andare oltre il semplice consumo di strumenti pronti all'uso, investendo invece nel reskilling del personale per comprendere la logica di questi nuovi "cervelli" digitali.

Gli strumenti di difesa automatizzati spesso vendono un'illusione

Il rischio reale maggiore finisce quindi per l'eccessiva fiducia in sistemi che non comprendiamo appieno. Usarli è doveroso, e probabilmente non possiamo più immaginare un mondo senza IA; ma è altrettanto doveroso usarli con criterio. 

La domanda che ogni manager dovrebbe porsi oggi non è quanti software di protezione ha acquistato, ma quante persone nel suo team sanno distinguere un errore di codice da una manipolazione logica dell'IA. 

 

Le notizie più lette

#1
Windows 11 si aggiorna e stavolta è una buona notizia: le novità
8

Hardware

Windows 11 si aggiorna e stavolta è una buona notizia: le novità

#2
Il disastro dell'IA a Sanremo è peggio di quello che sembra

Hardware

Il disastro dell'IA a Sanremo è peggio di quello che sembra

#3
Recensione Samsung 9100 PRO 8TB, veloce e capiente
6

Hardware

Recensione Samsung 9100 PRO 8TB, veloce e capiente

#4
NVIDIA entra nel mercato SoC per PC Windows
3

Hardware

NVIDIA entra nel mercato SoC per PC Windows

#5
Milano-Cortina 2026, l’IA ha vinto tutto anche senza medaglie
1

Business

Milano-Cortina 2026, l’IA ha vinto tutto anche senza medaglie

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Milano-Cortina 2026, l’IA ha vinto tutto anche senza medaglie
1

Business

Milano-Cortina 2026, l’IA ha vinto tutto anche senza medaglie

Di Valerio Porcu
AMD e Meta siglano un mega accordo AI da 100 miliardi

Business

AMD e Meta siglano un mega accordo AI da 100 miliardi

Di Antonello Buzzi
IA fisica, macchine che si muovono e interagiscono con il mondo reale

Business

IA fisica, macchine che si muovono e interagiscono con il mondo reale

Di Sri Elaprolu, Alla Simoneau, Paul Amadeo, Randi Larson e Laura Kulowski
Perché i freelance tecnici restano fermi (e gli altri no)
1

Business

Perché i freelance tecnici restano fermi (e gli altri no)

Di José Compagnone
Governance AI in tempo reale: abituiamoci all'audit continuo
1

Business

Governance AI in tempo reale: abituiamoci all'audit continuo

Di Antonino Caffo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.