Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di No, le filigrane non risolveranno il problema dei contenuti fake creati con l'IA
IA e FAKE
Immagine di È ora di trasformare le promesse del cloud sovrano in realtà. Riempiamo gli Usa di troppi soldi È ora di trasformare le promesse del cloud sovrano in realt...
Immagine di Le 10 competenze IT più richieste per il 2026 Le 10 competenze IT più richieste per il 2026...

No, le filigrane non risolveranno il problema dei contenuti fake creati con l'IA

Marco Ramilli su deepfake e filigrana digitale: limiti del C2PA, problemi di riconoscimento dei contenuti artificiali e necessità di sviluppare sistemi avanzati di detection

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 23/05/2025 alle 09:49
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Fake news, deepfake video, audio, una separazione sempre più sottile tra verità e finzione. L'intelligenza artificiale generativa sta ridisegnando i confini tra vero e falso, ponendo sfide significative alla nostra capacità di distinguere contenuti autentici da quelli artificiali. Gli strumenti per identificare i contenuti sintetici faticano a tenere il passo, creando un pericoloso divario che potrebbe avere profonde implicazioni per la società dell'informazione. La questione non è più se possiamo essere ingannati, ma quanto facilmente e con quali conseguenze, in un mondo dove la verifica dell'autenticità diventa sempre più complessa.

Durante la I/O 2025, Google ha annunciato Synth Detector, strumento nato per identificare in modo rapido i contenuti generati dall'intelligenza artificiale di Google. Questo sistema inserisce informazioni invisibili all'occhio umano nei contenuti, permettendo teoricamente di verificarne l'origine. Tuttavia, Synth3D presenta limitazioni significative: funziona esclusivamente con contenuti generati da Google e, come tutte le tecnologie basate su filigrane, opera fondamentalmente come un sistema di autocertificazione.

"Vuol dire che l'utente autocertifica, in quel momento, in quell'ora, attraverso la piattaforma di Google, una determinata immagine, video o contenuto. Questo risolve il problema per quanto riguarda gli attaccanti dello stile, cioè gli errori. È evidente che se c'è la possibilità che qualcuno voglia introdurre una fake news, un documento o comunque un contenuto appositamente malevole o fatto apposta per ingannare, non usa una filigrana per autenticarlo" ci dice Marco Ramilli, founder, IdentifAI.

Guarda su

Insomma, un attore malintenzionato può semplicemente evitare piattaforme che inseriscono filigrane, utilizzare strumenti che non adottano questa tecnologia, o rimuovere facilmente tali marcature dai contenuti. In sostanza, chi vuole deliberatamente ingannare raramente lascerà tracce della propria manipolazione.

La sfida del riconoscimento testuale e visivo

Il riconoscimento di contenuti generati artificialmente segue approcci diversi a seconda del medium. "Principalmente avviene attraverso uno studio di frequenza. Si analizza la frequenza di alcune parole poco utilizzate nel parlato quotidiano e che invece sono più comuni nei prodotti degli LLM. L'analisi del testo è però complessa. La lingua utilizzata, la grammatica, il contesto formale o informale, e molti altri fattori limitano naturalmente la nostra libertà espressiva. Minore è la libertà espressiva, maggiore è la somiglianza tra contenuti umani e artificiali. Questo rende particolarmente difficile identificare testi generati artificialmente senza l'ausilio di filigrane digitali, che però sono facilmente rimovibili".

L'autenticità nell'era digitale non può essere garantita esclusivamente da certificazioni tecnologiche, ma richiede un approccio multistrato che combini diversi metodi di verifica.

Per quanto riguarda le immagini, le filigrane digitali vengono implementate in due modalità principali: inserimento nei metatag dell'immagine o utilizzo di tecniche steganografiche che modificano impercettibilmente i colori per codificare informazioni. Entrambi gli approcci presentano vulnerabilità significative. I metatag possono essere facilmente rimossi con semplici strumenti di editing, mentre le alterazioni steganografiche possono essere eliminate rigenerando l'immagine con algoritmi di IA.

La diffusione dello standard C2PA è inoltre ostacolata da fattori geopolitici ed economici. "Essendo nato principalmente in ambiente statunitense e guidato da aziende come Microsoft, molti paesi con relazioni geopolitiche complesse con gli USA preferiscono non adottarlo. Parallelamente, alcuni fornitori di servizi IA evitano deliberatamente di implementare filigrane come strategia di differenziazione commerciale, promuovendo l'anonimato e la privacy come vantaggi competitivi".

Il futuro dell'autenticazione dei contenuti

Le proiezioni degli analisti dipingono un quadro preoccupante. Secondo Gartner, entro il 2028 il 50% delle aziende globali dovrà implementare strumenti di verifica dei contenuti, mentre il 75% delle frodi potrebbe essere perpetrato attraverso sistemi di intelligenza artificiale generativa. Questi numeri, sebbene ancora indicativi data la giovane età della tecnologia (circa un anno per i sistemi più avanzati), suggeriscono un cambiamento radicale nel panorama della sicurezza informatica.

"Oggi su X così come su Facebook è quasi più facile trovare un contenuto generato artificialmente che uno 'umano'. Gli stessi social non fanno nulla per contrastarli, mentre secondo me dovrebbero agire, perché prima o poi la gente si annoierà di scrollare cose non reali. Cioè vorrei avere la possibilità di sapere se dall'altra parte c'è un essere umano che ha fatto quelle cose. Il trend è molto significativo".

La questione della sicurezza

La sofisticazione delle difese tradizionali ha paradossalmente spostato il vettore d'attacco: non è più necessario violare complessi sistemi informatici quando è possibile impersonare figure autorevoli attraverso deepfake visivi o vocali convincenti. Le organizzazioni hanno investito milioni in firewall, antivirus, SOC e altre tecnologie difensive, ma queste risultano inefficaci contro un attacco che sfrutta l'ingegneria sociale potenziata dall'AI.

Immagine id 58392

"Una soluzione radicale potrebbe essere la certificazione universale di ogni contenuto digitale, ma questo approccio presenta rischi significativi per la libertà di espressione, specialmente in contesti politicamente repressivi. Un sistema che traccia ogni bit di informazione alla sua fonte potrebbe facilmente trasformarsi in uno strumento di sorveglianza e controllo".

L'alternativa più promettente sembra essere lo sviluppo di una filiera di tecnologie di rilevamento capaci di analizzare contenuti con o senza certificazione. "Invece di uno standard globale difficilmente realizzabile, potrebbe emergere un ecosistema di strumenti specializzati nell'identificazione di diverse caratteristiche dell'artificialità, capaci di classificare i contenuti come naturali (reali), sintetici (modificati) o completamente artificiali".

Questa catena di valore analitica potrebbe offrire livelli probabilistici di autenticità, riconoscendo che anche i contenuti taggati potrebbero essere manipolati e che l'assenza di certificazione non implica necessariamente artificialità. "Una filiera di tanti detectors, li chiamerei così, che abbiano l'opportunità di capire se quella realtà è sintetica, artificiale o naturale. Dove con 'naturale' intendiamo quello che abbiamo sempre inteso per realtà, con 'artificiale' una realtà totalmente generata artificialmente, e 'sintetica' una realtà che parte da una realtà fisica e mutata in digitale. Quindi la classica foto modificata, lo zoom con la persona che è reale ma lo sfondo che è falso, tutto questo è 'sintetico'".

In un mondo dove i social media sono già saturi di contenuti generati artificialmente, la capacità di discernere il reale dall'artificiale diventerà una competenza fondamentale tanto per le organizzazioni quanto per i singoli individui.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Le 10 competenze IT più richieste per il 2026

Business

Le 10 competenze IT più richieste per il 2026

Di Antonino Caffo
È ora di trasformare le promesse del cloud sovrano in realtà. Riempiamo gli Usa di troppi soldi
5

Business

È ora di trasformare le promesse del cloud sovrano in realtà. Riempiamo gli Usa di troppi soldi

Di Antonino Caffo
No, gli agenti IA per il coding non sono la soluzione migliore per le aziende
1

Business

No, gli agenti IA per il coding non sono la soluzione migliore per le aziende

Di Antonino Caffo
Il divario nell'uso dell'IA divide i lavoratori

Business

Il divario nell'uso dell'IA divide i lavoratori

Di Antonino Caffo
Agentic AI e Composable Architecture: come guidare l’impresa digitale del futuro

Business

Agentic AI e Composable Architecture: come guidare l’impresa digitale del futuro

Di Luca Fassero
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.