Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di No, le filigrane non risolveranno il problema dei contenuti fake creati con l'IA
IA e FAKE
Immagine di Il fondatore di Google teme le tasse, scappa dalla California Il fondatore di Google teme le tasse, scappa dalla Californi...
Immagine di Perché è così difficile avere una vera meritocrazia in azienda? Perché è così difficile avere una vera meritocrazia in az...

No, le filigrane non risolveranno il problema dei contenuti fake creati con l'IA

Marco Ramilli su deepfake e filigrana digitale: limiti del C2PA, problemi di riconoscimento dei contenuti artificiali e necessità di sviluppare sistemi avanzati di detection

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 23/05/2025 alle 09:49
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Fake news, deepfake video, audio, una separazione sempre più sottile tra verità e finzione. L'intelligenza artificiale generativa sta ridisegnando i confini tra vero e falso, ponendo sfide significative alla nostra capacità di distinguere contenuti autentici da quelli artificiali. Gli strumenti per identificare i contenuti sintetici faticano a tenere il passo, creando un pericoloso divario che potrebbe avere profonde implicazioni per la società dell'informazione. La questione non è più se possiamo essere ingannati, ma quanto facilmente e con quali conseguenze, in un mondo dove la verifica dell'autenticità diventa sempre più complessa.

Durante la I/O 2025, Google ha annunciato Synth Detector, strumento nato per identificare in modo rapido i contenuti generati dall'intelligenza artificiale di Google. Questo sistema inserisce informazioni invisibili all'occhio umano nei contenuti, permettendo teoricamente di verificarne l'origine. Tuttavia, Synth3D presenta limitazioni significative: funziona esclusivamente con contenuti generati da Google e, come tutte le tecnologie basate su filigrane, opera fondamentalmente come un sistema di autocertificazione.

"Vuol dire che l'utente autocertifica, in quel momento, in quell'ora, attraverso la piattaforma di Google, una determinata immagine, video o contenuto. Questo risolve il problema per quanto riguarda gli attaccanti dello stile, cioè gli errori. È evidente che se c'è la possibilità che qualcuno voglia introdurre una fake news, un documento o comunque un contenuto appositamente malevole o fatto apposta per ingannare, non usa una filigrana per autenticarlo" ci dice Marco Ramilli, founder, IdentifAI.

Guarda su

Insomma, un attore malintenzionato può semplicemente evitare piattaforme che inseriscono filigrane, utilizzare strumenti che non adottano questa tecnologia, o rimuovere facilmente tali marcature dai contenuti. In sostanza, chi vuole deliberatamente ingannare raramente lascerà tracce della propria manipolazione.

La sfida del riconoscimento testuale e visivo

Il riconoscimento di contenuti generati artificialmente segue approcci diversi a seconda del medium. "Principalmente avviene attraverso uno studio di frequenza. Si analizza la frequenza di alcune parole poco utilizzate nel parlato quotidiano e che invece sono più comuni nei prodotti degli LLM. L'analisi del testo è però complessa. La lingua utilizzata, la grammatica, il contesto formale o informale, e molti altri fattori limitano naturalmente la nostra libertà espressiva. Minore è la libertà espressiva, maggiore è la somiglianza tra contenuti umani e artificiali. Questo rende particolarmente difficile identificare testi generati artificialmente senza l'ausilio di filigrane digitali, che però sono facilmente rimovibili".

L'autenticità nell'era digitale non può essere garantita esclusivamente da certificazioni tecnologiche, ma richiede un approccio multistrato che combini diversi metodi di verifica.

Per quanto riguarda le immagini, le filigrane digitali vengono implementate in due modalità principali: inserimento nei metatag dell'immagine o utilizzo di tecniche steganografiche che modificano impercettibilmente i colori per codificare informazioni. Entrambi gli approcci presentano vulnerabilità significative. I metatag possono essere facilmente rimossi con semplici strumenti di editing, mentre le alterazioni steganografiche possono essere eliminate rigenerando l'immagine con algoritmi di IA.

La diffusione dello standard C2PA è inoltre ostacolata da fattori geopolitici ed economici. "Essendo nato principalmente in ambiente statunitense e guidato da aziende come Microsoft, molti paesi con relazioni geopolitiche complesse con gli USA preferiscono non adottarlo. Parallelamente, alcuni fornitori di servizi IA evitano deliberatamente di implementare filigrane come strategia di differenziazione commerciale, promuovendo l'anonimato e la privacy come vantaggi competitivi".

Il futuro dell'autenticazione dei contenuti

Le proiezioni degli analisti dipingono un quadro preoccupante. Secondo Gartner, entro il 2028 il 50% delle aziende globali dovrà implementare strumenti di verifica dei contenuti, mentre il 75% delle frodi potrebbe essere perpetrato attraverso sistemi di intelligenza artificiale generativa. Questi numeri, sebbene ancora indicativi data la giovane età della tecnologia (circa un anno per i sistemi più avanzati), suggeriscono un cambiamento radicale nel panorama della sicurezza informatica.

"Oggi su X così come su Facebook è quasi più facile trovare un contenuto generato artificialmente che uno 'umano'. Gli stessi social non fanno nulla per contrastarli, mentre secondo me dovrebbero agire, perché prima o poi la gente si annoierà di scrollare cose non reali. Cioè vorrei avere la possibilità di sapere se dall'altra parte c'è un essere umano che ha fatto quelle cose. Il trend è molto significativo".

La questione della sicurezza

La sofisticazione delle difese tradizionali ha paradossalmente spostato il vettore d'attacco: non è più necessario violare complessi sistemi informatici quando è possibile impersonare figure autorevoli attraverso deepfake visivi o vocali convincenti. Le organizzazioni hanno investito milioni in firewall, antivirus, SOC e altre tecnologie difensive, ma queste risultano inefficaci contro un attacco che sfrutta l'ingegneria sociale potenziata dall'AI.

Immagine id 58392

"Una soluzione radicale potrebbe essere la certificazione universale di ogni contenuto digitale, ma questo approccio presenta rischi significativi per la libertà di espressione, specialmente in contesti politicamente repressivi. Un sistema che traccia ogni bit di informazione alla sua fonte potrebbe facilmente trasformarsi in uno strumento di sorveglianza e controllo".

L'alternativa più promettente sembra essere lo sviluppo di una filiera di tecnologie di rilevamento capaci di analizzare contenuti con o senza certificazione. "Invece di uno standard globale difficilmente realizzabile, potrebbe emergere un ecosistema di strumenti specializzati nell'identificazione di diverse caratteristiche dell'artificialità, capaci di classificare i contenuti come naturali (reali), sintetici (modificati) o completamente artificiali".

Questa catena di valore analitica potrebbe offrire livelli probabilistici di autenticità, riconoscendo che anche i contenuti taggati potrebbero essere manipolati e che l'assenza di certificazione non implica necessariamente artificialità. "Una filiera di tanti detectors, li chiamerei così, che abbiano l'opportunità di capire se quella realtà è sintetica, artificiale o naturale. Dove con 'naturale' intendiamo quello che abbiamo sempre inteso per realtà, con 'artificiale' una realtà totalmente generata artificialmente, e 'sintetica' una realtà che parte da una realtà fisica e mutata in digitale. Quindi la classica foto modificata, lo zoom con la persona che è reale ma lo sfondo che è falso, tutto questo è 'sintetico'".

In un mondo dove i social media sono già saturi di contenuti generati artificialmente, la capacità di discernere il reale dall'artificiale diventerà una competenza fondamentale tanto per le organizzazioni quanto per i singoli individui.

Le notizie più lette

#1
VPN: cos'è, come funziona e a cosa serve
1

Hardware

VPN: cos'è, come funziona e a cosa serve

#2
Cos'è una VPN (Virtual Private Network)
1

Hardware

Cos'è una VPN (Virtual Private Network)

#3
I vantaggi di usare una VPN mentre si viaggia
1

Hardware

I vantaggi di usare una VPN mentre si viaggia

#4
Perché siamo sempre più poveri? I veri motivi sono questi

Altri temi

Perché siamo sempre più poveri? I veri motivi sono questi

#5
C’è un problema negli scacchi, che si risolve cambiando la posizione di partenza
6

Scienze

C’è un problema negli scacchi, che si risolve cambiando la posizione di partenza

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Perché è così difficile avere una vera meritocrazia in azienda?

Business

Perché è così difficile avere una vera meritocrazia in azienda?

Di Valerio Porcu
Il fondatore di Google teme le tasse, scappa dalla California
4

Business

Il fondatore di Google teme le tasse, scappa dalla California

Di Valerio Porcu
Lenovo rilancia la serie ThinkPad al CES 2026 con il nuovo design Space Frame
1

Business

Lenovo rilancia la serie ThinkPad al CES 2026 con il nuovo design Space Frame

Di Valerio Porcu
Reddit diventa un operatore pubblicitario, sfida a Google e Meta
1

Business

Reddit diventa un operatore pubblicitario, sfida a Google e Meta

Di Valerio Porcu
Accenture nomina un nuovo CTO, arrivano 400 esperti di AI

Business

Accenture nomina un nuovo CTO, arrivano 400 esperti di AI

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.