Fake news, deepfake video, audio, una separazione sempre più sottile tra verità e finzione. L'intelligenza artificiale generativa sta ridisegnando i confini tra vero e falso, ponendo sfide significative alla nostra capacità di distinguere contenuti autentici da quelli artificiali. Gli strumenti per identificare i contenuti sintetici faticano a tenere il passo, creando un pericoloso divario che potrebbe avere profonde implicazioni per la società dell'informazione. La questione non è più se possiamo essere ingannati, ma quanto facilmente e con quali conseguenze, in un mondo dove la verifica dell'autenticità diventa sempre più complessa.
Durante la I/O 2025, Google ha annunciato Synth Detector, strumento nato per identificare in modo rapido i contenuti generati dall'intelligenza artificiale di Google. Questo sistema inserisce informazioni invisibili all'occhio umano nei contenuti, permettendo teoricamente di verificarne l'origine. Tuttavia, Synth3D presenta limitazioni significative: funziona esclusivamente con contenuti generati da Google e, come tutte le tecnologie basate su filigrane, opera fondamentalmente come un sistema di autocertificazione.
"Vuol dire che l'utente autocertifica, in quel momento, in quell'ora, attraverso la piattaforma di Google, una determinata immagine, video o contenuto. Questo risolve il problema per quanto riguarda gli attaccanti dello stile, cioè gli errori. È evidente che se c'è la possibilità che qualcuno voglia introdurre una fake news, un documento o comunque un contenuto appositamente malevole o fatto apposta per ingannare, non usa una filigrana per autenticarlo" ci dice Marco Ramilli, founder, IdentifAI.
Insomma, un attore malintenzionato può semplicemente evitare piattaforme che inseriscono filigrane, utilizzare strumenti che non adottano questa tecnologia, o rimuovere facilmente tali marcature dai contenuti. In sostanza, chi vuole deliberatamente ingannare raramente lascerà tracce della propria manipolazione.
La sfida del riconoscimento testuale e visivo
Il riconoscimento di contenuti generati artificialmente segue approcci diversi a seconda del medium. "Principalmente avviene attraverso uno studio di frequenza. Si analizza la frequenza di alcune parole poco utilizzate nel parlato quotidiano e che invece sono più comuni nei prodotti degli LLM. L'analisi del testo è però complessa. La lingua utilizzata, la grammatica, il contesto formale o informale, e molti altri fattori limitano naturalmente la nostra libertà espressiva. Minore è la libertà espressiva, maggiore è la somiglianza tra contenuti umani e artificiali. Questo rende particolarmente difficile identificare testi generati artificialmente senza l'ausilio di filigrane digitali, che però sono facilmente rimovibili".
Per quanto riguarda le immagini, le filigrane digitali vengono implementate in due modalità principali: inserimento nei metatag dell'immagine o utilizzo di tecniche steganografiche che modificano impercettibilmente i colori per codificare informazioni. Entrambi gli approcci presentano vulnerabilità significative. I metatag possono essere facilmente rimossi con semplici strumenti di editing, mentre le alterazioni steganografiche possono essere eliminate rigenerando l'immagine con algoritmi di IA.
La diffusione dello standard C2PA è inoltre ostacolata da fattori geopolitici ed economici. "Essendo nato principalmente in ambiente statunitense e guidato da aziende come Microsoft, molti paesi con relazioni geopolitiche complesse con gli USA preferiscono non adottarlo. Parallelamente, alcuni fornitori di servizi IA evitano deliberatamente di implementare filigrane come strategia di differenziazione commerciale, promuovendo l'anonimato e la privacy come vantaggi competitivi".
Il futuro dell'autenticazione dei contenuti
Le proiezioni degli analisti dipingono un quadro preoccupante. Secondo Gartner, entro il 2028 il 50% delle aziende globali dovrà implementare strumenti di verifica dei contenuti, mentre il 75% delle frodi potrebbe essere perpetrato attraverso sistemi di intelligenza artificiale generativa. Questi numeri, sebbene ancora indicativi data la giovane età della tecnologia (circa un anno per i sistemi più avanzati), suggeriscono un cambiamento radicale nel panorama della sicurezza informatica.
"Oggi su X così come su Facebook è quasi più facile trovare un contenuto generato artificialmente che uno 'umano'. Gli stessi social non fanno nulla per contrastarli, mentre secondo me dovrebbero agire, perché prima o poi la gente si annoierà di scrollare cose non reali. Cioè vorrei avere la possibilità di sapere se dall'altra parte c'è un essere umano che ha fatto quelle cose. Il trend è molto significativo".
La questione della sicurezza
La sofisticazione delle difese tradizionali ha paradossalmente spostato il vettore d'attacco: non è più necessario violare complessi sistemi informatici quando è possibile impersonare figure autorevoli attraverso deepfake visivi o vocali convincenti. Le organizzazioni hanno investito milioni in firewall, antivirus, SOC e altre tecnologie difensive, ma queste risultano inefficaci contro un attacco che sfrutta l'ingegneria sociale potenziata dall'AI.
"Una soluzione radicale potrebbe essere la certificazione universale di ogni contenuto digitale, ma questo approccio presenta rischi significativi per la libertà di espressione, specialmente in contesti politicamente repressivi. Un sistema che traccia ogni bit di informazione alla sua fonte potrebbe facilmente trasformarsi in uno strumento di sorveglianza e controllo".
L'alternativa più promettente sembra essere lo sviluppo di una filiera di tecnologie di rilevamento capaci di analizzare contenuti con o senza certificazione. "Invece di uno standard globale difficilmente realizzabile, potrebbe emergere un ecosistema di strumenti specializzati nell'identificazione di diverse caratteristiche dell'artificialità, capaci di classificare i contenuti come naturali (reali), sintetici (modificati) o completamente artificiali".
Questa catena di valore analitica potrebbe offrire livelli probabilistici di autenticità, riconoscendo che anche i contenuti taggati potrebbero essere manipolati e che l'assenza di certificazione non implica necessariamente artificialità. "Una filiera di tanti detectors, li chiamerei così, che abbiano l'opportunità di capire se quella realtà è sintetica, artificiale o naturale. Dove con 'naturale' intendiamo quello che abbiamo sempre inteso per realtà, con 'artificiale' una realtà totalmente generata artificialmente, e 'sintetica' una realtà che parte da una realtà fisica e mutata in digitale. Quindi la classica foto modificata, lo zoom con la persona che è reale ma lo sfondo che è falso, tutto questo è 'sintetico'".
In un mondo dove i social media sono già saturi di contenuti generati artificialmente, la capacità di discernere il reale dall'artificiale diventerà una competenza fondamentale tanto per le organizzazioni quanto per i singoli individui.