Gli strumenti IA per generare immagini esistono da circa un anno e sono già oltre 15 miliardi le immagini in circolazione. Il problema è che distinguere un’immagine “vera” da una generata può essere molto difficile, e presto potrebbe essere del tutto impossibile.
Per affrontare il problema, Google DeepMind, il team che si occupa appunto di IA, ha creato SynthID. Si tratta in poche parole di un watermark avanzato, un segnale digitale da aggiungere alle immagini IA, che le rende riconoscibili. Non è visibile a occhio nudo, quindi non altera la bellezza dell’immagine, ma è facile individuarlo digitalmente. E può resistere anche a operazioni di modifica, almeno parzialmente.
L’idea, come spiega anche Demis Hassabis (CEO di Google DeepMind) è affrontare il problema dei deepfake e della disinformazione e misinformazione: molti lettori ricorderanno le immagini di Donald Trump arrestato o quelle del papa con un giubbotto alla moda. E di recente proprio Google è stata accusata di complicità della pornografia non consensuale.
SynthID tuttavia non sembra una soluzione utile a risolvere questi problemi. Certo, secondo Google questo watermark resiste anche se si manipola l’immagine in qualche programma, ma il problema è che bisogna inserirlo in fase di creazione.
Sarà quindi necessario che tutti i sistemi IA per la generazione di immagini integrino SynthID o qualcosa di equivalente: potrebbe farlo Google, e magari OpenAI deciderà di accodarsi, forse anche Midjourney. Ma gli strumenti sono tanti e mettere tutti d’accordo sarebbe quasi impossibile.
Anche perché ci sono tante persone che non vogliono questo tipo di riconoscibilità: c’è chi crea immagini false ma credibili proprio per metterle in circolazione e ingannare quante più persone possibili. Perché mai dovrebbero usare SynthID?
Il problema soggiacente sembra essere che Google, né altri, è in grado di riconoscere un’immagine generata. Non può farlo Google Immagini né Google Search, così come non è possibile riconoscere un testo generato da uno scritto da mani umane.
Non si può fare, e le cose non miglioreranno.
L’insicurezza di Google traspare anche dal post che parla di SynthID. Qui Google sembra puntare sull’approccio security by obscurity; cioè svelare il meno possibile su SynthID per non dare strumenti agli hacker del mondo. Un approccio che però non funziona, come dimostrano anni di studi ed esperienza nella sicurezza informatica. Se Google si riduce a questo, forse c’è qualcosa che non va.
"Più si svela il suo funzionamento, più sarà facile per gli hacker e le entità malintenzionate aggirarlo", afferma Hassabis.
Google non è l’unica azienda che si sta sforzando in questa direzione, e c’è un consenso generale sulla necessità di distinguere i contenuti generati da quelli autentici. Tuttavia sembra che ancora nessuno abbia ben capito come fare, e intanto gli algoritmi continuano a migliorare e ad evolversi.
Sa un po’ di resa, dunque, la proposta di Google. D’altra parte altri si sono già arresi, come OpenAI, che non è in grado di dirci se un testo è stato creato da un essere umano o da ChatGPT.
Ma se anche un sistema come SynthID dovesse prendere piede, allora si innescherà una competizione con hacker che cercheranno costantemente di batterlo, e sarà un colpo su colpo di aggiornamenti, all’infinito.
Immagine di copertina: peshkov