Un sito permette di richiedere deepfake di chiunque, generando scenari atroci

Civitai, un marketplace online per la condivisione di modelli di IA, ha introdotto una nuova funzione che permette agli utenti di pubblicare "taglie".

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Civitai, un marketplace online per la condivisione di modelli di intelligenza artificiale che consente la creazione di immagini sessuali non consensuali di persone reali, ha introdotto una nuova funzionalità che permette agli utenti di pubblicare "taglie".

Queste taglie (o bounty in inglese) consentono agli utenti di chiedere alla community di Civitai di creare modelli di intelligenza artificiale in grado di generare immagini con stili, composizioni e persone reali specifiche, permettendo di premiare il miglior modello di intelligenza artificiale, che realizza le richieste nella maniera più accurata, con una valuta virtuale acquistabile con denaro reale.

Ovviamente, molte delle taglie pubblicate su Civitai da quando è stata introdotta questa funzione, sono incentrate sulla ricreazione di scenari, posizioni e specifiche situazioni, che vedono come protagonisti celebrità e influencer dei social media e, giusto per dissipare ogni eventuale dubbio, quasi esclusivamente di donne.

404 Media, che h cominciato a indagare su Civitai e sulle richieste che vengono fatte dalla community, ha però riscontrato una taglia per una persona privata, la quale non ha una significativa presenza online e non risulta nemmeno essere un personaggio pubblico al di fuori dei social network.

"Sono molto preoccupata su cosa possa diventare tutto questo, da anni affronto problemi legati all'abuso della mia immagine ma una situazione del genere va contro ogni mia previsione", ha detto Michele Alves, un'influencer di Instagram che ha una taglia su Civitai, a 404 Media. 

"Non so quali misure potrei prendere, dato che internet sembra un luogo fuori controllo. L'unica cosa a cui penso è come potrebbe influenzarmi mentalmente veder realizzare degli scenari di quel tipo, con la mia immagine e senza consenso, perché questo va oltre l'essere semplicemente offensivo".

Questo scenario mostra, ancora una volta, come l'intelligenza artificiale capace di convertire testo in immagini, o video, sia sempre più facile da usare e permetta, con maggiore facilità di creare modelli di persone specifiche.

Quello che però fa ribrezzo è il trovare una piattaforma che monetizza sulla produzione di immagini sessuali non consensuali di chiunque, non solo di celebrità, considerando gli scenari atroci che questo strumento potrebbe generare.

Immaginatevi casi di revenge porn, o di diffamazione, basati su immagini non reali, create a tavolino da qualcuno che viene pagato per questo servizio e che, se ben confezionate, risultano difficili da certificare come falsi. Uno scenario terribile e che si spera possa venire regolarizzato quanto prima.