Le IA sono state addestrare con immagini di abusi su minori

Ricercatori dell'Università di Stanford hanno scoperto che alcune IA sono state addestrate con un database contenente immagini di abusi su minori.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Managing Editor

Alcuni ricercatori dell’università di Stanford hanno scoperto più di 1.000 immagini di abusi sessuali su minori all’interno di un databse usato per addestrare IA. Il rapporto è stato pubblicato dall’Osseravotiro Internet dell’Università ed evidenzia il rischio che queste immagini abbiano dato vita (involontariamente) a intelligenze artificiali capaci di generare immagini che ritraggono queste scene.

Per identificare le immagini, i ricercatori hanno utilizzato un metodo di scansione per "hash," parti di codice uniche corrispondenti ai contenuti illegali, salvate in liste di controllo online mantenute da organizzazioni come il National Center for Missing and Exploited Children e il Canadian Center for Child Protection. La scoperta, decisamente allarmante, sottolinea la forte necessità di salvaguardie complete nello sviluppo e nell'applicazione delle tecnologie IA.

Il database in questione è LAION-5B, usato anche da modelli molto famosi come Stable Diffusion per creare immagini estremamente realistiche. Ciò che ha generato ancor più preoccupazione tra i ricercatori che hanno fatto la scoperta è che le IA si stanno diffondendo sempre di più anche su forum illeciti, dove vengono indicate come mezzi per creare immagini non censurate di minori. Purtroppo, il numero di immagini trovate è più che sufficiente per consentire all’IA di crearne altre.

David Thiel, autore del rapporto e tecnologo capo presso l'Osservatorio Internet di Stanford, sottolinea che la presenza di tali immagini concede ai modelli AI la possibilità di simulare lo sfruttamento minorile reale. La gravità della situazione ha spinto i rappresentanti di LAION a ritirare temporaneamente il set di dati, garantendone la sicurezza prima di ripubblicarlo.

Lo studio dell’Università di Stanford mostra anche come ci sia una evoluzione nella comprensione di come gli strumenti AI generino contenuti abusivi. A differenza delle precedenti ipotesi, secondo cui l'AI combinava concetti astratti per creare immagini esplicite, la ricerca suggerisce che ora si utilizzino immagini effettive per perfezionare quelle create dell'IA, rendendole più convincentemente realistiche.

I ricercatori hanno chiesto apertamente maggior regolamentazione e trasparenza nei set di dati usati per l’addestramento delle intelligenze artificiali. Potrebbero ad esempio essere implementati protocolli per esaminare e rimuovere contenuti abusivi, oltre a un’informazione dettagliata dei contenuti presenti nei database, così da evitare l’inclusione involontaria di materiale inappropriato. I ricercatori suggeriscono anche di studiare un modo per far “dimenticare” ai modelli allenati con questo set di dati come generare immagini esplicite.