Donna chiede all'IA di migliorare un ritratto, si ritrova di un'altra razza

Il problema dei pregiudizi nelle AI va risolto, ma non si capisce come

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Una donna statunitense di origini asiatiche ha usato un’app per migliorare automaticamente un suo ritratto. Si aspettava forse un ritocco della luce, magari ciglia più curate e una pelle più liscia, insomma le solite cose. E invece si è vista trasformata in una donna caucasica con gli occhi azzurri. Rona Wang, questo il nome della donna, aveva creato un comando per rendere l’immagine più “professionale”, con l’idea di usarla per il profilo Linkedin.

Suhail Doshi, CEO di Playground AI (che produce l’app in questione) ha rilasciato una dichiarazione, in risposta alla prevedibile viralità della pubblicazione.

"Se lancio un dado una sola volta e ottengo il numero 1, significa che otterrò sempre il numero 1?", è stata la sua battuta. “Dovrei concludere, sulla base di una singola osservazione, che il dado è orientato verso il numero 1 ed è stato addestrato per essere predisposto a lanciare un 1?". Una risposta tutto sommato sensata dal punto di vista statistico, mentre per Wang (e molti altri con lei) è una questione di tutt’altra natura.

Certo che un solo evento non è statisticamente rilevante. Ma la verità è che questo è uno di molti. "Mi sono chiesta: "Wow, questa cosa pensa che dovrei diventare bianca per diventare più professionale?"", ha detto al Boston Globe, aggiungendo che spera che "le persone che creano software siano consapevoli di questi pregiudizi e pensino a come mitigarli".

Wang non è l’unica ad aver vissuto questa esperienza di “bianchificazione”, e sono in molti che - da anni ormai - insistono sul problema dei pregiudizi nella IA. Dalle aziende che producono le IA, però, finora non ci sono state vere risposte.

Al limite sono riusciti ad aggiungere delle subroutine, dei comandi aggiuntivi, per impedire alle IA di fare alcune cose. Per esempio, in teoria non puoi chiedere a ChatGPT di creare un discorso xenofbo, omofobo o di stampo simile. Ma in verità si sono trovati diversi modi per aggirare questo tipo di limite.

E il problema non sarebbe nemmeno che l’algoritmo può essere “cattivo” se glielo si chiede esplicitamente; è che certe deviazioni emergono anche se non richieste.

Il problema, come sempre, sono i dati utilizzati. Se un algoritmo viene addestrato con milioni di immagini, e qualcuno (delle persone, non altri computer) gli dice che una donna dall’aspetto professionale deve essere per forza bianca, allora la macchina si adeguerà a questa istruzione.

Nei set di dati manca diversità, e probabilmente ci sarà una carenza di “donne dall’aspetto professionale” che siano africane, asiatiche o di altre etnie. L’algoritmo semplicemente “non sa” che esistono altre opzioni oltre a quelle che conosce. Non sono certo abbastanza intelligenti da inferire qualcosa in più rispetto a ciò che è stato inserito in precedenza; al massimo fanno il contrario, togliendo informazioni importanti oppure alterandole e rendendole sbagliate.

Potrebbero almeno provarci, ma invece no

Già, ma ci sono delle persone che dirigono queste aziende: i capi di Google, OpenAI, Microsoft e così via potrebbero perfettamente dire qualcosa el genere

Sai cosa? è tutto sbagliato. Ricominciamo da zero e facciamo le cose per bene. Prendiamo delle persone, selezionamole per assicurarci che garantiscano una rappresentazione di tutta la diversità umana, e poi chiediamo a loro di etichettare i dati. E poi lo rifacciamo altre due volte, cambiando le persone. E alla fine diamo i dati in pasto all’algoritmo. Il risultato non sarà perfetto ma avremo fatto un bel passo avanti.

Una cosa del genere ovviamente costerebbe un sacco di soldi, persino per le fornitissime casse di queste aziende. Forse è meglio lasciar perdere, visto che dopotutto questi strumenti stanno comunque generando profitti fantastici, quindi perché preoccuparsi?

Certo, c’è una questione politica dietro a tutto questo, e non mancano persone secondo cui se l’algoritmo discrimina è perché dopotutto è la realtà a essere così, quindi ciò che abbiamo davanti è tutto sommato una prova di certi pensieri, mica un grossolano errore.

Ma se sul tavolo ci sono questioni politiche e bilanci, l’ago della bilancia favorisce sempre i bilanci e i dividendi. Le Rona Wang del mondo dovranno trovare un altro modo per superare il problema.