Questa testata è partner di La Repubblica e contribuisce alla sua audience
Hot topics:
3 minuti

L'algoritmo italiano per smascherare razzismo e pregiudizi

Segreti che non vogliamo svelare e pensieri che non sappiamo nemmeno di avere. I computer potrebbero essere in grado di svelarli a noi e agli altri, come suggerisce un'affascinante esperimento sviluppato e realizzato all'Università di Modena e Reggio Emilia.

L'algoritmo italiano per smascherare razzismo e pregiudizi

Sono ben poche le persone pronte ad ammettere di avere dei pregiudizi, ma non è facile trovare qualcuno che ne sia completamente libero. I computer possono aiutarci a individuare quelli nascosti, a capire se sotto sotto siamo razzisti senza nemmeno saperlo?

Se lo sono chiesti i ricercatori dell'Università di Modena e Reggio Emilia, e per capirlo hanno architettato un esperimento che sfruttava una videocamera GoPro e un Microsoft Kinect, che avevano il compito di leggere le espressioni del viso e il linguaggio del corpo, alla ricerca di pensieri non espressi. Una ricerca che si è guadagnata la copertina di New Scientist in uscita il primo ottobre.

Depositphotos 70685543 l 2015
Immagine atikinka/Depositphotos

Prima di tutto i ricercatori hanno selezionato un gruppo di 32 studenti bianchi, e hanno sottoposto loro 2 questionari. Il primo era pensato per far emergere eventuali pregiudizi o preconcetti espliciti, mentre il secondo era un test per le associazioni implicite (Wikipedia, in inglese) mirato a far emergere pregiudizi razziali inconsci.

Successivamente i soggetti hanno avuto due conversazioni, una con un interlocutore bianco e l'altra con un nero. Due incontri da tre minuti l'uno, che hanno toccato temi neutri e altri più specifici, come l'immigrazione. Gli incontri sono stati filmati con i dispositivi menzionati.

Le immagini sono state poi esaminate tramite un algoritmo sviluppato proprio per questo specifico obiettivo. Si cercavano in particolare correlazioni tra le risposte ai questionari e la comunicazione non verbale. Successivamente il computer ha riesaminato i dati cercando di prevedere la presenza di pregiudizi inconsci. Il risultato è che questo tipo di analisi ha ottenuto una precisione dell'82%. Il gruppo ha presentato i risultati il mese scorso, e al momento sta già lavorando su due nuovi temi: i pregiudizi verso le persone sieropositive e il comportamento dei bambini.

Ciò che risulta interessante è senz'altro la capacità di individuare pensieri nascosti tramite un'analisi che è tutta tecnologica - garanzia di maggiore obiettività rispetto a un osservatore umano. Secondo Loris Vezzali, uno dei ricercatori che hanno preso parte alla ricerca, "queste nuove misurazioni possono offrire informazioni davvero oggettive. In questo modo si può monitorare l'interazione costantemente, secondo per secondo". Il software sviluppato in Emilia Romagna può servire anche per "sviluppare nuove teorie che non erano nemmeno pensabili con i metodi precedenti".

Un'eventuale diffusione di questi sistemi potrebbe in effetti cambiare profondamente il modo in cui ci comportiamo gli uni con gli altri. Quella che è stata sviluppata non è una fantascientifica macchina della verità, ma di sicuro molti di noi sarebbero perlomeno a disagio se fosse usata durante un incontro professionale, un colloquio di lavoro o in tanti altri contesti.

GoPro HERO Session GoPro HERO Session
  
Action Camera Action Camera
  
GoPro HERO4 GoPro HERO4
  
AREE TEMATICHE
Vuoi ricevere aggiornamenti su #Scienze?
Iscriviti alla newsletter!