Un numero crescente di aziende, come documentato da un'analisi dell'Economist, sta adottando software basati su intelligenza artificiale per analizzare le espressioni facciali e il tono della voce dei candidati durante video-interviste registrate. L'obiettivo dichiarato è valutare oggettivamente "soft skill" come l'affidabilità o la capacità di engagement, prima ancora che un essere umano visualizzi la candidatura.
Questo approccio si inserisce in un trend consolidato di automazione delle Risorse Umane, dove l'IA viene già usata per mansioni come la stesura delle offerte di lavoro o l'analisi delle performance.
Il miraggio dell'oggettività
Il problema fondamentale risiede nella premessa. L'idea che un algoritmo possa inferire la competenza o il carattere di una persona analizzando i suoi micro-movimenti facciali è vista da molti esperti come una pericolosa forma di pseudoscienza. Non esistono prove scientifiche conclamate che correlino in modo affidabile queste espressioni a specifiche performance lavorative.
Il rischio, concreto e documentato in tecnologie affini, è di reintrodurre massicciamente bias discriminatori su larga scala. Questi sistemi, addestrati su set di dati limitati, possono penalizzare sistematicamente candidati che non rientrano in una norma statistica, ad esempio per il loro background culturale (che influenza le espressioni), per accenti non standard o per condizioni neurodivergenti.
L'automazione del processo di assunzione sta già avendo impatti dirompenti sul settore, come dimostrano le recenti ristrutturazioni in aziende come Indeed. Introdurre strumenti di analisi facciale non fa che accelerare questa trasformazione, sollevando però dubbi sulla qualità, e non solo sull'efficienza, del risultato.
Un campo minato normativo
Le aziende che adottano acriticamente queste tecnologie si espongono a rischi legali crescenti. Il dibattito non è nuovo: l'uso dell'IA per compiti HR, come la stesura di annunci o la gestione dei talenti, è già sotto osservazione. Ma l'analisi facciale tocca un nervo scoperto, quello dei dati biometrici e della discriminazione automatizzata.
Temi che tra l'altro sono coperti e normati tramite l'AI Act. Naturalmente non basta l'esistenza di una legge per essere certi che tutti la rispettino, ma è sempre saggio tenerne conto perché poi eventuali denunce possono rivelarsi molto costose.
Anche negli Stati Uniti, giurisdizioni come New York City hanno già introdotto normative stringenti che obbligano le aziende a condurre audit indipendenti sui bias dei loro strumenti di assunzione automatizzati e a informare i candidati.
La tendenza è chiara: la "scatola nera" decisionale non è più tollerata. La spinta per una maggiore trasparenza algoritmica cresce, con proposte di legge come il "No Robo Bosses Act" in California che mirano a vietare che decisioni critiche, come licenziamenti o assunzioni, siano prese esclusivamente da un algoritmo. Una proposta che segue la direzione indicata dall'Europa solo pochi mesi fa.
L'automazione del giudizio umano tramite l'analisi facciale rappresenta un'illusione di efficienza che rischia di trasformare il processo di assunzione in una lotteria algoritmica.
La vera sfida per le aziende non è implementare l'ultimo, luccicante software di IA, ma definire cosa è eticamente accettabile e scientificamente valido nel valutare le persone. Delegare a un algoritmo la responsabilità di giudicare il carattere umano non è innovazione; è un'abdicazione della responsabilità manageriale.