In California è stata depositata una class action che potrebbe segnare un punto di svolta nel rapporto tra tecnologie di selezione automatizzate e diritti dei candidati. La causa solleva questioni fondamentali sulla trasparenza e sulla responsabilità dei sistemi algoritmici utilizzati per valutare chi cerca occupazione.
Al centro della controversia c'è Eightfold AI, un'azienda di Santa Clara che si autodefinisce la più grande fonte di dati sui talenti al mondo in continuo aggiornamento. La società lavora con oltre 1,5 miliardi di punti dati globali e annovera tra i suoi clienti colossi come Microsoft, Morgan Stanley, Starbucks e Chevron. Secondo l'accusa, però, i suoi strumenti raccolgono informazioni sensibili sui candidati da fonti pubbliche come LinkedIn, siti di carriera e social media, per poi elaborare profili dettagliati senza che gli interessati ne siano consapevoli.
I querelanti Erin Kistler e Sruti Bhaumik, rappresentati dallo studio legale Outten & Golden LLP di New York, sostengono di essere stati esclusi da diverse opportunità lavorative proprio a causa di questi sistemi. La loro tesi è che Eightfold operi di fatto come un'agenzia di reporting creditizio, ma senza rispettare le normative che regolano questo settore. In particolare, l'azienda avrebbe violato il Fair Credit Reporting Act, una legge federale del 1970 che disciplina la raccolta e l'uso di informazioni sui consumatori.
Il meccanismo descritto nella causa è tanto sofisticato quanto opaco. Gli algoritmi di Eightfold utilizzano modelli di linguaggio avanzati e tecnologie di deep learning per assegnare ai candidati un punteggio da 0 a 5, basato su previsioni riguardo alla loro adattabilità culturale, traiettoria professionale futura e altre caratteristiche personali. Questi rapporti vengono poi venduti alle aziende clienti che li utilizzano nelle decisioni di assunzione. Il problema, secondo i querelanti, è che tali valutazioni restano invisibili ai diretti interessati, che non hanno modo di verificarne l'accuratezza né di contestarne il contenuto.
La legge sulla tutela del credito al consumo, pur essendo stata concepita in un'epoca in cui l'intelligenza artificiale era fantascienza, contemplava già i rischi legati alla proliferazione di informazioni personali tramite computer. I legislatori dell'epoca espressero preoccupazione per il fatto che dati imprecisi e macchine rigide e prive di pensiero potessero danneggiare ingiustamente le opportunità di lavoro delle persone. Proprio per questo, secondo la causa, agenzie come Eightfold dovrebbero essere obbligate a divulgare le proprie pratiche e fornire ai consumatori strumenti per rivedere e correggere i rapporti.
Sanchit Vir Gogia, analista capo presso Greyhound Research, definisce questa causa "un punto di svolta" che va oltre la semplice analisi delle funzionalità dell'IA. La questione centrale riguarda la consapevolezza: le persone sanno che questi processi stanno avvenendo? L'esperto identifica quello che chiama un "fallimento di governance" e un "gap fondamentale di responsabilità" nel modo in cui le tecnologie di hiring vengono implementate.
Non si tratta di un caso isolato. Workday, altra importante società di servizi HR, affronta già un'azione legale simile per presunta discriminazione basata sull'età, la razza e la disabilità tramite i suoi strumenti di selezione automatizzata. Se i tribunali dovessero riconoscere che le valutazioni operate dall'intelligenza artificiale funzionano come rapporti di credito, l'intero settore del recruitment tecnologico entrerebbe in territorio regolamentato. Questo significherebbe requisiti stringenti in termini di notifica, trasparenza, diritti di verifica e possibilità di contestazione.
Gogia avverte che per i responsabili IT e delle risorse umane la difendibilità diventerà il nuovo standard. Non basterà più implementare uno strumento che promette efficienza: le aziende dovranno dimostrare di comprendere la logica dei modelli utilizzati, la provenienza dei dati e i motivi per cui un candidato è stato respinto. Dovranno inoltre avere processi