Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Questi lavoratori hanno fatto causa ad un'azienda che usava l'IA per assumere
Business
Immagine di Anthropic e OpenAI, ecco i nuovi strumenti per programmare Anthropic e OpenAI, ecco i nuovi strumenti per programmare...
Immagine di Il 2026 sarà l’anno della verità per sovranità digitale e cybersecurity Il 2026 sarà l’anno della verità per sovranità digitale...

Questi lavoratori hanno fatto causa ad un'azienda che usava l'IA per assumere

I software di selezione basati sull'intelligenza artificiale dovrebbero seguire gli stessi standard delle agenzie di credito ? Si, secondo una causa legale.

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 27/01/2026 alle 10:27

La notizia in un minuto

  • Una class action in California accusa Eightfold AI di raccogliere dati sensibili dai candidati senza consenso e di assegnare punteggi automatizzati che influenzano le decisioni di assunzione senza trasparenza
  • I querelanti sostengono che l'azienda violi il Fair Credit Reporting Act, operando come un'agenzia di reporting creditizio senza rispettare le normative sulla tutela dei consumatori
  • Il caso potrebbe rappresentare un punto di svolta per l'intero settore del recruitment basato su IA, imponendo nuovi standard di difendibilità e responsabilità agli strumenti automatizzati di selezione

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

In California è stata depositata una class action che potrebbe segnare un punto di svolta nel rapporto tra tecnologie di selezione automatizzate e diritti dei candidati. La causa solleva questioni fondamentali sulla trasparenza e sulla responsabilità dei sistemi algoritmici utilizzati per valutare chi cerca occupazione.

Al centro della controversia c'è Eightfold AI, un'azienda di Santa Clara che si autodefinisce la più grande fonte di dati sui talenti al mondo in continuo aggiornamento. La società lavora con oltre 1,5 miliardi di punti dati globali e annovera tra i suoi clienti colossi come Microsoft, Morgan Stanley, Starbucks e Chevron. Secondo l'accusa, però, i suoi strumenti raccolgono informazioni sensibili sui candidati da fonti pubbliche come LinkedIn, siti di carriera e social media, per poi elaborare profili dettagliati senza che gli interessati ne siano consapevoli.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

I querelanti Erin Kistler e Sruti Bhaumik, rappresentati dallo studio legale Outten & Golden LLP di New York, sostengono di essere stati esclusi da diverse opportunità lavorative proprio a causa di questi sistemi. La loro tesi è che Eightfold operi di fatto come un'agenzia di reporting creditizio, ma senza rispettare le normative che regolano questo settore. In particolare, l'azienda avrebbe violato il Fair Credit Reporting Act, una legge federale del 1970 che disciplina la raccolta e l'uso di informazioni sui consumatori.

Il meccanismo descritto nella causa è tanto sofisticato quanto opaco. Gli algoritmi di Eightfold utilizzano modelli di linguaggio avanzati e tecnologie di deep learning per assegnare ai candidati un punteggio da 0 a 5, basato su previsioni riguardo alla loro adattabilità culturale, traiettoria professionale futura e altre caratteristiche personali. Questi rapporti vengono poi venduti alle aziende clienti che li utilizzano nelle decisioni di assunzione. Il problema, secondo i querelanti, è che tali valutazioni restano invisibili ai diretti interessati, che non hanno modo di verificarne l'accuratezza né di contestarne il contenuto.

I candidati con punteggi bassi vengono scartati prima che un essere umano esamini la loro domanda

La legge sulla tutela del credito al consumo, pur essendo stata concepita in un'epoca in cui l'intelligenza artificiale era fantascienza, contemplava già i rischi legati alla proliferazione di informazioni personali tramite computer. I legislatori dell'epoca espressero preoccupazione per il fatto che dati imprecisi e macchine rigide e prive di pensiero potessero danneggiare ingiustamente le opportunità di lavoro delle persone. Proprio per questo, secondo la causa, agenzie come Eightfold dovrebbero essere obbligate a divulgare le proprie pratiche e fornire ai consumatori strumenti per rivedere e correggere i rapporti.

Sanchit Vir Gogia, analista capo presso Greyhound Research, definisce questa causa "un punto di svolta" che va oltre la semplice analisi delle funzionalità dell'IA. La questione centrale riguarda la consapevolezza: le persone sanno che questi processi stanno avvenendo? L'esperto identifica quello che chiama un "fallimento di governance" e un "gap fondamentale di responsabilità" nel modo in cui le tecnologie di hiring vengono implementate.

Non si tratta di un caso isolato. Workday, altra importante società di servizi HR, affronta già un'azione legale simile per presunta discriminazione basata sull'età, la razza e la disabilità tramite i suoi strumenti di selezione automatizzata. Se i tribunali dovessero riconoscere che le valutazioni operate dall'intelligenza artificiale funzionano come rapporti di credito, l'intero settore del recruitment tecnologico entrerebbe in territorio regolamentato. Questo significherebbe requisiti stringenti in termini di notifica, trasparenza, diritti di verifica e possibilità di contestazione.

Gogia avverte che per i responsabili IT e delle risorse umane la difendibilità diventerà il nuovo standard. Non basterà più implementare uno strumento che promette efficienza: le aziende dovranno dimostrare di comprendere la logica dei modelli utilizzati, la provenienza dei dati e i motivi per cui un candidato è stato respinto. Dovranno inoltre avere processi

Fonte dell'articolo: www.computerworld.com

Le notizie più lette

#1
NordVPN vs Cyberghost: qual è la migliore?
2

Hardware

NordVPN vs Cyberghost: qual è la migliore?

#2
Un studio di 25 anni collega formaggio e demenza

Scienze

Un studio di 25 anni collega formaggio e demenza

#3
Niente GTA 6? Niente paura, per i giocatori PC c'è Fable

Editoriale

Niente GTA 6? Niente paura, per i giocatori PC c'è Fable

#4
Problemi coi giochi PC? NVIDIA dice che è colpa di Windows
3

Hardware

Problemi coi giochi PC? NVIDIA dice che è colpa di Windows

#5
macOS 26.3 anticipa l’arrivo dei nuovi MacBook Pro M5
2

Hardware

macOS 26.3 anticipa l’arrivo dei nuovi MacBook Pro M5

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Il 2026 sarà l’anno della verità per sovranità digitale e cybersecurity

Business

Il 2026 sarà l’anno della verità per sovranità digitale e cybersecurity

Di Valerio Porcu
Anthropic e OpenAI, ecco i nuovi strumenti per programmare
1

Business

Anthropic e OpenAI, ecco i nuovi strumenti per programmare

Di Valerio Porcu
Retelit investe 100 milioni in data center AI a Milano

Business

Retelit investe 100 milioni in data center AI a Milano

Di Antonello Buzzi
Boom AI in Italia, le Tlc rafforzano i modelli interni
1

Business

Boom AI in Italia, le Tlc rafforzano i modelli interni

Di Antonello Buzzi
Immagini AI, minori e responsabilità penali: il caso Grok davanti all’Europa

Business

Immagini AI, minori e responsabilità penali: il caso Grok davanti all’Europa

Di Avv. Giuseppe Croari
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.