Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea
Business
Immagine di AI Far West: Anthropic contro il Pentagono e la sfida globale tra Etica e Potere AI Far West: Anthropic contro il Pentagono e la sfida global...
Immagine di Ho scritto che il coding è morto, ecco come gli sviluppatori mi hanno risposto Ho scritto che il coding è morto, ecco come gli sviluppator...

Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea

L'uso crescente di analisi facciali basate su IA per selezionare candidati solleva allarmi su scientificità, bias e implicazioni etiche nel processo di assunzione.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 10/11/2025 alle 14:05
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Un numero crescente di aziende, come documentato da un'analisi dell'Economist, sta adottando software basati su intelligenza artificiale per analizzare le espressioni facciali e il tono della voce dei candidati durante video-interviste registrate. L'obiettivo dichiarato è valutare oggettivamente "soft skill" come l'affidabilità o la capacità di engagement, prima ancora che un essere umano visualizzi la candidatura.

Questo approccio si inserisce in un trend consolidato di automazione delle Risorse Umane, dove l'IA viene già usata per mansioni come la stesura delle offerte di lavoro o l'analisi delle performance.  

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Il miraggio dell'oggettività

Il problema fondamentale risiede nella premessa. L'idea che un algoritmo possa inferire la competenza o il carattere di una persona analizzando i suoi micro-movimenti facciali è vista da molti esperti come una pericolosa forma di pseudoscienza. Non esistono prove scientifiche conclamate che correlino in modo affidabile queste espressioni a specifiche performance lavorative.

Non esistono prove scientifiche conclamate che correlino in modo affidabile queste espressioni a specifiche performance lavorative.

Il rischio, concreto e documentato in tecnologie affini, è di reintrodurre massicciamente bias discriminatori su larga scala. Questi sistemi, addestrati su set di dati limitati, possono penalizzare sistematicamente candidati che non rientrano in una norma statistica, ad esempio per il loro background culturale (che influenza le espressioni), per accenti non standard o per condizioni neurodivergenti.

L'automazione del processo di assunzione sta già avendo impatti dirompenti sul settore, come dimostrano le recenti ristrutturazioni in aziende come Indeed. Introdurre strumenti di analisi facciale non fa che accelerare questa trasformazione, sollevando però dubbi sulla qualità, e non solo sull'efficienza, del risultato.

Un campo minato normativo

Le aziende che adottano acriticamente queste tecnologie si espongono a rischi legali crescenti. Il dibattito non è nuovo: l'uso dell'IA per compiti HR, come la stesura di annunci o la gestione dei talenti, è già sotto osservazione. Ma l'analisi facciale tocca un nervo scoperto, quello dei dati biometrici e della discriminazione automatizzata.

Temi che tra l'altro sono coperti e normati tramite l'AI Act. Naturalmente non basta l'esistenza di una legge per essere certi che tutti la rispettino, ma è sempre saggio tenerne conto perché poi eventuali denunce possono rivelarsi molto costose.  

Anche negli Stati Uniti, giurisdizioni come New York City hanno già introdotto normative stringenti che obbligano le aziende a condurre audit indipendenti sui bias dei loro strumenti di assunzione automatizzati e a informare i candidati.

Negli Stati Uniti, giurisdizioni come New York City hanno già introdotto normative stringenti che obbligano le aziende a condurre audit indipendenti.

La tendenza è chiara: la "scatola nera" decisionale non è più tollerata. La spinta per una maggiore trasparenza algoritmica cresce, con proposte di legge come il "No Robo Bosses Act" in California che mirano a vietare che decisioni critiche, come licenziamenti o assunzioni, siano prese esclusivamente da un algoritmo. Una proposta che segue la direzione indicata dall'Europa solo pochi mesi fa.

L'automazione del giudizio umano tramite l'analisi facciale rappresenta un'illusione di efficienza che rischia di trasformare il processo di assunzione in una lotteria algoritmica.

L'automazione del giudizio umano tramite l'analisi facciale rappresenta un'illusione di efficienza.

La vera sfida per le aziende non è implementare l'ultimo, luccicante software di IA, ma definire cosa è eticamente accettabile e scientificamente valido nel valutare le persone. Delegare a un algoritmo la responsabilità di giudicare il carattere umano non è innovazione; è un'abdicazione della responsabilità manageriale.

Le notizie più lette

#1
Un noto integratore cerebrale accorcia la vita degli uomini
2

Scienze

Un noto integratore cerebrale accorcia la vita degli uomini

#2
I browser IA sono pericolosi, e nessuno ve lo dice
4

Hardware

I browser IA sono pericolosi, e nessuno ve lo dice

#3
5 cose da fare prima di comprare altra RAM per il vostro PC
8

Hardware

5 cose da fare prima di comprare altra RAM per il vostro PC

#4
La California impone la verifica dell'età su tutti gli OS
2

Hardware

La California impone la verifica dell'età su tutti gli OS

#5
C'è una brutta notizia per i giochi PlayStation su PC

Videogioco

C'è una brutta notizia per i giochi PlayStation su PC

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Il Vibe Coding ci renderà tutti programmatori o tutti disoccupati?

Business

Il Vibe Coding ci renderà tutti programmatori o tutti disoccupati?

Di Antonino Caffo
Ho scritto che il coding è morto, ecco come gli sviluppatori mi hanno risposto

Business

Ho scritto che il coding è morto, ecco come gli sviluppatori mi hanno risposto

Di Roberto Buonanno
AI Far West: Anthropic contro il Pentagono e la sfida globale tra Etica e Potere
1

Business

AI Far West: Anthropic contro il Pentagono e la sfida globale tra Etica e Potere

Di Pasquale Viscanti e Giacinto Fiore
Reti che pensano e SIM nel cloud: la nuova architettura della connettività industriale
1

Business

Reti che pensano e SIM nel cloud: la nuova architettura della connettività industriale

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.