Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea
Business
Immagine di Accenture nomina un nuovo CTO, arrivano 400 esperti di AI Accenture nomina un nuovo CTO, arrivano 400 esperti di AI...
Immagine di Chatbot AI: il futuro del customer care è qui Chatbot AI: il futuro del customer care è qui...

Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea

L'uso crescente di analisi facciali basate su IA per selezionare candidati solleva allarmi su scientificità, bias e implicazioni etiche nel processo di assunzione.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 10/11/2025 alle 14:05
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Un numero crescente di aziende, come documentato da un'analisi dell'Economist, sta adottando software basati su intelligenza artificiale per analizzare le espressioni facciali e il tono della voce dei candidati durante video-interviste registrate. L'obiettivo dichiarato è valutare oggettivamente "soft skill" come l'affidabilità o la capacità di engagement, prima ancora che un essere umano visualizzi la candidatura.

Questo approccio si inserisce in un trend consolidato di automazione delle Risorse Umane, dove l'IA viene già usata per mansioni come la stesura delle offerte di lavoro o l'analisi delle performance.  

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Il miraggio dell'oggettività

Il problema fondamentale risiede nella premessa. L'idea che un algoritmo possa inferire la competenza o il carattere di una persona analizzando i suoi micro-movimenti facciali è vista da molti esperti come una pericolosa forma di pseudoscienza. Non esistono prove scientifiche conclamate che correlino in modo affidabile queste espressioni a specifiche performance lavorative.

Non esistono prove scientifiche conclamate che correlino in modo affidabile queste espressioni a specifiche performance lavorative.

Il rischio, concreto e documentato in tecnologie affini, è di reintrodurre massicciamente bias discriminatori su larga scala. Questi sistemi, addestrati su set di dati limitati, possono penalizzare sistematicamente candidati che non rientrano in una norma statistica, ad esempio per il loro background culturale (che influenza le espressioni), per accenti non standard o per condizioni neurodivergenti.

L'automazione del processo di assunzione sta già avendo impatti dirompenti sul settore, come dimostrano le recenti ristrutturazioni in aziende come Indeed. Introdurre strumenti di analisi facciale non fa che accelerare questa trasformazione, sollevando però dubbi sulla qualità, e non solo sull'efficienza, del risultato.

Un campo minato normativo

Le aziende che adottano acriticamente queste tecnologie si espongono a rischi legali crescenti. Il dibattito non è nuovo: l'uso dell'IA per compiti HR, come la stesura di annunci o la gestione dei talenti, è già sotto osservazione. Ma l'analisi facciale tocca un nervo scoperto, quello dei dati biometrici e della discriminazione automatizzata.

Temi che tra l'altro sono coperti e normati tramite l'AI Act. Naturalmente non basta l'esistenza di una legge per essere certi che tutti la rispettino, ma è sempre saggio tenerne conto perché poi eventuali denunce possono rivelarsi molto costose.  

Anche negli Stati Uniti, giurisdizioni come New York City hanno già introdotto normative stringenti che obbligano le aziende a condurre audit indipendenti sui bias dei loro strumenti di assunzione automatizzati e a informare i candidati.

Negli Stati Uniti, giurisdizioni come New York City hanno già introdotto normative stringenti che obbligano le aziende a condurre audit indipendenti.

La tendenza è chiara: la "scatola nera" decisionale non è più tollerata. La spinta per una maggiore trasparenza algoritmica cresce, con proposte di legge come il "No Robo Bosses Act" in California che mirano a vietare che decisioni critiche, come licenziamenti o assunzioni, siano prese esclusivamente da un algoritmo. Una proposta che segue la direzione indicata dall'Europa solo pochi mesi fa.

L'automazione del giudizio umano tramite l'analisi facciale rappresenta un'illusione di efficienza che rischia di trasformare il processo di assunzione in una lotteria algoritmica.

L'automazione del giudizio umano tramite l'analisi facciale rappresenta un'illusione di efficienza.

La vera sfida per le aziende non è implementare l'ultimo, luccicante software di IA, ma definire cosa è eticamente accettabile e scientificamente valido nel valutare le persone. Delegare a un algoritmo la responsabilità di giudicare il carattere umano non è innovazione; è un'abdicazione della responsabilità manageriale.

Le notizie più lette

#1
VPN: cos'è, come funziona e a cosa serve
1

Hardware

VPN: cos'è, come funziona e a cosa serve

#2
NVIDIA non ha presentato nessuna GPU al CES 2026: è la prima volta in 5 anni
3

CES 2026

NVIDIA non ha presentato nessuna GPU al CES 2026: è la prima volta in 5 anni

#3
Intel presenta i processori Core Ultra Series 3 al CES 2026

CES 2026

Intel presenta i processori Core Ultra Series 3 al CES 2026

#4
Il DLSS 4.5 è qui, fino a 6 frame generati per giocare in 4K 240Hz

Hardware

Il DLSS 4.5 è qui, fino a 6 frame generati per giocare in 4K 240Hz

#5
Dell resuscita XPS: le novità dei nuovi modelli

Hardware

Dell resuscita XPS: le novità dei nuovi modelli

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Chatbot AI: il futuro del customer care è qui
2

Business

Chatbot AI: il futuro del customer care è qui

Di Antonino Caffo
Accenture nomina un nuovo CTO, arrivano 400 esperti di AI

Business

Accenture nomina un nuovo CTO, arrivano 400 esperti di AI

Di Valerio Porcu
Il fondatore di Google teme le tasse, scappa dalla California
2

Business

Il fondatore di Google teme le tasse, scappa dalla California

Di Valerio Porcu
Anche se non lo ha detto, con Manus, Meta punta alle aziende
1

Business

Anche se non lo ha detto, con Manus, Meta punta alle aziende

Di Antonino Caffo
La borsa volta come non mai, merito delle aziende hi-tech

Business

La borsa volta come non mai, merito delle aziende hi-tech

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.