Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea
Business
Immagine di Chat Control (CSAR): il compromesso europeo e le incognite ancora aperte Chat Control (CSAR): il compromesso europeo e le incognite a...
Immagine di AWS usa l’IA per "uccidere" Windows (e azzerare i costi di licenza) AWS usa l’IA per "uccidere" Windows (e azzerare i costi di...

Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea

L'uso crescente di analisi facciali basate su IA per selezionare candidati solleva allarmi su scientificità, bias e implicazioni etiche nel processo di assunzione.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 10/11/2025 alle 14:05
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Un numero crescente di aziende, come documentato da un'analisi dell'Economist, sta adottando software basati su intelligenza artificiale per analizzare le espressioni facciali e il tono della voce dei candidati durante video-interviste registrate. L'obiettivo dichiarato è valutare oggettivamente "soft skill" come l'affidabilità o la capacità di engagement, prima ancora che un essere umano visualizzi la candidatura.

Questo approccio si inserisce in un trend consolidato di automazione delle Risorse Umane, dove l'IA viene già usata per mansioni come la stesura delle offerte di lavoro o l'analisi delle performance.  

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Il miraggio dell'oggettività

Il problema fondamentale risiede nella premessa. L'idea che un algoritmo possa inferire la competenza o il carattere di una persona analizzando i suoi micro-movimenti facciali è vista da molti esperti come una pericolosa forma di pseudoscienza. Non esistono prove scientifiche conclamate che correlino in modo affidabile queste espressioni a specifiche performance lavorative.

Non esistono prove scientifiche conclamate che correlino in modo affidabile queste espressioni a specifiche performance lavorative.

Il rischio, concreto e documentato in tecnologie affini, è di reintrodurre massicciamente bias discriminatori su larga scala. Questi sistemi, addestrati su set di dati limitati, possono penalizzare sistematicamente candidati che non rientrano in una norma statistica, ad esempio per il loro background culturale (che influenza le espressioni), per accenti non standard o per condizioni neurodivergenti.

L'automazione del processo di assunzione sta già avendo impatti dirompenti sul settore, come dimostrano le recenti ristrutturazioni in aziende come Indeed. Introdurre strumenti di analisi facciale non fa che accelerare questa trasformazione, sollevando però dubbi sulla qualità, e non solo sull'efficienza, del risultato.

Un campo minato normativo

Le aziende che adottano acriticamente queste tecnologie si espongono a rischi legali crescenti. Il dibattito non è nuovo: l'uso dell'IA per compiti HR, come la stesura di annunci o la gestione dei talenti, è già sotto osservazione. Ma l'analisi facciale tocca un nervo scoperto, quello dei dati biometrici e della discriminazione automatizzata.

Temi che tra l'altro sono coperti e normati tramite l'AI Act. Naturalmente non basta l'esistenza di una legge per essere certi che tutti la rispettino, ma è sempre saggio tenerne conto perché poi eventuali denunce possono rivelarsi molto costose.  

Anche negli Stati Uniti, giurisdizioni come New York City hanno già introdotto normative stringenti che obbligano le aziende a condurre audit indipendenti sui bias dei loro strumenti di assunzione automatizzati e a informare i candidati.

Negli Stati Uniti, giurisdizioni come New York City hanno già introdotto normative stringenti che obbligano le aziende a condurre audit indipendenti.

La tendenza è chiara: la "scatola nera" decisionale non è più tollerata. La spinta per una maggiore trasparenza algoritmica cresce, con proposte di legge come il "No Robo Bosses Act" in California che mirano a vietare che decisioni critiche, come licenziamenti o assunzioni, siano prese esclusivamente da un algoritmo. Una proposta che segue la direzione indicata dall'Europa solo pochi mesi fa.

L'automazione del giudizio umano tramite l'analisi facciale rappresenta un'illusione di efficienza che rischia di trasformare il processo di assunzione in una lotteria algoritmica.

L'automazione del giudizio umano tramite l'analisi facciale rappresenta un'illusione di efficienza.

La vera sfida per le aziende non è implementare l'ultimo, luccicante software di IA, ma definire cosa è eticamente accettabile e scientificamente valido nel valutare le persone. Delegare a un algoritmo la responsabilità di giudicare il carattere umano non è innovazione; è un'abdicazione della responsabilità manageriale.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

AWS usa l’IA per "uccidere" Windows (e azzerare i costi di licenza)
1

Business

AWS usa l’IA per "uccidere" Windows (e azzerare i costi di licenza)

Di Valerio Porcu
Chat Control (CSAR): il compromesso europeo e le incognite ancora aperte

Business

Chat Control (CSAR): il compromesso europeo e le incognite ancora aperte

Di Avv. Giuseppe Croari
AWS re:Invent 2025: L'IA smette di chiacchierare e inizia a lavorare (sul serio)

Business

AWS re:Invent 2025: L'IA smette di chiacchierare e inizia a lavorare (sul serio)

Di Valerio Porcu
Se l'IA può sostituirti oggi, forse il problema non è l'IA

Business

Se l'IA può sostituirti oggi, forse il problema non è l'IA

Di Antonino Caffo
Non hai competenze IA? Sei già escluso dal 78% degli annunci di lavoro IT

Business

Non hai competenze IA? Sei già escluso dal 78% degli annunci di lavoro IT

Di Antonino Caffo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.