Job Bolt, una startup specializzata in tecnologie HR, ha sviluppato un sistema di avatar digitali in grado di condurre colloqui preliminari con i candidati, sostituendo il primo contatto umano con una simulazione che promette efficienza ma genera perplessità. La premessa è semplice: i curriculum vitae sono spesso infarciti di bugie e mezze verità, che non sempre i sistemi automatici riescono a rilevare.
Invece di "perdere tempo" facendo un colloquio con un candidato non meritevole, dunque, l'idea è di affidare questo compito a un'IA. Il rischio di scivolare e poi restare impantanati nella uncanny valley è tuttavia piuttosto alto. Il primo punto critico è dunque un colloquio perturbante, che mette il candidato in una situazione non naturale, a disagio: aumentano le possibilità che le risposte siano non naturali, se non completamente false.
Non sarebbe etico né accettabile creare un avatar che possa passare per un vero essere umano. E fortunatamente oggi non è nemmeno tecnicamente possibile. O, se non altro, non è possibile creare un avatar virtuale che possa convincere proprio tutti, anche se magari con qualcuno ci si potrebbe riuscire già oggi.
L'intervista di basa su un set di domande personalizzate create dal datore di lavoro. Si passa poi a una videocall, dove l'avatar digitale pone quelle domande e interagisce. Si tratta di GenAI, e c'è un chiaro tentativo di simulare un'interazione naturale: l'IA genera poi un report delle risposte, che in teoria sarà letto da almeno un essere umano. Sarà quest'ultimo a decidere poi se il candidato potrà passare a un vero colloquio.
Un secondo punto problematico è la sintesi digitale: come sappiamo le AI generative possono sbagliare, e quando sbagliano possono generare comunque un testo particolarmente convincente. Il che ci porta al terzo punto di attrito: l'essere umano che controlla le sintesi deve verificare prima l'accuratezza dell'output, e poi il contenuto dell'output stesso. Un "doppio passaggio" che non si traduce necessariamente nel desiderato risparmio di tempo.
Ma se a fare le cose per bene non ci si mette meno tempo, allora a che serve questo sistema? Beh, si può sempre risparmiare tempo - anche molto - facendo le cose fatte male.
L'intervista di prova: un disastro
Per testare il sistema, i creatori di Job Bolt hanno simulato una posizione fittizia presso un giornale locale chiamato "The Riverton Chronicle", preparando domande specifiche su come reperire notizie, gestire team di giornalisti e coinvolgere il pubblico.
L'esperienza si è rivelata tuttavia profondamente disturbante, principalmente a causa dei comportamenti non verbali dell'avatar che risultano nervosi, ripetitivi e immersi in quella che gli esperti definiscono "uncanny valley" - quella zona grigia dove le simulazioni non sufficientemente realistiche appaiono inquietantemente artificiali. Qualcosa che era ampiamente prevedibile e che di sicuro non si può accogliere con sorpresa.
Durante l'intervista, l'avatar impiega diversi secondi per processare ogni risposta prima di reagire, creando pause innaturali che spezzano qualsiasi flusso conversazionale. Le sue reazioni sono meccaniche e prevedibili: la maggior parte delle risposte inizia con formule standard come "Grazie per aver condiviso" oppure "Sembra che tu..." seguite da un riassunto della risposta precedente e un tentativo di collegamento alla domanda successiva.
Il problema fondamentale è l'assenza totale di feedback in tempo reale: l'avatar non può annuire, alzare un sopracciglio o produrre qualsiasi altro gesto o suono che indichi ascolto attivo o fornisca indizi su come sta recependo le parole dell'intervistato. Questa mancanza di orientamento trasforma l'esperienza in un monologo nel vuoto, dove il candidato si ritrova a brancolare alla ricerca di qualsiasi segnale che possa guidare le proprie risposte.
Job Bolt non è l'unica realtà che punta sull'intelligenza artificiale per "migliorare" i processi di selezione del personale. Il settore sta vivendo una vera proliferazione di soluzioni simili, come dimostrato dall'emergere di altri agenti di reclutamento basati su AI. Considerando che siamo nel 2025, è inevitabile che alcuni manager delle risorse umane adottino queste tecnologie, attratti dalla promessa di risparmio di tempo e di maggiore obiettività nella valutazione dei candidati.
Quello della maggiore obiettività è un desiderio nobile, ma può rivelarsi anche una pericolosa illusione. I sistemi AI tendono a ripetere gli stessi pregiudizi presenti nei dataset e nelle menti di chi li ha programmati. Includono anche molte contromisure, sulla cui efficacia è tuttavia lecito dubitare.
Tuttavia, l'esperienza diretta rivela come il risultato finale possa essere controproducente: invece di far emergere il meglio del candidato, questo tipo di intervista tende a trasformarlo in una versione incerta e poco articolata di se stesso, un pasticcio nervoso che nessun selezionatore considererebbe un candidato valido. La tecnologia, invece di eliminare i bias umani, rischia di crearne di nuovi e più sottili.
Consigli di sopravvivenza per l'era dell'AI recruiting
Per chi si trovasse a dover affrontare un colloquio con un'intelligenza artificiale, la strategia migliore è richiedere una sessione di prova per familiarizzare con la piattaforma e imparare come presentarsi al meglio in questo contesto artificiale. Si tratta di una richiesta ragionevole, considerando la novità e la stranezza di questo tipo di esperienza.
Un'azienda che rifiuta di concedere questa possibilità di preparazione fornisce già un chiaro indicatore: probabilmente non è il tipo di organizzazione per cui varrebbe la pena lavorare. D'altra parte, chiaramente, per il candidato sarà quasi impossibile assicurarsi che l'intervista di prova non sarà poi usata per valutarlo, ma è comunque importante chiederla e ottenerla.