As promessas que o RH compra

Em busca de soluções inovadoras, o RH acaba apostando em tecnologias sem saber se de fato são efetivas ou respaldadas pela ciência, escreve Claudio Garcia

Logo Today

A HireVue, plataforma americana de avaliação de candidatos online, foi aparentemente criada por um motivo justo. Processos seletivos são predominantemente subjetivos e vulneráveis a vieses pessoais. Assim, por que não utilizar uma ferramenta, baseada em inteligência artificial, que elimina o lado subjetivo – e  falho – de  recrutadores, e escolhe o melhor talento baseado em critérios objetivos? A HireVue iria além. 

Em 2014, a empresa lançou seu assessment baseado em inteligência artificial e um software de entrevistas por vídeo. A captura dos vídeos, além de registrar as respostas dos entrevistados, analisava várias características, como entonação da voz e expressão facial, com a promessa de compreender do entusiasmo à personalidade do indivíduo, assim como seu alinhamento com posições de trabalho. De acordo com a HireVue, em reportagem do Washington Post de 2019, o algoritmo “empregava precisão super-humana e imparcialidade perto de zero sobre o candidato ideal, coletando detalhes reveladores que recrutadores poderiam perder”.

A empresa foi um sucesso e teve rápida adoção por organizações como Unilever, Hilton, Goldman Sachs, entre várias outras, que deram testemunhos positivos sobre milhares de horas salvas em processos de recrutamento e digitalização do RH, por exemplo. 

Mas, quanto mais a HireVue crescia, mais experts e organizações de direitos de classes começavam a se manifestar sobre o que viam como inconsistências da plataforma. Como se observou em muitas outras ferramentas que prometiam algo semelhante, esses sistemas criam tantas distorções quanto as que prometem eliminar. 

Primeiro, porque a definição do perfil de talento já é carregada de vieses pré-existentes em empresas. Segundo, porque os próprios desenvolvedores dos softwares e algoritmos incorporam seus próprios vieses nos sistemas. Terceiro, muitos dos algoritmos, à medida em que se sofisticam, não são transparentes nem mesmo para os seus criadores, o que limita a compreensão de como eles processam dados e tomam decisões. E um ponto final – mas longe de ser o último: muitas dessas empresas prometem que seus algoritmos têm bases científicas, mas não conseguem passar por um mínimo de escrutínio quando analisados por experts.

Recentemente, o tema ganhou ainda mais notoriedade. De solução, essas ferramentas se tornaram um enorme ponto de atenção para organizações, principalmente nos Estados Unidos, onde HR Techs estão há alguns anos a frente de outras partes do mundo. O motivo? Crescimento exponencial de processos legais contra discriminação em processos seletivos motivados por algorithm bias, ou vieses em algoritmos.  

O EEOC (U.S. Equal Employment Opportunity Commission), agência do governo americano responsável pelo cumprimento de lei federal contra a discriminação, está, desde 2019, ativamente investigando casos de algorithm bias em processos de seleção, o que tornou o uso dessas ferramentas mais arriscado sob uma perspectiva jurídica. Obviamente, empresas começaram a se proteger, tanto para evitar comprar gato por lebre, como para evitar processos legais custosos. Por exemplo, um grupo de grandes empresas incluindo Amex, Delloite, IBM,  Pfizer, Nike, entre muitas outras, fundou a Data & Trust Alliance, com o propósito de reduzir o impacto negativo de algoritmos em decisões sobre pessoas. A Aliança, hoje conta com mais de 150 membros.

Dois fatos podem ser constatados a partir dessa história: o primeiro é que muitos profissionais de RH contratam promessas sem ao menos entender se elas são possíveis. No cerne disso, está o desconhecimento das tecnologias, de como funcionam e o que podem de fato entregar. Nada disso é novo e restrito a algoritmos. Muitas das soluções de assessments utilizadas por organizações, por exemplo, não têm sequer validação científica. E, por mais que centenas de pesquisas venham há anos revelando essa realidade, isso não evita que milhões de decisões de carreira sejam tomadas se utilizando desses instrumentos.

O segundo fato está relacionado à possibilidade de avaliar o quanto uma promessa está sendo entregue – um problema pervasivo em estruturas de gestão de pessoas ao redor do mundo. Há bastante tempo, empresas de recrutamento são contratadas e poucas organizações analisam, após 3 ou 4 anos, se os talentos contratados ainda estão lá  ou se revelaram ser a escolha adequada para as posições a que foram designados. Ou, ainda, o dilema de investimentos em aprendizado e desenvolvimento: poucas organizações conseguem ter o mínimo de informação sobre o retorno desses investimentos. 

Nesse sentido, o caso da HireVue é emblemático. Milhões de pessoas foram contratadas para só, anos depois, devido a denúncias, se notar que a ferramenta de fato não era tão efetiva e propícia à diversidade. Profissionais de RH querem ferramentas de alta sofisticação tecnológica, mas não têm, muitas vezes, simples estruturas de análise que poderiam checar sua eficácia.

Muitos acreditam que as áreas de gestão das pessoas estão entre as que mais oferecem oportunidades para inovação em organizações. Mas, sem resolver questões básicas, fundamentais, que há muito são uma realidade na área, a gestão de pessoas ainda continuará vulnerável a esforços, interessantes,  cheios de propósito, porém com resultados completamente questionáveis. Talvez o melhor investimento em inovação seria consertar essas lacunas que continuam existindo.

Envie sua pergunta sobre gestão para o professor Claudio Garcia, da NYU, para o e-mail [email protected]

<strong>Claudio Garcia</strong>
Claudio Garcia

É professor adjunto da NYU School of Professional Studies e conselheiro de administração. Na Think Workresponde perguntas sobre gestão de pessoas e organizações enviadas pelos leitores

logo-today
Sua conexão com os principais RHs do país. Assine grátis

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.