PUBLICIDADE
Topo

Usar inteligência artificial para escolher funcionário pode não ser o fim do mundo

A máquina pode ser programada para reduzir diversas formas de discriminação - Getty Images
A máquina pode ser programada para reduzir diversas formas de discriminação Imagem: Getty Images

Rebecca Greenfield e Riley Ray Griffin

11/08/2018 13h22

A inteligência artificial promete transformar as contratações de pessoal em uma utopia de imparcialidade.

Há certamente bastante espaço para melhora. As indicações de funcionários, um processo que tende a deixar grupos sub-representados de fora, ainda representam uma boa parcela das contratações das empresas.

Além disso, os recrutadores e gerentes de contratação levam seus próprios preconceitos ao processo, apontaram os estudos, muitas vezes escolhendo pessoas com nomes e formação educacional que "soam corretos".

As empresas carecem de diversidade racial e de gênero em vários setores e o número de pessoas sub-representadas diminui nos escalões mais elevados da hierarquia corporativa.

Menos de 5% dos CEOs das empresas da Fortune 500 são mulheres -- e há apenas três CEOs negros. A diversidade racial entre os conselhos da Fortune 500 é quase tão desanimadora quanto, já que quatro dos cinco novos nomeados para os conselhos em 2016 eram brancos.

A identificação de candidatos de alto potencial é muito subjetiva. As pessoas escolhem quem gostam com base em preconceitos inconscientes

Alan Todd, CEO da CorpU, uma plataforma tecnológica para desenvolvimento de liderança

Os defensores da IA argumentam que a tecnologia é capaz de eliminar alguns desses preconceitos. Em vez de confiar a tomada de decisões sobre contratações aos sentimentos das pessoas, empresas como Entelo e Stella.ai usam o aprendizado de máquina para detectar as habilidades necessárias para determinados trabalhos.

A IA, então, escolhe candidatos com essas habilidades para as vagas abertas. As empresas afirmam que não apenas encontram candidatos melhores, mas também identificam os que não haviam sido reconhecidos no processo tradicional.

O algoritmo da Stella.ai avalia candidatos apenas com base em habilidades, por exemplo, disse o fundador Rich Joffe.

"O algoritmo só tem permissão para fazer combinações com base nos dados que pedimos que observe. Ele tem permissão de avaliar só as habilidades, só os setores, só os níveis das empresas." Isso limita os preconceitos, disse.

A Entelo anunciou hoje o Unbiased Sourcing Mode, uma ferramenta que torna as contratações ainda mais anônimas. O software permite que os recrutadores ocultem nomes, fotos, universidade, períodos de inatividade e marcadores de idade do candidato e além disso substitui pronomes que especificam gênero -- tudo com o objetivo de reduzir diversas formas de discriminação.

A tomada de decisões dos humanos é muito ruim

Solon Borocas, professor assistente do departamento de ciência da informação da Cornell, que estuda a equidade no aprendizado de máquina

Mas não devemos superestimar a neutralidade da tecnologia, advertiu.

A pesquisa de Borocas concluiu que o uso do aprendizado de máquina em contratações, a exemplo do reconhecimento facial, pode resultar em uma discriminação não intencional.

Os algoritmos carregam preconceitos implícitos daqueles que o programaram. Ou podem mostrar tendência a favorecer certas qualidades e habilidades exibidas de forma predominante em um determinado conjunto de dados.

"Se os exemplos usados para treinar o sistema não incluem determinados tipos de pessoas, o modelo desenvolvido pode ser muito ruim para avaliação dessas pessoas", explicou Borocas. 

Você é o produto: cada passo que você dá na web gera rastros e essas informações são usadas para te vigiar e influenciar o seu comportamento

Entenda