Topo

Com IA viciada, LinkedIn criou algoritmo para corrigir algoritmo; entenda

LinkedIn viu comportamento tendencioso em seu algoritmo, e decidiu corrigi-lo com... outro algoritmo - InLytics/Unsplash
LinkedIn viu comportamento tendencioso em seu algoritmo, e decidiu corrigi-lo com... outro algoritmo Imagem: InLytics/Unsplash

Nicole D'Almeida

Colaboração para Tilt, em São Paulo

01/11/2021 11h28

Em 2018, o LinkedIn descobriu que o seu algoritmo para combinar candidatos a vagas de emprego era meio tendencioso, e acabava mostrando algumas oportunidades só para homens ou só para mulheres. A solução da empresa? Criar outro algoritmo para corrigir o primeiro.

O caso foi revelado por John Jersin, que na época ocupava o cargo de vice-presidente de gerenciamento de produto no LinkedIn, ao site Technology Review, do MIT (Instituto de Tecnologia de Massachusetts).

Trata-se de mais um exemplo de como sites de emprego vêm dependendo cada vez mais de algoritmos e sistemas de inteligência artificial na tentativa de serem justos com candidatos e empresas, sem prestar atenção no viés que essas máquinas podem acabar adotando por acidente ou não.

O que rolou?

Até 2018, as recomendações de vagas do LinkedIn eram baseadas em três categorias de dados: informações que o usuário fornecia diretamente à plataforma, dados atribuídos ao usuário com base em recomendações de colegas e dados comportamentais, como a frequência com que um usuário responde a mensagens ou interage com anúncios de emprego.

Nome, idade, sexo e raça de uma pessoa eram excluídas pelo algoritmo do LinkedIn porque poderiam contribuir para o viés em processos automatizados. Contudo, a IA da plataforma era capaz de detectar padrões de comportamentos de grupos com identidades de gênero específicas.

Um exemplo: a máquina percebeu que homens tendem a se candidatar a empregos que exigem mais tempo de experiência de trabalho, independentemente de suas qualificações; enquanto as mulheres são mais propensas a buscar empregos em que suas qualificações prévias correspondam aos requisitos da vaga.

Dessa forma, o algoritmo acabava indicando mais homens do que mulheres para certas vagas abertas. "Você pode recomendar, por exemplo, mais cargos seniores para um grupo de pessoas do que para outro, mesmo que sejam qualificados no mesmo nível", disse Jersin ao MIT Tech Review. "Essas pessoas podem não ter as mesmas oportunidades. E é realmente desse impacto que estamos falando aqui".

Ao descobrir essa tendência do sistema, o LinkedIn resolveu criar, em 2018, outro algoritmo de IA para consertar esse problema e produzir resultados mais representativos.

A nova IA tem como objetivo neutralizar as recomendações direcionadas a um grupo específico e garante que o sistema de recomendação inclua uma distribuição representativa dos usuários por gênero.

Por que isso importa?

Com o uso crescente de algoritmos e robôs em cada etapa do processo de contratação, os candidatos agora precisam aprender a se destacar não só para seus propensos chefes, mas também para uma inteligência artificial que nem sempre é capaz de manter as chances de todas no mesmo patamar de igualdade.

"Você costuma ouvir aquele papo de que um recrutador passa só seis segundos olhando seu currículo, certo?" comentou Derek Kan, vice-presidente de gerenciamento de produto da Monster, outra empresa de vagas online, ao MIT Tech Review. "Quando olhamos para os mecanismos de recomendação que criamos, você pode reduzir esse tempo para milissegundos."

"Acho que as pessoas subestimam o impacto dos algoritmos e dos mecanismos de recomendação nas tarefas. A maneira como você se apresenta [para uma vaga] é provavelmente avaliada por milhares de máquinas e servidores primeiro, antes mesmo de chegar a um olho humano."