PUBLICIDADE
Topo

Além do racismo, reconhecimento facial erra mais em pessoas trans

iStock
Imagem: iStock

Sarah Alves

Colaboração para Tilt

14/02/2021 04h00Atualizada em 22/06/2021 11h09

Sem tempo, irmão

  • Estudo apontou que a taxa média de acertos em mulheres trans é de 87,3%
  • Diferenças podem ser explicadas pela falta de representatividade nas bases de dados que fomentam os sistemas
  • Pesquisa alerta para uso da tecnologia no Brasil, que pode causar exclusão de camadas da população

A desenvolvedora de softwares Dora*, 29, sempre tem dificuldades ao acessar sua conta bancária com a ferramenta de reconhecimento facial em um novo aparelho. Isso acontece porque suas fotos no cadastro são do período anterior à sua transição de gênero e terapias hormonais. Esse problema de inclusão, recorrente em pessoas negras, também recai sobre o público LGBT. Segundo um estudo da Universidade do Colorado (EUA) de 2019, essa tecnologia erra mais em rostos de pessoas trans em comparação às cisgêneros (que se identificam com o sexo em que nasceram).

Enquanto em mulheres cis a precisão foi de 98,3%, para trans o índice médio era de 87,3%. Entre homens, a diferença é maior: a precisão entre cisgêneros ficou em 97,6%, enquanto a média foi de 70,5% entre trans. Para pessoas não-binárias (que vão além do masculino-feminino), agêneros (quem se identifica como gênero neutro) e queer (que não correspondem a um padrão cis-heteronormativo), o sistema errou em todas as tentativas.

A pesquisa da Universidade do Colorado usou 2.450 fotos no Instagram, com hashtags que identificavam as identidades de gênero e estavam divididas igualmente em sete grupos: mulher, homem, mulher trans, homem trans, agênero, gênero queer e não-binário. Os sistemas usados foram os da Clarifai, Amazon, IBM e Microsoft.

"Me sinto péssima. É horrível saber que toda vez que trocar ou formatar o celular vou passar por isso, falar com atendentes que não têm ideia do que fazer e que preciso convencer a passar o problema à área responsável", diz Dora.

Em uma das tentativas, ela recebeu um email com o alerta de tentativa de fraude na conta, quando na verdade era ela que tentou entrar. "Já cheguei a ficar dias sem acesso ao meu dinheiro, perdi a data de vários boletos e paguei multa."

Maria Eduarda Krasny, 23, teve cartão de estudante bloqueado por sistema de validação via biometria facial - Arquivo Pessoal - Arquivo Pessoal
Maria Eduarda Krasny, 23, teve cartão de estudante bloqueado por sistema de validação via biometria facial
Imagem: Arquivo Pessoal

A universitária Maria Eduarda Krasny, 23, teve em 2018 o cartão de estudante bloqueado no Distrito Federal, que aplicou a biometria facial nas catracas para verificar a identidade dos passageiros. O cadastro, anterior ao período de transição, foi refeito e ela ficou 20 dias sem ter acesso ao benefício.

"Foi uma conversa nada pacífica. Eu já estava muito chateada, mas depois que eu vi as fotos que eles alegavam ser outras pessoas, acho que trouxe um pouco da transfobia e do racismo, porque era quando eu usava turbante e de quando eu transicionei", lembra. A estudante diz que em nenhum momento tinha sido avisada de que precisaria refazer seu cadastro após a transição de gênero.

Para Maria Eduarda, o desconforto continuou mesmo depois de ter o reconhecimento facial liberado nas catracas: no novo cartão ainda constavam a foto e o nome de antes da transição. E segue assim até hoje. "É desestimulante. Quando uma pessoa trans tira todos os documentos, ela quer ter o seu nome reconhecido", afirma.

Pesquisa mapeia impactos no Brasil

Em novembro passado, o Decreto 10.543 definiu que assinaturas eletrônicas são uma forma de comprovar a identidade. Até 1º de julho deste ano, todos os órgãos públicos federais devem adequar seus sistemas de tecnologia a esse tipo de assinatura.

Outro estudo, desta vez das pesquisadoras brasileiras Mariah Rafaela Silva e Joana Varon, da entidade Coding Rights, pegou a base de dados do Serpro (Serviço Federal de Processamento de Dados), principal empresa pública de tecnologia do governo federal. Os dados foram obtidos via pedidos de LAI ( Lei de Acesso à Informação) ao Serpro, ao Ministério da Economia, ao INSS e à Secretaria de Governo Digital.

Foram analisados os índices de dois sistemas de reconhecimento facial: do Renach (Registro Nacional de Carteira de Habilitação), desenvolvido para o Denatran; e de um piloto usado pelo INSS, testado durante 2020 e que usa o reconhecimento facial na prova de vida (que confirma a identificação da pessoa), evitando o deslocamento até agências bancárias.

No banco de dados do Renach, foi computada a média de 93% de similaridade. O órgão salientou que a "acurácia dos algoritmos já alcançou 99,9% de assertividade". Já para o piloto do INSS, o Serpro diz que os dados ainda não haviam sido levantados, mas que um teste realizado entre julho e setembro de 2019 apontou validação de 64,32%, "sendo que em algumas regiões a taxa de sucesso foi superior a 80%".

"O que acontece quando os processos são automatizados por uma tecnologia que muitos interpretam como se fosse neutra? A ideia da pesquisa foi entrar no debate da possibilidade de exclusão de algumas camadas da população no acesso a serviços públicos", explica a diretora-executiva da Coding Rights e coautora da pesquisa, Joana Varon.

O que são 93% de similaridade entre imagens? Você cortou o cabelo, está de óculos, se você transiciona de gênero? Nós mapeamos que não existe muita transparência para essas margens de erro
Joana Varon

A Tilt, o Serpro reiterou que não realiza o controle de falsos positivos em cumprimento à LGPD (Lei Geral de Proteção de Dados Pessoais). Sobre as margens de erro, a empresa afirmou em nota que podem representar "quaisquer pessoas que realizaram cirurgia ou plástica facial e em casos de gêmeos idênticos, já que a tecnologia precisa reconhecer determinados 'pontos' da face e calcular o distanciamento entre eles".

O órgão disse que os erros podem ser por fotos desatualizadas no sistema e que melhorias na solução dependem "da colaboração do próprio cidadão" que, caso se submeta a mudanças faciais como cirurgias, "deve realizar a atualização da foto e dos dados".

Direitos cerceados

Para Viviane Medeiros, ativista e pesquisadora de gênero na UFBA (Universidade Federal da Bahia), existe o medo de que o amplo uso do reconhecimento facial cerceie direitos à população trans.

"Achamos que essas tecnologias [reconhecimentos facial e corporal] podem tornar as vidas trans como ilegítimas. Não é um estigma novo, mas é uma preocupação muito fundamental", diz.

Segundo a professora de história da UFRJ (Universidade Federal do Rio de Janeiro) e coautora do estudo da Coding Rights, Mariah Rafaela Silva, a pesquisa é um alerta de que os sistemas reiteram as práticas excludentes da sociedade. "Isso não quer dizer que naturalmente as pessoas sejam racistas ou transfóbicas, mas que existe um inconsciente colonial coletivo que reitera determinadas práticas sem necessariamente estar atento do quanto elas podem ser excludentes", comenta.

Mas por quê?

Desenvolver um sistema de reconhecimento facial integra uma área da inteligência artificial que processa imagens. A tecnologia é "alimentada" via aprendizado supervisionado, onde a diversidade do banco de dados permite à máquina reconhecer mais ou menos rostos, de acordo com os perfis apresentados a ela.

"[O programador] vai mostrar [ao sistema] rostos e falar 'aqui tem uma pessoa', 'aqui tem outra pessoa'. Mas também dá para categorizar. Então, ele diz 'aqui tem uma pessoa do gênero masculino branca ou negra'. Pode-se adicionar informações a partir disso", explica Diogo Cortiz, professor de tecnologia da PUC-SP (Pontifícia Universidade Católica de São Paulo).

Dentro dos laboratórios, as taxas de sucesso de um sistema são baseadas na precisão alcançada pelos protótipos. Em reconhecimento facial, pode haver falsos positivos e falsos negativos na identificação. Segundo Cortiz, a segregação da tecnologia foi percebida apenas quando ela começou a ser implementada.

Testavam rostos e o modelo podia testar bem com 99% das pessoas, por exemplo. Mas quem era o 1% em que ocorria o erro? Não existia essa preocupação
Diogo Cortiz, professor da PUC-SP

Em um país como o Brasil, com a população diversa, a eficácia também depende de um banco de dados que reflita as diferenças demográficas da população e inclua perfis menos representativos, como o de pessoas trans que passaram por terapias hormonais, por exemplo.

"Se quisermos que o modelo seja competente, o número de imagens de faces tem que ser suficiente para uma boa acurácia", afirma o professor Roberto Hirata, do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP). "Se quisermos competência com pessoas trans que tiveram acesso a tratamento hormonal, o modelo tem que ter um número suficiente de imagens desse perfil também", diz.

* nome alterado a pedido da entrevistada