Topo

Após denúncia de viés racista, Twitter diz que vai revisar algoritmo

Getty Images/iStockphoto
Imagem: Getty Images/iStockphoto

Mirthyani Bezerra

Colaboração para Tilt

21/09/2020 12h18

O Twitter está investigando por que sua rede neural para gerar visualizações de fotos aparentemente opta por mostrar imagens de pessoas brancas com mais frequência do que rostos negros. A suspeita foi apontada por usuários da rede social ao longo do fim de semana.

Eles postaram vários exemplos de postagens com o rosto de uma pessoa negra e de uma branca para provar que a prévia do Twitter mostrava rostos de brancos com mais frequência. Os usuários também descobriram que o algoritmo de visualização da rede social escolhia mais personagens de desenhos animados não negros.

Um usuário tentou postar sobre um problema percebido por ele no reconhecimento facial de Zoom, que não mostrava o rosto de um colega negro nas ligações. Quando ele postou no Twitter, também percebeu que a plataforma favorecia o seu rosto branco em vez do rosto de seu colega negro.

O Twitter disse que testou vieses raciais e de gênero durante o desenvolvimento do algoritmo. Mas acrescentou: "É claro que temos mais análises a fazer."

"Testamos esse viés antes de enviar o modelo e não encontramos evidências de preconceito racial ou de gênero em nossos testes. Mas está claro que temos mais análises para fazer. Continuaremos a compartilhar o que aprendemos, quais ações tomamos e abriremos o código para que outros possam revisar e replicar", afirmou a plataforma por meio da sua conta no Twitter.

O diretor de tecnologia do Twitter, Parag Agrawal, disse ter gostado de ver o escrutínio dos usuários e disse estar ansioso para aprender com ele.

"Esta é uma pergunta muito importante. Para resolver isso, nós analisamos o nosso modelo quando o enviamos, mas ele precisa de melhoria contínua. Eu amo este teste público, aberto e rigoroso, e estou ansioso por aprender com ele", afirmou em postagem no Twitter.

As redes neurais artificiais, tal qual as usadas pelo Twitter, por exemplo, são modelos computacionais que se inspiram no sistema nervoso central de um animal, fazendo com que a máquina não apenas seja capaz de aprender, mas de reconhecer padrões.

Especialistas têm alertado que a inteligência artificial poderá contribuir para perpetuar preconceitos se as empresas não prestarem atenção aos dados usados para alimentá-la. Muitos preconceitos podem ser importados nesse processo.