Topo

Como foi teste interno que mostra que Facebook ajuda a radicalizar pessoas

Johanna Geron/Reuters
Imagem: Johanna Geron/Reuters

Felipe Mendes

Colaboração para Tilt, em São Paulo

28/10/2021 04h00

Em 2019, pesquisadores do Facebook criaram uma conta teste em nome de Carol Smith para analisar o comportamento do algoritmo da rede social. O perfil, de acordo com documentos internos vazados da empresa, era o de uma mãe politicamente conservadora da cidade de Wilmington, Carolina do Norte, nos Estados Unidos.

Após "ganhar vida", Carol passou a acompanhar assuntos de política, educação e cristianismo, além de seguir o perfil da Fox News (canal conservador de notícias), algumas marcas e o então presidente norte-americano, Donald Trump. O que se concluiu a partir da experiência teste foi como os algoritmos do Facebook têm potencial de radicalizar pessoas oferecendo em seu sistema de recomendações conteúdos desinformativos e polarizados.

Como foi a jornada da mãe conservadora

Segundo reportagem publicada pela rede NBC News, em apenas dois dias de perfil na rede social, Carol recebeu sugestões em seu feed de notícias para participar de grupos dedicados ao QAnon, movimento conspiratório que diz que Donald Trump esteve secretamente salvando o mundo de um grupo de pedófilos satanistas. O FBI o classifica como potencial ameaça terrorista.

Essa recomendação aconteceu mesmo sem Carol ter expressado interesse em teorias da conspiração do tipo. Ao que tudo indica, apenas o seu perfil conservador foi suficiente para que os algoritmos achassem que ela teria interesse no tema.

As descobertas com a pesquisa, nomeada de "Jornada de Carol para QAnon", foram encaminhadas ao Congresso dos Estados Unidos pelo advogado da delatora Frances Haugen, a ex-gerente de integridade do Facebook, que fez uma série de acusações contra a empresa com base em documentos que guardou enquanto trabalhava na companhia.

De acordo com a NBC, os responsáveis pela conta teste de Carol Smith decidiram não seguir os grupos recomendados pela rede social.

Contudo, a hipotética mãe conservadora continuou recebendo nos dias seguintes recomendações de diversos grupos e páginas que violaram as próprias regras do Facebook, como compartilhar discurso de ódio e desinformação.

A experiência de Carol na rede social foi "uma enxurrada de conteúdo extremo, conspiratório e gráfico", teria afirmado um funcionário do Facebook sobre a análise dos algoritmos.

Os dados do estudo envolvendo a conta de Carol e outras denúncias, como o emoji de raiva no Facebook ter facilitado propagação de fake news, foram compartilhados por um consórcio de imprensa nos EUA (que conta com NBC, Wall Street Journal (WSJ), The New York Times (NYT), entre outros).

De acordo o WSJ, a criação de grupos e páginas de teoria da conspiração disparou no Facebook entre 2019 e 2020. No ano passado, a rede social hospedava milhares de perfis e contas privadas envolvendo a QAnon, com milhões de membros e seguidores, de acordo com uma investigação interna.

Documentos obtidos pela NBC apontam ainda que o Facebook fez diversos experimentos como o de Carol Smith para mostrar a influência da plataforma na radicalização dos usuários. Esse trabalho interno teria constatado por diversas vezes que os algoritmos usados conectavam usuários a grupos extremistas.

Segundo outras publicações, funcionários do Facebook já sabiam, mais de um ano antes de ações mais intensas de banimento de páginas conspiratórias, que as recomendações da plataforma levavam usuários ao que eles chamaram de "toca de coelho" cheia de teorias da conspiração. Ou seja, um local em que é difícil se livrar do que acontece nele.

Essas descobertas teriam estimulado alterações nas políticas, ajustes nas recomendações e classificações do feed de notícias. Contudo, as pesquisas para entender esse tipo de comportamento dos algoritmos pararam bem antes de inspirarem qualquer movimento para mudar diretamente grupos ou páginas no Facebook, segundo a NBC.

À reportagem, um porta-voz do Facebook afirmou por email que a empresa "adotou uma abordagem mais agressiva na forma de reduzir o conteúdo que pode violar nossas políticas, além de não recomendar grupos, páginas ou pessoas que postam regularmente conteúdo que possa violar nossas políticas."

O Facebook afirmou que estudos como "a jornada de Carol" foram importantes na decisão de banir o QAnon da plataforma.

De fato, os grupos QAnon cresceram tanto na rede social que ela os classificou como perigosos em outubro de 2020. Para conter seu avanço, a empresa começou a remover páginas relacionadas pela promoção de violência — é bom lembrar que o estudo sobre o perfil de Carol é datado de 2019.

"Embora este seja um estudo de um usuário hipotético, é um exemplo perfeito de pesquisa que a empresa faz para melhorar nossos sistemas e ajudou a informar nossa decisão de remover o QAnon da plataforma", afirmou o porta-voz.

O Facebook reforçou ainda as alterações realizadas em março deste ano para tornar os grupos mais seguros. Na época, a empresa afirmou que estava limitando "o alcance das pessoas que violam nossas regras" na recomendação de conteúdos.

Para isso, a rede social decidiu rebaixar todo o conteúdo de membros que violaram os seus padrões da comunidade em qualquer lugar do Facebook. "Esses rebaixamentos ficarão mais graves à medida que acumulam mais violações", disse.

Alguns dos itens que não são permitidos no Facebook são:

  • Nudez ou outro conteúdo de sugestão sexual.
  • Discurso de ódio, ameaças reais ou ataques diretos a um indivíduo ou grupo.
  • Conteúdo que possua autoflagelação ou excesso de violência.
  • Perfis falsos ou de impostores.
  • Spam.