PUBLICIDADE
Topo

Carlos Affonso de Souza

OPINIÃO

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

Algoritmo do Facebook não dança só, mas público tem que aprender os passos

Gerd Altmann/ Pixabay
Imagem: Gerd Altmann/ Pixabay
Carlos Affonso

Carlos Affonso é Diretor do Instituto de Tecnologia e Sociedade (ITS Rio) e professor da Faculdade de Direito da UERJ.

29/04/2021 04h00

É tudo culpa das redes sociais. Antes todo mundo gostava dos resultados das eleições. Os amigos só tinham opiniões legais. Os encontros de família eram felizes. Os tios do churrasco só queriam saber sobre o ponto da carne e se já estava bom de pão de alho. Os adolescentes vivam na expectativa de mais um dia para estudar física e geometria. Todos tinham as informações corretas e necessárias sobre todas as coisas. Como foi que abandonamos esse paraíso?

O uso intensivo e viciante de redes sociais, somado às manipulações algorítmicas, transformaram as eleições em um campo de batalha, romperam antigas amizades, afastaram as famílias, radicalizaram os tios do churrasco, deprimiram os adolescentes e desinformaram o mundo todo. Na dúvida, é tudo culpa das redes sociais. De quem mais seria?

Precisamos fazer um debate equilibrado e informado sobre as redes sociais, entendendo o seu papel nas últimas décadas e construindo soluções para um futuro no qual estaremos cada vez mais conectados. Para essa conversa acontecer de verdade é preciso fugir de conclusões maniqueístas, como as acima, que depositam tudo de bom ou tudo de mau em um só lado da balança.

É preciso também trazer para a conversa os mais diferentes atores que estão no olho do furacão regulatório sobre o futuro das chamadas big techs, além de ampliar a discussão para quem ainda não entrou no debate, mas que acaba sentindo no dia a dia os seus efeitos.

Um recente artigo publicado pelo vice-presidente para Assuntos Globais e Comunicação do Facebook, Nick Clegg, dá um empurrão nessa conversa. De forma provocadora, o texto rebate algumas das principais críticas feitas à empresa e ao modelo de funcionamento das redes sociais e seus algoritmos. De quebra, ele anuncia algumas modificações na forma pela qual os usuários do Facebook poderão acessar novos conteúdos.

O texto de Nick Clegg traz um ponto de vista quiçá imprescindível para o sucesso da conversa sobre o futuro das redes sociais: o de um dos principais executivos de uma das principais empresas interessadas no assunto. Mas —como lembra a professora Daphne Keller, da Universidade de Stanford— é também essa qualificação (VP do Facebook) que pode atrapalhar na comunicação de algumas das suas principais mensagens.

Ninguém dança tango sozinho

O título do artigo de Nick Clegg é "It takes two to tango" (expressão em inglês que podemos traduzir como "ninguém dança tango sozinho"). Ou seja, assim como o tango pede dois participantes, os algoritmos das redes sociais nada poderiam fazer sem um segundo componente fundamental para o resultado que vemos na tela: nós mesmos.

A escolha desse título procura revelar, logo na largada, a ideia de que muita das críticas recebidas pelas redes sociais com foco no uso de algoritmos parece desconsiderar que eles dependem de um agir humano para funcionar.

Aqui entramos em uma discussão tipo quem veio primeiro: o ovo ou a galinha? As pessoas se radicalizaram e se desinformaram por causa do algoritmo ou o algoritmo sugeriu às mesmas esse tipo de conteúdo porque elas já demonstravam interesse nesse tipo de conteúdo?

Nós contra as máquinas

Nick Clegg elenca uma série de críticas às redes sociais como sendo uma verdadeira "ameaça existencial" à raça humana. Em um artigo recente na The Atlantic, o Facebook foi descrito como "um dispositivo construído com o único propósito de destruir toda a vida humana". No documentário da Netflix, "O Dilema das Redes", um adolescente é manipulado remotamente por três vilões através do seu celular.

O documentário do Netflix explora bastante essa noção de que os algoritmos seriam os armamentos de destruição em massa (ou "armamentos de destruição matemática", na linguagem da autora Cathy O'Neil) na batalha final pelo controle dos nossos cérebros.

O documentário usa até mesmo uma estética que sugere que cada um de nós está sendo usado como bateria para alimentar as máquinas, tal qual visto no último filme da trilogia Matrix.

Segundo Nick Clegg:

"Em cada uma dessas representações distópicas, as pessoas são retratadas como vítimas impotentes, privadas de seu livre arbítrio. Os humanos se tornaram brinquedos de sistemas algorítmicos manipulativos. Mas isso é realmente verdade? As máquinas realmente assumiram o controle?"

Seja o seu próprio Keanu Reeves

Na série Matrix, o personagem Neo (vivido por Keanu Reeves) desperta para a consciência do estado no qual se encontrava a humanidade e parte em uma missão para salvá-la. No debate sobre algoritmos, o primeiro passo em direção à mudança mais que bem-vinda é dar ao usuário mais controle sobre o que ele vê e como ele interage com esses conteúdos, permitindo mudanças no modo como a plataforma é utilizada.

pessoa na matrix - Pixabay - Pixabay
Os seus cliques, curtidas e dados dizem muito sobre você, levando algoritmos de diferentes empresas a prever comportamentos e predileções.
Imagem: Pixabay

Nesse sentido, o texto de Nick Clegg apresenta uma série de novas funções que serão progressivamente implementadas no feed de notícias do Facebook. Aqui vão três:

  • Favoritos: "Um novo produto chamado 'Favoritos', que melhora o controle 'Ver primeiro' que existia anteriormente, permite que você veja os principais amigos e páginas que o Facebook prevê que sejam mais significativas para você --e, mais importante, você pode adotar essas sugestões ou simplesmente adicionar outros amigos e páginas se quiser. Postagens de pessoas ou páginas que você seleciona manualmente receberam destaque em seu feed de notícias e marcadas com uma estrela. Essas postagens também preencherão um novo feed de favoritos, uma alternativa ao feed de notícias padrão."
  • Mude o meu feed!: "Por algum tempo, foi possível visualizar seu feed de notícias em ordem cronológica, de modo que as postagens mais recentes apareçam no topo. Isso desativa a classificação algorítmica, algo que deve ser reconfortante para aqueles que não confiam nos algoritmos do Facebook desempenhando um papel no que é apresentado na tela. Mas esse recurso nem sempre foi fácil de encontrar. Portanto, o Facebook está introduzindo uma nova 'barra de filtro de feed' para tornar mais fácil alternar entre este feed mais recente, o feed de notícias padrão e o novo feed de favoritos."
  • Por que eu estou vendo isso?: "Há algum tempo o Facebook vem tentando aumentar a transparência em torno do motivo pelo qual um determinado anúncio apareceu em seu feed de notícias por meio da ferramenta chamada 'Por que estou vendo isso?', que você pode ver clicando nos três pontos no canto superior direito de um anúncio. Isso foi estendido para a maioria das postagens em seu feed de notícias em 2019 e hoje também está disponível para algumas postagens sugeridas, para que você possa entender melhor por que esses vídeos de culinária ou artigos sobre filmes continuam aparecendo para você."

O texto revela que outras mudanças virão ao longo do ano, como "o fornecimento de mais transparência sobre como a distribuição de conteúdo problemático é reduzida", além de centrais de informação sobre temas como mudança climática e justiça racial.

Ninguém vai se tornar um Neo com essas mudanças, mas elas podem abrir caminho para maior customização por parte do usuário sobre o que ele vê e como ele interage com esse conteúdo no Facebook e além.

Sem transparência não tem confiança

O cenário de desconfiança com as redes sociais, que termina por jogar toda a culpa dos males causados pela desinformação e pela polarização em cima dos algoritmos, surge justamente da falha dessas mesmas empresas em jogar luz sobre aspectos essenciais das suas operações. Na ausência de uma comunicação clara e compreensível fica mais fácil depositar a responsabilidade naquilo que não se conhece ou não se entende.

Como diz o próprio Nick Clegg:

"A tecnologia deve servir à sociedade, não o contrário. Diante de sistemas opacos operados por ricas empresas globais, não é de surpreender que muitos presumam que a falta de transparência existe para servir aos interesses das elites de tecnologia e não dos usuários. A longo prazo, as pessoas só se sentirão confortáveis com esses sistemas algorítmicos se tiverem mais visibilidade de como funcionam e, então, a capacidade de exercer um controle mais informado sobre eles."

O gênio já está fora da lâmpada

As redes sociais não podem ser "desinventadas", comenta Nick Clegg. Então o foco dos debates não deveria ser como podemos criar um mundo melhor sem elas, mas sim entender como elas devem melhorar, enfatizando transparência e controle do usuário. Nas suas palavras:

"Alguns críticos parecem pensar que a mídia social é um erro temporário na evolução da tecnologia —e que, uma vez que chegarmos a um acordo coletivo, o Facebook e outras plataformas entrarão em colapso e todos voltaremos aos modos anteriores de comunicação. Esta é uma interpretação profundamente errada da situação —tão imprecisa quanto a manchete do Daily Mail de dezembro de 2000 declarando que a internet "pode ser apenas uma moda passageira". Mesmo que o Facebook deixe de existir, a mídia social não será —ela não pode ser— 'desinventada'. O impulso humano de usar a internet para conexão social é profundo."

Se é verdade que as redes sociais não podem ser "desinventadas" —e aqui vai um comentário pessoal— nada impede que elas sejam reinventadas. Surge então um ponto importante na forma pela qual o argumento de Nick Clegg se desenvolve. O Facebook é apenas um tipo de rede social: uma rede de propósito geral, que reúne conteúdos de amigos e família, links para notícias, informações de páginas comerciais e bate-papo em grupos.

A última década viu prosperar uma série de outras formas de comunicação online, como aplicativos de mensagens instantâneas, redes sociais de propósito específico (mais voltadas para conteúdos profissionais, por exemplo), além da emergência de redes baseadas em fotos ou vídeos curtos cheios de filtros e efeitos.

As reinvenções não precisam parar no design das redes sociais, mas podem também avançar para a forma pela qual elas se remuneram. A dinâmica de personalização de conteúdos e de anúncios serviu de âncora para mais de uma década de monetização de dados em redes sociais. Por mais que esse ciclo possa ter gerado até uma nova forma de capitalismo (o chamado "Capitalismo de Vigilância", nas palavras de Soshana Zuboff), nada impede que novos modelos possam surgir.

Nick Clegg, ex-primeiro ministro do Reino Unido que virou vice-presidente do Facebook - Tobias Schwarz/AFP - Tobias Schwarz/AFP
Nick Clegg, ex-primeiro ministro do Reino Unido que virou vice-presidente do Facebook, durante discurso em Berlim, na Alemanha
Imagem: Tobias Schwarz/AFP

Personalização não é exclusividade das redes sociais

O texto de Nick Clegg aponta para um fato que geralmente passa debaixo do radar: a personalização da experiência online não é uma característica exclusiva das redes sociais. Quando pensamos em algoritmos que monitoram cada clique, curtida ou compra, é o ambiente das redes sociais que temos em mente. Vale expandir o olhar para outros setores.

Algoritmos que procuram avaliar os nossos hábitos para recomendar novos conteúdos ou produtos estão no coração de sites de marketplace, comércio eletrônico em geral, além das mais famosas plataformas de streaming de música ou vídeos. Sites de notícias, aplicativos de passagens aéreas ou de hospedagem também podem customizar o que vemos ali com base em nosso comportamento. Eles procuram adivinhar algo que vai nos interessar, tal qual fazem as redes sociais.

Os algoritmos estão portanto em toda parte, customizando a nossa experiência online em grande parte dos aplicativos e sites que visitamos ao longo do dia. Já vivemos em uma sociedade algorítmica. Resta saber como vamos lidar com essa informação, procurando uma maior conscientização sobre proteção de dados e exigindo maior transparência por parte das empresas (e dos governos) que tratam esses dados.

Como o Facebook escolhe o que eu vejo?

No mundo das redes sociais existe um mantra que é sempre repetido. Toda vez que você pergunta "por que eu estou vendo isso?", a resposta sempre menciona que existem inúmeros sinais que podem fazer com que algo apareça com mais destaque para um usuário e com menos para outro.

A pessoa pode ter indicado ativamente que gosta de um certo conteúdo. O Facebook, por exemplo, sabe que eu torço pelo Flamengo porque eu mesmo indiquei isso quando da criação da minha conta. Convenhamos que não ia ser preciso nenhum algoritmo sofisticado para captar essa mensagem depois das mil curtidas em qualquer vídeo de gol do rubro-negro ou em memes do Bruno Henrique semialcoolizado falando "oto patamar".

Mas os caminhos que fazem com que algo apareça para você podem ser mais misteriosos. Não existe grande surpresa quando curtir postagens sobre um cantor leva à sugestão de grupos de certo gênero musical. Mas quando os interesses se misturam e as recomendações começam a seguir causalidades que nos são invisíveis?

O texto de Nick Clegg menciona que para cada um de nós existe um ranking que faz com que certos conteúdos tenham como que um score mais alto do que outros. Quanto mais alta essa "nota", mais relevante tenderia a ser esse conteúdo para um certo usuário.

Conforme ele mesmo revela, diferentes "tipos de conteúdo problemático são tratados mais diretamente por meio do processo de ranking. Por exemplo, existem tipos de conteúdo que podem não violar os Padrões da Comunidade do Facebook, mas ainda são problemáticos porque os usuários dizem que não gostam deles. Para eles, o Facebook reduz sua distribuição, como faz com as postagens consideradas falsas por uma das mais de 80 organizações independentes de checagem de fatos que avaliam o conteúdo do Facebook.

Em outras palavras, a probabilidade de uma postagem ser relevante e significativa para você atua como algo positivo no processo de ranking e os indicadores de que a postagem pode ser problemática (mas não violadora) atuam como negativa. As postagens com as pontuações mais altas são colocadas mais próximas do topo do seu feed."

Então sabemos que conteúdos denunciados, por exemplo, podem começar a receber notas menores e com isso aparecerem menos nos feeds dos usuários da plataforma. Esse é um tema que certamente vai merecer mais atenção, já que a dinâmica de polarização política e ideológica é usualmente creditada à ascensão das redes sociais.

Em termos individuais, não será espantoso se mais e mais pessoas começarem a se perguntar sobre esse ranking e essas notas que cada conteúdo passa a ter para cada usuário. O quão diferente seria uma rede social se fosse permitido a cada usuário mexer nesse ranking diretamente (e não através da sua navegação)? Enquanto uns podem imaginar que isso finalmente daria mais controle ao indivíduo, outros vão lembrar que esse remédio poderia rapidamente acelerar a formação de bolhas e o ensimesmamento nas redes sociais.

Dançando tango no teto

O texto de Nick Clegg traz uma contribuição importante para o debate sobre algoritmos. Ele serve tanto como anúncio de algumas modificações na plataforma Facebook como ponto de partida para uma conversa sobre como a empresa enxerga o futuro das (suas) redes sociais. Ao insistir na imagem do tango, Clegg reforça a ideia de que o algoritmo, assim como o tango, não funciona sozinho.

Mas de nada vale simplesmente adicionar o usuário se ele não souber os passos da dança. Como lembrou o aluno Pedro Costa, em uma aula na qual debatíamos o tema, sem transparência na coreografia vamos acabar pisando uns nos pés dos outros. Essa parece ser a receita para transformar o grande baile algorítmico em uma verdadeira praça de guerra.

** Este texto não reflete, necessariamente, a opinião do UOL