Topo

Cristina de Luca

Big Techs serão mais chamadas à responsabilidade nas eleições deste ano

Divulgação
Imagem: Divulgação

Colunista do UOL

03/10/2020 13h36

No Brasil, o Tribunal Superior Eleitoral deu alguns passos essa semana para tentar garantir o comprometimento das Big Techs no combate à desinformação durante as eleições municipais desse ano. Twitter e TikTok assinaram uma parceria com o TSE para ampliarem o acesso dos brasileiros a informações confiáveis sobre o pleito.

Enquanto isso, nos EUA, os CEOs do Facebook, Google e Twitter concordaram em testemunhar perante o Comitê de Comércio do Senado, em 28 de outubro, menos de uma semana antes da eleição presidencial lá, segundo o site Politico.com. Será a segunda vez este ano que os principais executivos de tecnologia testemunharão perante o Congresso americano. E essa nova audiência deverá abordar temas como as proteções de responsabilidade que as empresas de internet desfrutam lá, como também a privacidade de dados e consolidação de mídia.

Tanto aqui, quanto lá, discute-se muito a responsabilização das plataformas quanto aos conteúdos de terceiros que ajudam a distribuir. A maior preocupação é com o fato de as grandes plataformas de mídia digital estarem fazendo menos do que podem para reprimir o discurso de ódio e a desinformação que circulam através delas. O que configura uma grande ameaça às liberdades e à democracia, que depende de um público informado e engajado, respondendo de maneira racional aos fatos e desafios da vida real.

Nos Estados Unidos, um terço dos cidadãos acha que as empresas de tecnologia não são regulamentadas o suficiente, de acordo com um estudo recente da FleishmanHillard. Mais da metade (56%) dos americanos - e 59% dos entrevistados em todo o mundo - dizem que as empresas de tecnologia "precisam tomar mais medidas para lidar com as consequências de suas políticas, práticas e produtos". O que inclui esforços reais para proteger as informações pessoais dos usuários e fornecer um ambiente online seguro.

De acordo com o mais recente relatório "US Digital Trust Survey", da Insider Intelligence, que avalia as percepções dos consumidores sobre as principais redes sociais (Facebook, Instagram, LinkedIn, Pinterest, Reddit, Snapchat, TikTok, Twitter e YouTube) a partir de cinco categorias de confiança (segurança, legitimidade, comunidade, experiência do anúncio e relevância do anúncio), o escândalo da Cambridge Analytics deixou sequelas nada desprezíveis, principalmente para o marketing digital.

A maioria (79%) dos usuários entrevistados afirmou que a proteção da dos dados pessoais e da privacidade é "extremamente" ou "muito impactante" em sua decisão de interagir com um anúncio ou conteúdo patrocinado em uma plataforma social. E 69% disseram que o fato de uma plataforma mostrar conteúdo enganoso teria um nível extremo ou muito alto de impacto no engajamento com os anúncios veiculados. O que explica e torna ações como as do Sleeping Giants contra o financiamento do discurso de ódio e das fake news ainda mais relevantes para as marcas anunciantes.

O TikTok e o Twitter tiveram o pior desempenho no que diz respeito à proteção dos dados do usuário e da privacidade. Só não perderam para o Facebook.

Difícil é ver o discurso dos usuários casar com suas práticas nas redes sociais. As campanhas políticas seguem acreditando que o contato direto com o eleitor e as mensagens personalizadas são ferramentas eficazes para convencer as pessoas a votar em um determinado candidato. Alguns sugerem que associar certos atributos online aos perfis dos eleitores permite que as campanhas os agrupem em grupos menores e mais específicos que se preocupam com coisas particulares, facilitando a propagação de mensagens capazes de fazê-los votar da maneira desejada.

A verdadeira força da propaganda política online não está nos anúncios, mas no acirramento da discórdia. As redes de mídia social funcionam executando poderosos algoritmos de recomendação de conteúdo que são conhecidos por colocar as pessoas em câmaras de eco de informações.

"Em vez de fazer com que os eleitores mudem de posição, as mensagens políticas transmitidas dessa forma são, na verdade, muito mais eficazes para fragmentar a opinião pública. Eles não persuadem os eleitores a mudar seu comportamento tanto quanto reforçam as crenças dos eleitores já decididos, muitas vezes empurrando-os para uma posição mais extrema do que antes", explica Tate Ryan-Mosley em artigo publicado pelo MIT Technology Review.

É justamente esse ponto que tanto preocupa os reguladores, aqui e lá. A proibição de anúncios políticos é pouco eficiente diante da massa de informação e desinformação impulsionada de modo a reforçar crenças e medos.

As campanhas políticas têm abusado de truques retóricos, com palavras e mensagens sendo usadas de formas absolutamente desonestas. Assim, o uso intencional de informações enganosas ou manipulativas para subverter o discurso político e confundir, dividir ou influenciar negativamente o público, tornou-se um desafio incômodo para as sociedades em todo o mundo.

As avaliações iniciais do problema focaram em como os avanços tecnológicos na conectividade aumentaram o alcance, a velocidade e a magnitude da desinformação. Como resultado, a primeira onda de respostas ao desafio baseou-se no fornecimento de desinformação e, muitas vezes, enfatizou a verificação dos fatos, o desmascaramento e as contra-narrativas, absolutamente necessárias.

Acontece que entramos em um novo estágio, no qual os eleitores já não são expostos e influenciados pela desinformação de modo passivo. Eles procuram e acreditam repetidamente em fontes de desinformação, enquanto rejeitam outras fontes de informação, conforme demonstra o estudo "Demand for Deceit: How the Way We Think Drives Disinformation", de Samuel Woolley e Katie Joseff.

A maior parte da pesquisa se concentrou nos Estados Unidos e na Europa, mas há fatores comuns do lado da demanda que podem impulsionar a difusão e o consumo da desinformação em várias partes do mundo. Compreender esses fatores é crucial para dar respostas eficazes - especialmente porque as tecnologias emergentes, como mídia sintética, realidade virtual e aumentada e vigilância biométrica em massa, podem ter o potencial de tornar essas formas de manipulação de informações ainda mais eficazes. E agravar a crise de desinformação de várias maneiras.

Há enormes desafios a serem enfrentados para melhorar a alfabetização midiática, que exigirão muita pesquisa sobre mudanças comportamentais no que se refere à desinformação digital. Conter os piores efeitos da desinformação exigirá um melhor entendimento da demanda por ela. Algo que o ferramental das Big Techs, com seus algoritmos, pode ajudar a obter.