Siga nas redes
Só para assinantesAssine UOL
Reportagem

O que resolverá as redes sociais? Ministros do STF divergem nas soluções

Um dos temas que movimentou a agenda do Supremo Tribunal Federal (STF) na reta final de 2024 foi o início do julgamento das ações que vão definir o regime de responsabilidade dos provedores de aplicações na Internet (especialmente redes sociais, aplicativos de mensagens, dentre outros).

Ao final do voto de Luis Roberto Barroso, o ministro André Mendonça pediu vista dos autos, catapultando possivelmente o retorno da discussão no plenário do tribunal para maio desse ano.

Nesse intervalo muita coisa pode acontecer. O anúncio das mudanças nas regras de moderação de conteúdo da Meta, feito por Mark Zuckerberg em janeiro, gerou especulações sobre como poderia impactar os rumos dos debates no plenário do STF.

Pelo que se viu até aqui, os ministros concordam com as premissas, mas divergem sobre as soluções. Os votos de Toffoli, Fux e Barroso convergem na análise de contexto, com o papel cada vez importante desempenhado pelas plataformas digitais e como o seu modelo de negócio, ancorado em tratamento de dados e customização do conteúdo visualizado, deu visibilidade para discursos agressivos, sensacionalistas e muitas vezes ilícitos.

Como lidar com esse problema, aperfeiçoando a moderação de conteúdo e fazendo ajustes no regime de responsabilidade das empresas é o ponto de discordância entre os ministros.

Como votaram os ministros Toffoli e Fux

Toffoli propugna por um regime amplo de responsabilidade objetiva, que pune as plataformas simplesmente porque um conteúdo ilícito foi ao ar. Na lista de temas que gerariam essa responsabilidade automática estariam desde terrorismo até violação dos direitos autorais.

Fux, por sua vez, afirma que o atual regime, que só obriga a remoção de conteúdo com ordem judicial - embora as plataformas possam remover antes a partir da aplicação das suas próprias regras - estimula a permanência no ar de discursos lesivos à honra das pessoas. Por isso, o ministro entende que uma vez notificada a empresa deveria retirar o conteúdo, caso contrário se tornaria também responsável pelo mesmo.

As divergências do ministro Barroso

O voto mais recente, proferido por Barroso, já apresenta pelo menos duas divergências com relação aos votos de Toffoli e Fux.

Continua após a publicidade

Diferentemente de Toffoli, que propõe a inconstitucionalidade do atual regime (previsto no artigo 19 do Marco Civil da Internet), Barroso defende sua manutenção para casos de crimes contra a honra. Segundo o ministro, "a remoção em casos de ofensas e crimes contra a honra não pode prescindir de decisão judicial. Conteúdos relacionados à honra, ainda que se alegue que representem crimes de injúria, calúnia ou difamação, devem permanecer sob o regime do art. 19 do Marco Civil da Internet, sob pena de violação à liberdade de expressão. Do contrário, se alguém disser que o governador é burro, a plataforma teria que retirar a postagem apenas mediante notificação privada".

Nos debates ocorridos no plenário, Flavio Dino também parece concordar com a preservação do artigo 19 do Marco Civil para casos de ofensa à honra.

Outra divergência relevante diz respeito à responsabilidade objetiva. Enquanto Toffoli sugere esse modelo, Barroso rejeita a ideia, optando por uma abordagem baseada na falha sistêmica de um dever geral de cuidado. Nesse modelo, argumentou Barroso, a responsabilização deixa estar vinculada ao acerto ou erro na remoção de conteúdos pontuais e passa a analisar mais como as plataformas se estruturaram para lidar com os desafios de moderação.

Para Barroso, essas duas divergências cuidariam de endereçar as transformações que ocorreram desde 2014, quando o Marco Civil da Internet foi aprovado, com foco nas mudanças do papel desempenhado pelas plataformas digitais, que inicialmente eram vistas como intermediárias neutras, mas que cada vez mais passaram a desempenhar papel ativo na curadoria de conteúdos.

Para onde vai o julgamento?

A partir dos três primeiros votos, e dos debates que já surgiram no plenário, parece claro que o STF vai alterar o regime de responsabilidade das plataformas digitais. O que não se sabe é se o regime do artigo 19 ficará preservado para algumas situações (como ofensas à honra) ou se o plenário caminhará para a declaração de inconstitucionalidade, criando um novo modelo do zero.

Continua após a publicidade

A inserção de novas exceções ao artigo 19 apareceu nos três primeiros votos, embora os ministros tenham apresentado divergências sobre quais situações gerariam responsabilidade caso as plataformas não removessem depois de notificadas e quais poderiam até mesmo gerar responsabilidade simplesmente porque o conteúdo foi ao ar.

Nesse ponto chama atenção que, em diversos momentos, os ministros parecem depositar no desenvolvimento das ferramentas de inteligência artificial o poder de saber definir o que é um perfil falso, um ato antidemocrático, o uso não consentido de imagens de menores ou uma violação aos direitos autorais.

Essas são situações com distintos graus de subjetividade, que guardam mais ou menos aderência com o debate sobre liberdade de expressão, e que possuem diferentes estruturas criadas globalmente para frear a divulgação de conteúdos ilícitos. O combate à exibição de imagens contendo exploração sexual de menores, por exemplo, conta com ampla rede que compartilha banco de dados que permite a remoção automática dessas publicações.

Em momento mais descontraído, os ministros chegaram a aventar que para solucionar os desafios da moderação de conteúdo bastariam as plataformas usar os mesmos algoritmos dedicados à recomendação de conteúdo, já que esses parecem funcionar muito bem.

Outra tendência que desponta no começo do julgamento é a criação de um regime de responsabilidade das plataformas pelos anúncios e conteúdos impulsionados. Nesse sentido, os ministros argumentam que ao receber uma remuneração para exibir a publicação de forma destacada, as empresas teriam a oportunidade de verificar eventuais ilicitudes, passando a responder caso o anúncio ou o conteúdo impulsionado cause danos.

Esse debate ainda segue misturado no plenário com a criação de uma responsabilidade por conteúdos recomendados. No final das contas, todas as plataformas que usam algoritmos para customizar o que vemos na tela estão recomendando conteúdo.

Continua após a publicidade

Expandir a responsabilidade nessa direção seria o equivalente a tornar o YouTube, o Instagram e o TikTok responsáveis por tudo que vai na seção de vídeos ou conteúdos recomendados (como o feed "For You", por exemplo). Contagem regressiva para esse debate, que já nasceu torto, desaguar na responsabilidade do Waze por danos sofridos na rota recomendada pelo app.

Nessa semana o Supremo Tribunal Federal retomou as suas atividades, inaugurando o ano do Poder Judiciário. Seja como for, o tribunal parece ter um encontro marcado com o futuro da regulação da Internet no país.

Reportagem

Texto que relata acontecimentos, baseado em fatos e dados observados ou verificados diretamente pelo jornalista ou obtidos pelo acesso a fontes jornalísticas reconhecidas e confiáveis.

Deixe seu comentário

O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.