Topo

Plataformas devem ser punidas por post ofensivo? STF inicia julgamento

Google e Facebook lutam no STF contra professora e dona de casa - Damien Meyer/AFP
Google e Facebook lutam no STF contra professora e dona de casa Imagem: Damien Meyer/AFP

Abinoan Santiago

Colaboração para Tilt, em Florianópolis

28/03/2023 04h00Atualizada em 28/03/2023 10h13

As batalhas judiciais travadas por uma professora e uma dona de casa contra o Google e Facebook, respectivamente, podem mudar o rumo da internet no Brasil. Os recursos dessas plataformas estão intimamente ligados e são tratados como um dos julgamentos mais importantes da década no STF sobre a internet. Tanto é que os temas terão repercussão geral, ou seja, o que for decidido pela Corte deverá valer em todas as instâncias inferiores.

O que está em jogo é o MCI (Marco Civil da Internet), que diz que as plataformas não têm o poder de decidir que tipo de conteúdo publicado por seus usuários é lícito ou não. Se o tribunal entender que Google, Facebook e outras podem ser responsabilizadas pelo que se publica ali, abre-se o precedente para elas fazerem uma moderação de conteúdo capaz de ferir outros direitos, como o da liberdade de expressão.

O impacto da decisão é ainda mais amplo, já que o MCI usa o termo "provedor de conteúdo". Ele diz respeito não só às plataformas, mas a todos os publishers digitais, lojas eletrônicas, fóruns de internet, aplicativos e quaisquer sites que abrigam conteúdo produzido por terceiros.

O tema da audiência no STF não é apenas o regime de responsabilidade aplicável às chamadas big techs. O artigo 19 do Marco Civil da Internet reforça o papel do Poder Judiciário em dar a última palavra sobre o que é lícito ou ilícito. Importa para um amplo ecossistema de empresas e organizações, grandes e pequenas, que exibem conteúdos gerados por terceiros. Vale para as principais redes sociais, a Wikipedia, o ReclameAqui, o Tripadvisor, o iFood, o Mercado Livre e tantas startups que dependem de um regime jurídico claro para saber se --e em quais condições-- poderão ser responsabilizadas pelos atos de seus usuários. Esse elemento pode ser decisivo sobre a viabilidade jurídica de um negócio na rede
Carlos Affonso Souza, diretor do ITS Rio (Instituto de Tecnologia e Sociedade) e colunista de Tilt

Em meio ao debate do PL das Fake News — que, apesar do nome, é encarado como a nova arma para regulamentar as redes no Brasil—, o STF (Supremo Tribunal Federal) começará a ouvir nesta terça-feira (28) plataformas, autoridades públicas e especialista do terceiro setor, neste que é o primeiro passo para os julgamentos acontecerem.

O encontro discutirá as ações das duas gigantes da tecnologia, que perderam nas primeiras instâncias, foram responsabilizados pela remoção e criação de conteúdos ofensivos criados por usuários e recorreram ao STF. A audiência antecede ao julgamento, que ainda não tem data para acontecer.

O que é julgado no STF?

Google x Aliandra

O primeiro recurso (tema 533) discute a responsabilidade de plataformas digitais, neste caso o Google, sobre conteúdos criados por usuários em suas plataformas.

O processo tramita desde 2010 na Justiça. O caso surgiu após Aliandra Cleide Vieira, professora do ensino médio da rede pública de Minas Gerais, pedir indenização ao Google Brasil por considerá-lo corresponsável pela criação de uma comunidade no Orkut chamada "Eu odeio a Aliandra" — para quem não lembra, o Orkut pertencia ao Google.

O Google não atendeu ao pedido da professora para retirar a comunidade do ar e acabou processado. Ao condenar a empresa, a Justiça de Minas Gerais entendeu que ela não tinha responsabilidade sobre o conteúdo, mas se tornou sujeita à responsabilização ao ignorar a ofensa sofrida pela professora. Por isso, é obrigada a pagar indenização.

Em sua defesa, o Google alega que há:

  • Violação do direito à livre manifestação do pensamento e à vedação à censura;
  • Dificuldade de avaliar eventual lesão a direito de usuários e terceiros devido à subjetividade dos conteúdos (sátiras, críticas e deboches). Por isso, é arbitrário a retirada unilateral dos dados pelo próprio Orkut;
  • Necessidade de decisão judicial que avalie eventual ofensa.

Facebook x Lourdes

Já o segundo recurso (tema 987) foi ingressado pelo Facebook para garantir o cumprimento do artigo 19 do MCI, que diz que não cabe às plataformas decidir se os conteúdos publicados pelos usuários são lícitos ou não. E que elas só serão responsabilizadas se não tomarem providências (como excluir posts, por exemplo) se houver uma ordem judicial específica

O caso surgiu após a dona de casa Lourdes Pavioto Corrêa, de São Paulo, ajuizar uma ação contra o Facebook ao descobrir um perfil fake com seu nome e imagem que publicava conteúdos ofensivos.

Lourdes obteve na primeira instância a remoção do perfil, mas foi indenizada. Ela recorreu, e a Turma Recursal de Piracicaba (SP) declarou inconstitucional o artigo 19 do MCI ao entender que o Facebook deveria pagar indenização, pois, mesmo sem decisão judicial sobre o caso, não retirou o perfil ao ter sido avisado pela dona de casa. A empresa não concordou e também recorreu.

No processo, o Facebook defende:

  • A constitucionalidade do artigo 19 do Marco Civil da Internet para que plataformas sejam responsabilizadas sobre ofensas somente se não cumprir decisão judicial;
  • A não obrigação da plataformas de fiscalizar e excluir conteúdo gerado por terceiros, sem prévia apreciação do Poder Judiciário, pois isso traria risco de censura e restrição à liberdade de manifestação.

Como isso pode mudar a relação com as redes sociais?

De acordo com Marcelo Guedes Nunes, professor especialista em direito e tecnologia da PUC-SP, pode ocorrer o seguinte:

  • se o STF negar os recursos das Big Techs, dará a elas e demais plataformas o poder sobre o que é ou não ofensivo contra alguém;
  • se concordar com as empresas, abrirá o caminho para "censuras" prévias nas redes sociais. Se as plataformas forem responsáveis pelas publicações, elas podem proibir certos conteúdos para evitar eventuais processos.

Como 'conteúdo ofensivo' é uma expressão aberta, as plataformas podem se transformar em controladoras ou censurar tudo o que é dito nas redes, um poder demasiadamente grande para empresas privadas. Atribuir aos provedores o poder de fiscalizar e remover conteúdos ofensivos é um passo perigoso
Marcelo Guedes Nunes, professor de Direito da PUC-SP

Nunes e Carlos Affonso estarão na audiência no STF. Outras entidades civis defendem o recurso das empresas por entenderem que isso pode afetar a liberdade de expressão:

  • Artigo 19: "geraria um grande movimento de censura das publicações de terceiros, a fim de se prevenir dos grandes valores das multas";
  • Abraji (Associação Brasileira de Jornalistas Investigativos): "[negar o recurso do Facebook pode dar] vazão a interesses escusos, preferências subjetivas e exclusão sumária de manifestações".
  • Intervozes: "Cabe ao Judiciário avaliar os direitos em jogo e da liberdade de expressão em relação a outros direitos que possam estar sendo violados. Não cabe à plataforma fazer esse balanço porque ela tende a seguir interesse próprio", afirmou a advogada do Intervozes, Veridiana Alimonti.

Isso pode afetar o PL das Fake News?

Um dos debates sobre o PL das Fake News que tramita no Congresso trata justamente da responsabilidade das Big Techs sobre os conteúdos.

O relator da matéria na Câmara, o deputado Orlando Silva (PCdoB-SP), considera o artigo 19 do Marco Civil "defasado" e defende a responsabilidade das plataformas sobre os conteúdos.

Não entendo por que o STF não julga a constitucionalidade desse artigo. Seria uma baliza para o debate. Outro caminho seria a legislação ajustar esse artigo para definir em que circunstâncias essas empresas devem ter responsabilidade. Hoje elas só retiram mediante decisão judicial. Lavam as mãos
Orlando Silva

Para o professor Marcelo Nunes, atribuir a responsabilidade pelos conteúdos às plataformas pode incentivar a circulação de fake news.

Um dos riscos de se atribuir responsabilidade civil pelo conteúdo para as plataformas é paradoxalmente incentivar as pessoas a propagar fake news, já que a as plataformas serão processadas no lugar de quem publicou. Alterar esse marco e dar às plataformas o poder de censurar conteúdos tão fluidos pode criar um monstro maior do que a radicalização de alguns grupos isolados
Marcelo Nunes, professor de Direito da PUC-SP