Tribunal de robôs? 'Cofre fechado' guarda as IAs do Judiciário brasileiro

Responsável por fiscalizar todas as instituições judiciais do Brasil, o Conselho Nacional de Justiça detém a chave do que pode ser chamado de cofre fechado da inteligência artificial no Judiciário brasileiro.

É a Sinapses. Criada há quase quatro anos, a plataforma se beneficia de uma resolução que obriga os tribunais do país a registrar junto ao CNJ suas aplicações de inteligência artificial e a guardar uma cópia delas no tal cofre.

Quase todos os tribunais do Brasil estão desenvolvendo ou contratando desenvolvedores para criar softwares de inteligência artificial aplicada para solucionar os problemas deles
Luiz Fernando Bandeira de Mello Filho, conselheiro nacional de Justiça encarregado pelos dados pessoais no CNJ

A plataforma em si não é um aplicativo de inteligência artificial. É um banco de dados hospedado no Amazon Web Services com objetivo de conter todas as IAs usadas pelo Judiciário do Brasil. Isso incluí até aqueles serviços ainda em desenvolvimento. A única exceção é o Supremo Tribunal Federal, que está acima do CNJ na hierarquia do Judiciário.

Segundo Bandeira de Mello, a Sinapses tem há no momento mais de 100 novos aplicativos de IA sendo desenvolvidos, por 64 instituições judiciárias diferentes, de tribunais a conselhos. O número faz com que o Brasil esteja na dianteira da adoção de IA no Judiciário mundial.

Além de fiscalizar, plataforma propõe o compartilhamento das soluções de IA.

Na maioria dos casos, a IA é usada para enfrentar a morosidade dos processos. Na sua forma mais simples, ela reconhece vozes e até traduz, de forma que os juízes possam ditar as sentenças. Pode automatizar tarefas repetitivas e lentas, como a análise de processos —alguns podem ter centenas de páginas. Ajuda magistrados a consultar a jurisprudência para guiar decisões atuais.

São sistemas como:

Continua após a publicidade
  • Janus: usado em nove tribunais da justiça eleitoral para agilizar o procedimento de aprovação ou rejeição de candidaturas eleitorais;
  • Gemini e Abraçaí: ambos usados em dois tribunais tribunais, mas que fazem algo semelhante, agrupar processos com temas similares e facilitar sua consulta por juízes;
  • Bastião: funcionando em dois tribunais, identifica ações jurídicas predatórias ou repetitivas. Por exemplo: quando alguém cria múltiplas ações para constranger outra pessoa, porque ela não tem condições financeiras ou tempo para responder.

Há determinadas tarefas em que o CNJ é mais incisivo sobre o que pode e o que não pode. É o caso das sentenças a juízes. Segundo a resolução que critou a Sinapses, essas IAs "não devem indicar conclusão mais prejudicial ao réu do que aquela a que o magistrado chegaria sem sua utilização". Em outros países, esse foi um dos pontos mais problemáticos.

Há casos emblemáticos na Inglaterra e Estados Unidos da tentativa da implementação dessas ferramentas. Nos testes, elas sugeriam penas muito mais altas para homens negros desempregados do que para brancos desempregados. Essas ferramentas são tão 'excelentes' que modulam à perfeição comportamento e o viés do judiciário
Cleyton Mendes Passos, advogado e especialista em proteção de dados e direito digital

Aplicativos usados em tribunais precisam antes ser testados e homologados para "identificar preconceitos e generalizações", determina o CNJ. Aqueles que apresentarem comportamentos enviesados ou generalistas são descontinuados.

Número de IAs no Judiciário é maior

O número de IAs no Judiciário brasileiro é maior que o contabilizado pelo CNJ. Alguns tribunais desobedecem a regra do conselho.

Continua após a publicidade

Os tribunais têm obrigação de subir na plataforma Sinapses todos os modelos de inteligência artificial que estão em desenvolvimento. Só que alguns tribunais não estão fazendo isso
Luiz Fernando Bandeira de Mello, do CNJ

Segundo o conselheiro, parte disso ocorre por problemas técnicos, relacionados com a imensa base de dados que os aplicativos precisam processar. A outra parte do problema é a falta de transparência.

Quem explica como a IA tomou decisões?

O CNJ exige que o tribunal ou conselho não só comunique a existência da IA, mas também informe detalhes a respeito dela, como:

  • forma como trata os dados;
  • objetivos e resultados pretendidos pela aplicação;
  • documentação dos riscos;
  • possíveis danos identificados;
  • explicação satisfatória e auditável por autoridade humana quanto a qualquer proposta de decisão.

Isto é, os tribunais que desenvolvem a IA têm que informar os riscos existentes nas plataformas. Essas informações, porém, são compartilhadas só com o Judiciário, não com quem é afetado pelas decisões judiciais. O Sinapses não é aberto ao público. Só servidores do Judiciário podem ver a lista dos modelos na plataforma e por quem são usados. São eles também que têm acesso aos tribunais que utilizando aplicações não homologadas pelo Sinapses.

Continua após a publicidade

Um dos pontos criticados é a "explicação satisfatória" informada pelos tribunais de como suas IAs chegam a algumas decisões. Ou seja, é o princípio de que a IA tem que ser explícita sobre o que a levou a algumas conclusões.

O advogado Mendes Passos dá um exemplo atual, fora do âmbito Judiciário, mas que acaba gerando processos.

De cada dez negativas que acontecem pela previdência social do INSS, seis já são dadas por robôs de IA. Os advogados que têm o mínimo de conhecimento de IA estão conseguindo reverter essas negativas pela ausência da explicabilidade

Quando a população começar a perceber, vão pensar: 'Estou sendo julgado por um robô'. Vai piorar a sensação que as pessoas já estão tendo de um judiciário cada vez mais imprevisível. E penso que isso tende a se ampliar
Cleyton Mendes Passos, advogado

Para o conselheiro do CNJ, o Sinapses foi criado justamente para evitar essa situação.

Não queremos que tribunais façam maluquices. Ninguém quer julgamento por robô. A plataforma vem sendo aprimorada para podermos coordenar o uso de IA no Brasil. Essa é a ideia
Luiz Fernando Bandeira de Mello, do CNJ

Continua após a publicidade
Segundo ele, uma comissão do CNJ está reavaliando a resolução de 2020 para atualizá-la. Quando a regra entrou em vigor, a IA generativa não era relevante, tanto que nem é mencionada no texto. "Com a evolução da IA, vai ser sempre assim. Daqui a cinco anos, vamos ter que reavaliar mais uma vez."

Deixe seu comentário

Só para assinantes