Topo

Robôs já tomam decisões que deveriam ser do governo brasileiro, diz ONG

Getty Images
Imagem: Getty Images

Carlos Madeiro

Colaboração para Tilt

23/02/2021 15h20

Um levantamento inédito produzido pela ONG (organização não-governamental) Transparência Brasil mostra que a IA (inteligência artificial) já é usada em larga escala por órgão públicos no país. Ao mesmo tempo em que elas ajudam a otimizar processos, também interferem em tomadas de decisões —que deveriam ser dos humanos— e, em alguns casos, ameaçam a privacidade das pessoas.

O estudo catalogou 44 programas de IA em uso no país e mostrou que 64% deles produzem uma decisão de forma autônoma ou oferecem informações que servem de apoio para uma tomada de decisão. O problema é que esses "robôs" nem sempre são transparentes ou respeitam a privacidade dos dados dos cidadãos.

Um dos exemplos de uso de IA no poder público vem do judiciário, como Tilt mostrou em março de 2020: robôs criados pelos tribunais ajudam a realizar, em segundos, tarefas que um ser humano levaria dias para concluir.

Em muitos casos, o objetivo é simplificar dados para apoiar uma tomada de decisão da administração pública. Mas nem sempre é assim: a IA pode excluir a parte humana da história e colocar dados sigilosos em risco.

"Os chatbots para atendimento a cidadãos, por exemplo, podem excluir pessoas que não usem linguagem formal ao escrever, ou que não tenham domínio da tecnologia, e comprometer o acesso a direitos como a saúde", afirma Juliana Sakai, diretora de operações da Transparência Brasil.

Impacto na vida real

Para conseguir os dados do estudo, a Transparência Brasil fez um questionário, enviado a órgãos da administração pública direta e indireta, além de pedidos por meio da LAI (Lei de Acesso à Informação) e buscas em bases que já são abertas ao público.

O questionário, elaborado em parceria com a CGU (Controladoria-Geral da União), o Ministério da Ciência, Tecnologia e Inovação e o Centro de Estudos sobre Tecnologias Web do NIC.br (Núcleo de Informação e Coordenação do Ponto BR), foi enviado em setembro de 2020 a 319 órgãos do executivo federal, além de órgãos do legislativo e judiciário.

Com base nos dados coletados, foram avaliados 6.195 endereços de sites governamentais, explica Manoel Galdino, diretor executivo da Transparência. "Hoje nós temos uma transparência muito baixa sobre como o Estado garante que ele não está violando nossos direitos. O objetivo é a gente chamar a atenção, ter esse mapeamento", diz.

Galdino explica que uma tomada de decisão pode sofrer impactos por conta da IA. E esses impactos podem ter consequências importantes para a população, que pode ser excluída ou discriminada, ou ter sua privacidade violada pela administração pública.

O estudo cita dois exemplos que nos ajudam a entender os riscos. Um deles é o PalasNet, da Polícia Federal, que usa um algoritmo de reconhecimento de imagem para combater abuso sexual infantil. "Obviamente é muito importante que a privacidade dessas crianças seja preservada. No momento em que esse algoritmo é implementado, precisamos ter garantia de que o número de pessoas que vai ter acesso a esse banco de dados seja o menor possível, e que os dados sejam preservados ao máximo", diz.

Outro exemplo citado é o Weka, uma ferramenta usada por uma universidade federal, a UFSM (Universidade Federal de Santa Maria), no Rio Grande do Sul, que tenta prever a possibilidade de estudantes do ensino superior desistirem do curso.

"E aí são vários dados dos estudantes que são utilizados para treinar a ferramenta. Só que nós precisamos ter cuidado de garantir que essa ferramenta não acabe discriminando grupos que, por razões de um racismo estrutural, de desigualdades sociais, possam ter uma taxa maior de evasão escolar, criando assim um ciclo vicioso de estigmatização, do tipo: 'não vamos conceder uma bolsa porque essa pessoa tem uma taxa muito alta para abandonar'", pontua.

O relatório da ONG traz recomendações para um uso responsável de ferramentas de IA pelo poder público, como utilização de bases de dados representativas (com participação paritária de negros e indígenas, por exemplo), além de tornar esses dados transparentes.

"Durante a coleta é importante verificar se os dados escolhidos para o conjunto de treinamento do modelo representam bem todos os grupos e populações que serão afetadas por ele. Ou, ainda, se contêm alguma discriminação na sua criação que pode vir a reproduzir e intensificar algum tratamento ou padrão discriminatório. E é preciso garantir acesso a informações públicas relativas aos algoritmos usados pelo setor público", completa Juliana Sakai.