PUBLICIDADE
Topo

Reconhecimento facial: lado bom não compensa efeito perverso, diz sociólogo

Mulher olhando smartphone com tecnologia de reconhecimento facial - iStock
Mulher olhando smartphone com tecnologia de reconhecimento facial Imagem: iStock

Letícia Naísa

De Tilt, em São Paulo

30/08/2021 04h00Atualizada em 30/08/2021 10h24

Em junho deste ano, o Metrô de São Paulo anunciou a instalação de novas câmeras nas estações da linha 3-Vermelha. Poderia ser apenas uma notícia corriqueira, mas a grande polêmica foi o uso de inteligência artificial nos aparelhos e aspectos de privacidade. No mês seguinte, a Polícia Federal adquiriu um novo programa para cruzar dados biométricos, entre eles, de câmeras reconhecimento facial.

Desde antes de essas tecnologias se popularizarem, especialistas já apontavam problemas em sua adoção. Não são poucas as pesquisas que mostram erros graves cometidos pela inteligência artificial, principalmente com pessoas negras e pessoas trans. O principal argumento da defesa é em prol da segurança. Em contrapartida, a acusação pergunta: segurança de quem?

"[É uma tecnologia que] tem sido usada para identificar 'classes perigosas', setores marginalizados", afirma Sérgio Amadeu da Silveira, sociólogo. "[Elas] são probabilísticas, têm erro embutido nesse reconhecimento", completa.

Com um vasto currículo de pesquisa na área de redes digitais e muitos livros sobre o assunto, o sociólogo ficou conhecido pelo seu ativismo a favor do software livre e da inclusão digital. Ele foi presidente do ITI (Instituto Nacional de Tecnologia da Informação) em 2003 e, hoje, é professor adjunto da UFABC (Universidade Federal do ABC).

Tilt conversou com Amadeu sobre a adoção de câmeras de reconhecimento facial no Brasil e seus "efeitos perversos", como ele considera. Sua opinião é clara: "Defendo um banimento — ou, no mínimo, uma moratória desse uso".

Tilt: Para quê são usadas as tecnologias de reconhecimento facial hoje?

SAS: Elas têm sido usadas por Estados, principalmente pelo aparato policial e sistemas de segurança, como aeroportos, em fluxos de pessoas controlados. É preciso diferenciar isso de câmeras de condomínios, de casas. Essas câmeras que gravam quem entra e quem sai não é reconhecimento facial, é armazenamento de imagens.

Tem quem acredite que câmeras impedem pessoas mal-intencionadas, mas não é disso que estamos falando. Estamos falando de dispositivos de captura de imagens que são ligados a banco de dados e a algoritmos de aprendizado de máquina, aprendizado profundo, o machine learning e deep learning, que são voltados à detecção de biometria facial.

Tilt: Por que há controvérsias no uso de câmera de reconhecimento facial?

SAS: Seus efeitos colaterais são extremamente perversos na sociedade. Ela tem sido usada para identificar "classes perigosas", setores marginalizados, por isso, a gente tem que conter sua proliferação hoje. Essas tecnologias são probabilísticas, têm um erro embutido nesse reconhecimento. O que ocorre é que nós sabemos que aplicada, por exemplo, numa cidade como São Paulo, que tem uma polícia muito violenta, essa tecnologia vai servir à ampliação da violência. Nas periferias, esse sistema vai confirmar preconceitos e vieses já existentes, vai poder ampliar práticas discriminatórias e racistas num país como o nosso, que mata jovens negros.

É preciso que ela avance mais e que nós tenhamos garantias democráticas de que ela não vai servir para ampliação da violência e nem para perseguir lideranças políticas. Isso é muito perigoso.

Tilt: Por que esses sistemas foram proibidos em algumas cidades?

SAS: Os benefícios não compensam os efeitos colaterais perversos. A imagem captada numa rua, numa multidão, coloca o rosto numa posição para tirar métricas, que vão dar a probabilidade de ser ou não ser uma determinado pessoa. Essa tecnologia tem muitos erros, além dela instaurar um poder descomunal de vigilância.

São tecnologias que colocam o espaço da rua sob uma vigilância extremamente autoritária

Tilt: Então elas deveriam ser banidas em todos os lugares?

SAS: Defendo atualmente um banimento, ou, no mínimo, uma moratória desse uso enquanto a sociedade discute sua incorporação profundamente. Não é possível aceitar que isso seja simplesmente um uso qualquer, como se usa um veículo ou uma câmera de armazenamento de imagens.

Essa questão de fazer moratória do uso de tecnologias ou banir tecnologias não é nova. Antes de morrer, o Stephen Hawking assinou um manifesto contra o uso de AI como arma de guerra. Aconteceu [manifestação contrária] também com [uso de] armas químicas.

Se a nossa sociedade, democraticamente, decidir utilizar, precisamos decidir em quais situações podem ser usadas, com que cuidado. Há pesquisas que apontam que 90% das pessoas presas por reconhecimento facial são negras, os algoritmos são modelos de aprendizado que usam estatística e dependem da estrutura de dados que foi levantada para que eles aprendam os padrões.

Tilt: Existe algum exemplo de uso positivo da tecnologia de reconhecimento facial?

SAS: Olha, não conheço uma discussão realizada por algum país que constituiu um uso consciente e que determinou práticas aceitáveis. O que existe são cidades que proibiram seu uso.

Tilt: Esse tipo de sistema gera um risco para a democracia?

SAS: É um risco muito grande. Essa tecnologia pode ser usada para perseguir pessoas nas cidades, pode detectar a mobilização de pessoas, pode ser colocada na porta de uma favela para saber se naquela comunidade lideranças estão entrando ou saindo, que horas chegaram em casa. A democracia tem que discutir não só as antigas liberdades de expressão, de opinião, de pensamento — essas são liberdades que são fundamentos das sociedades democráticas de hoje —, mas a gente precisa agregar outras coisas com a popularização do uso dessas tecnologias por grandes corporações e Estados.

Agora existe a LGPD, mas ela não proíbe a coleta, ela regulamenta essa coleta. A gente precisa discutir o direito de não ser vigiado, o direito de não ser acompanhado o tempo todo, em qualquer situação

Tilt: Por que essas tecnologias falham tanto?

SAS: Toda tecnologia vai ter um percentual de falha. Elas são invenções humanas. Elas guardam dificuldades de aplicação de determinados domínios da ciência, tendo que que enfrentar adversidades físicas, simbólicas ou de energia.

As tecnologias de reconhecimento facial e de reconhecimento biométrico geram muitos danos em áreas de conflito, por exemplo. A gente vê uso de drones que têm câmeras de alta precisão que geram mortes de pessoas. Uma vez identificado um alvo, ele pode atirar um míssil. Estamos longe de ter algo que tenha mais de 90% de acerto. E mesmo um acerto, no caso de um drone, é difícil aceitar essa ética da captura, da caçada o tempo todo. Quando você usa um dispositivo desse e joga um míssil, mesmo que seja um inimigo militar que esteja numa vila, você está cometendo um assassinato.

Tilt: O Metrô de São Paulo está instalando câmera com inteligência artificial. Esse uso também é controverso?

SAS: Esse uso é inaceitável. Pode ser algo que será usado para afastar segmentos que serão considerados perigosos. Além de vender dados que eles vão captar por esses sistemas para vender produtos, já que podem detectar o seu estado de humor. Isso vai ser muito perigoso. É uma tecnologia que vai deixar o tempo todo mais pessoas à disposição de sistemas de modulação de comportamento. Sem contar que a pessoa não consentiu com o uso ou mesmo a captura de suas imagens. É um uso indevido e abusivo de dados biométricos, não dá para venderem o nosso estado emocional ou atuarem sobre ele a partir de sistemas biométricos.

Tilt: Qual o papel da LGPD nesse debate?

SAS: Dados biométricos são dados sensíveis [que identificam uma pessoa], mas não tem claramente um veto à coleta. Acho que a academia e a sociedade civil vão ter que atuar sobre isso para que, a partir da mobilização e do esclarecimento da sociedade, a lei seja aplicada.

Tilt: Recentemente, a polícia de SP passou a usar câmeras de vigilância nos uniformes para inibir mau comportamento. Isso pode ser usado de forma ruim no futuro?

SAS: Isso é diferente do que estamos falando. Câmeras para filmar uma operação policial, para efeito de uso, em conformidade com a lei, eu sou a favor. Isso não é biometria facial. Sou favorável que sejam filmadas operações pela própria polícia, porque isso pode ajudar a reduzir comportamentos violentos e ilegais. Agora, não necessariamente isso depende do uso de tecnologia, depende do comando ser duro na punição. Se a polícia acoberta o mau comportamento, não adianta nada.

Mas ainda acho complicado uma sociedade viver sob constante vigilância, isso é típico de sociedades totalitárias, insisto nesse ponto. Vamos supor que a gente tivesse uma câmera a cada dez metros em todas as ruas. O crime não ia sumir, mas ia mudar seu modus operandi. A causa do crime não é a ausência de câmeras.