Topo

Por que alguns governos fazem campanha contra o reconhecimento facial?

Sistema de reconhecimento facial da Clearview AI é considerado vigilância ilegal no Canadá - Reprodução
Sistema de reconhecimento facial da Clearview AI é considerado vigilância ilegal no Canadá Imagem: Reprodução

Felipe Oliveira

Colaboração para Tilt

22/06/2021 10h46Atualizada em 12/07/2021 12h50

Duas entidades de defesa da privacidade na Europa pediram oficialmente nesta semana que as autoridades proíbam o uso de IA (inteligência artificial) para o reconhecimento de pessoas em espaços públicos. Elas defendem ainda que tecnologias que classificam os indivíduos em grupos a partir de etnia, gênero, orientação política ou sexual também devem ser proibidos.

O que chama atenção é que essa não é a primeira vez que autoridades apelam contra a utilização da IA acompanhada da biometria. As cidades de Cambridge e São Francisco, nos Estados Unidos, são dois locais que proibiram o uso do reconhecimento facial. Mas qual seria o motivo para isso? Spoiler: as tecnologias ainda erram.

O caso da Europa

Em nota, o Conselho Europeu de Proteção de Dados e a Autoridade Europeia para a Proteção de Dados pedem a "proibição geral de qualquer uso de IA para o reconhecimento automatizado de características humanas em espaços acessíveis ao público, como reconhecimento de rostos, marcha, impressões digitais, DNA, voz, teclas e outros dados biométricos."

Falta de comprovação de efetividade e falhas na tecnologia, além da vigilância, são alguns dos principais receios ligados ao reconhecimento facial. No caso do Conselho Europeu, por exemplo, o argumento é que essas tecnologias são prejudiciais para os direitos e liberdades fundamentais, como a privacidade e a igualdade de tratamento perante a lei, dos cidadãos da União Europeia.

Os especialistas dizem que os legisladores devem ter cuidado para garantir o alinhamento com quadro de proteção de dados existente para evitar riscos de direitos.

Desconfiança da tecnologia

Mariana Valente, diretora do InternetLab, afirmou em entrevista ao TAB que é muito curioso que uma cidade como Cambridge, berço do MIT (Instituto de Tecnologia de Massachusetts), uma das mais importantes instituições de tecnologia do mundo, e da Universidade de Harvard, não permita esse tipo de vigilância.

Para ela, isso mostra que "as pessoas nessas cidades, onde as discussões estão mais avançadas, estão atentas para os riscos. Isso nos deixa com a orelha ainda mais em pé".

Quem trabalha com o tema está mais consciente de que existe a possibilidade de falhas na tecnologia e que a falta comprovação de sua efetividade, observa Valente, mas a população, em geral, ainda está pouco atenta e cai no pensamento do "não tenho nada a esconder".

Porém, ela levanta a reflexão: "você deseja mesmo que todos os seus passos no espaço público sejam monitorados, os locais onde você vai, os protestos de que participa?"

Além de Cambridge e São Francisco, Oakland, Northampton, Brookline, Somerville e Portland, já aprovaram leis proibindo o uso de biometria facial.

Exemplos de erros da IA

Em 2019, a União Americana pelas Liberdades Civis (ACLU, na sigla em inglês), realizou um experimento com legisladores na Califórnia, subindo a foto de 120 congressistas no sistema Rekognition, da Amazon, e pediu para o programa compará-los a 25 mil fotos de fichas criminais. O resultado? Vinte e seis políticos foram incorretamente identificados pelo sistema com "fichados".

No mês seguinte, os legisladores californianos aprovaram uma moratória para proibir por três anos o reconhecimento facial com base em imagens coletadas por câmeras acopladas a uniformes de policiais.

Biometria facial pode detectar orientação política

Uma das preocupações do professor Michael Kosinski, da Universidade de Stanford, é a de que o reconhecimento facial pode detectar a orientação política das pessoas. Kosinski ficou famoso ao descrever, em 2013, o uso de curtidas e testes no Facebook para decifrar a personalidade de uma pessoa.

No início de 2021 o professor teve um artigo publicado na revista "Nature", no qual demonstrava que o algoritmo do Facebook e em sites de namoro dos EUA, Canadá e Inglaterra conseguiam, por meio da inteligência artificial, identificar corretamente a orientação política das pessoas em 72% dos casos.