'Me urinei de medo ao ser levada no camburão da PM por erro de IA'

Acompanhada de duas amigas, a auxiliar administrativa sergipana Thaís Santos, de 31 anos, estava animada para o Pré-Caju, tradicional micareta de Aracaju. Mas a diversão virou um pesadelo.

Um erro da IA (Inteligência Artificial) usada no reconhecimento facial das câmeras do evento fez a jovem ser confundida duas vezes com uma foragida da Justiça. Durante uma das duas abordagens, ela chegou a urinar.

Thaís diz que, meia hora após chegar à micareta, três agentes à paisana da PM a abordaram. Perguntaram o nome dela e pediram o documento. Como ela estava sem o RG, o constrangimento iniciou.

Questionei do que se tratava e quem seriam eles. Um dos polícias se identificou e informou que estava à paisana. Disse que a abordagem era um protocolo de segurança, pois eu teria sido identificada pela câmera de segurança como uma possível foragida
Thaís Santos, auxiliar administrativa

Após a confirmação de quem era a criminosa procurada, ela foi liberada. Não sem antes ver a foto da mulher. "Ela não se parecia comigo".

Duas horas depois, enquanto curtia o trio da cantora Ivete Sangalo, quatro policiais militares a abordaram novamente. Dessa vez, de forma violenta e com brutalidade. Exigiram que ela colocasse as mãos para trás para ser algemada.

Eu já estava chorando e nervosa, informando que eu não tinha feito nada. Um dos policiais dizia que eu sabia o que tinha feito. No mesmo momento, eu urinei nas calças. Fui conduzida para o camburão da polícia como uma marginal, como todo mundo ali presenciando todo o constrangimento pelo qual eu estava passando. Nunca fui tão humilhada em minha vida, sem nunca ter feito nada de errado na vida
Thaís Santos, auxiliar administrativa

Depois da última abordagem equivocada, Santos foi para casa angustiada e com medo.

Vítima de erro vê racismo em abordagem com IA

Thaís conta que nunca parou para pesquisar sobre a tecnologia que a fez passar pelo constrangimento na festa, mas considera que o erro tenha um viés de racismo.

Continua após a publicidade

"Fui discriminada publicamente por ser pobre e preta", diz ela.

Governo admite erro e diz que revisará uso de IA

Questionada por Tilt, a SSP (Secretaria de Segurança Pública) de Sergipe admitiu o erro.

Afirmou que "houve uma grande similaridade apontada pela identificação facial com outra pessoa, que possuía mandado de prisão em aberto".

A tecnologia não tem 100% de precisão se realmente é a pessoa apontada no banco de mandados, por isso a necessidade de uma verificação minuciosa
SSP de Sergipe

A Corregedoria da Polícia Militar instaurou procedimento para averiguar a ocorrência. A PM informou que "irá rever os protocolos para evitar falhas nos próximos eventos com uso da identificação facial".

Continua após a publicidade

No Pré-Caju, de acordo com a SSP, 27 câmeras atuavam com reconhecimento facial. Elas auxiliaram, diz a PM, na prisão de três pessoas foragidas por homicídio e estelionato.

27 câmeras de reconhecimento facial foram usadas no Pré-Caju, em Aracaju
27 câmeras de reconhecimento facial foram usadas no Pré-Caju, em Aracaju Imagem: Divulgação/SSP-SE

Reconhecimento facial por IA pode ser racista?

Como outras com reconhecimento facial, as câmeras usadas pela SSP de Sergipe possuem IA, que comparam traços dos rostos filmados àqueles presentes em bancos de dados.

Ferramentas do tipo enfrentam a resistência de pesquisadores, que veem inconsistências contra a população negra e pessoas trans.

Para o pesquisador Tarcízio Silva, que estuda o tema há seis anos, a ferramenta usada no Pré-Caju é perigosa, pois "tecnologias de reconhecimento facial são altamente imprecisas para encontrar pessoas específicas".

Continua após a publicidade

O sociólogo Sérgio Amadeu da Silveira, da UFABC (Universidade Federal do ABC), concorda. Ele comenta que o reconhecimento facial tem sido usado na segurança pública para classificar "classes perigosas, setores marginalizados".

"Nas periferias, esse sistema vai confirmar preconceitos e vieses já existentes, vai ampliar práticas discriminatórias e racistas num país como o nosso, que mata jovens negros", completa.

Isso acontece pela falta de neutralidade dos algoritmos, que acabam reproduzindo a discriminação social. "Essas tecnologias são probabilísticas, têm um erro embutido nesse reconhecimento", pontua Amadeu.

Deixe seu comentário

Só para assinantes