Topo

Fez seu avatar no Lensa? Cuidado: ele põe seus dados pessoais em risco

Reprodução/Lensa
Imagem: Reprodução/Lensa

Gabriel Dias

Colaboração para Tilt

01/12/2022 16h54Atualizada em 01/12/2022 20h05

Se a sua timeline no Instagram ou Facebook foi invadida por ilustrações lindas dos seus amigos, provavelmente você já sabe que se trata do Lensa - um app que usa inteligência artificial para criar avatares a partir de fotos do usuário.

Esse novo recurso, Magic Avatars, viralizou no fim de semana. Passada a febre, agora vem a mão na consciência: será que é seguro oferecer 20 fotos pessoais e vários outros dados para essa IA? Estamos literalmente pagando para ensiná-la com nossas imagens?

Já houve casos parecidos. Em 2019, o FaceApp teve uma carreira similar - e logo depois todo mundo descobriu que o app coletava vários dados (com a autorização dos usuários), em especial o histórico de navegação web. Na época, muita gente especulou que a grande amostragem de dados reunida pelo aplicativo poderia abastecer um sistema de reconhecimento facial, por exemplo.

"Se pensarmos em um grande volume de pessoas compartilhando suas fotos, estamos falando de uma base de dados que tem muito valor de mercado e poderia ser indevidamente comercializada", avalia Kizzy Terra, cientista de dados e co-fundadora do canal Programação Dinâmica.

"Isso dependerá, certamente, da confiabilidade da empresa. Quando usamos uma ferramenta desconhecida sem saber quem a está construindo, ficamos mais vulneráveis aos riscos e a possíveis danos", afirma Terra.

Seu avatar é deles

O Lensa é cria da Prisma Labs, que em 2016 viralizou outro aplicativo similar, o Prisma, que transformava selfies em arte.

A política do Lensa é explícita ao dizer que as fotos do usuário só saem do celular para serem processadas pela inteligência artificial da companhia, na nuvem, e são apagadas em até 24 horas. Nenhum outro tipo de uso é previsto.

Porém, a mesma política de privacidade registra que você "concede uma licença perpétua, irrevogável, não exclusiva, isenta de royalties, mundial, totalmente paga, transferível, sublicenciável para usar, reproduzir, modificar, adaptar, traduzir, criar trabalhos derivados e transferir seu Conteúdo de Usuário, sem qualquer compensação adicional para você e sempre sujeito ao seu consentimento explícito adicional para tal uso quando exigido pela lei aplicável e conforme indicado em nossa Política de Privacidade."

Ou seja, você está cedendo todas as suas ilustrações (que são bastante realistas) para que a empresa use do jeito que quiser.

"O risco principal é de uso indevido desses dados para fins diversos, diferente do que imaginamos", diz Terra. "Por isso, é importante a leitura dos termos de uso do aplicativo para entender com que tipo de autorização de uso dos dados estamos consentindo."

Ela menciona não apenas a possibilidade de venda ou mas até mesmo a de vazamento, se a empresa não possuir uma infraestrutura de segurança da informação adequada. Ainda que os dados não sejam maliciosamente vazados ou comercializados, eles podem ser roubados por meio da exploração de falhas de segurança.

Viés discriminatório

Essa não foi a única polêmica que veio à reboque no sucesso do Lensa. Alguns críticos apontaram que a IA do aplicativo, como tantas outras inteligências artificiais, tem um viés racista embutido e reforça a chamada "dismorfia de Snapchat".

O viés racista vem do modo como essa IA foi abastecida de dados para poder "aprender" seu trabalho. Kizzy Terra explica que, na maioria dos casos, as bases de dados apresentam grandes desproporções de raça e gênero. Assim, são criados certos modelos supostamente universais que perpetuam estigmas e preconceitos direcionados às populações minorizadas.

"As críticas são baseadas na observação empírica dos resultados obtidos. Pessoas pretas parecem ter seus traços afinados ou também hipersexualizados", exemplifica. "O modelo de inteligência artificial utilizado para gerar tais imagens se pretende neutro e universal, mas não é, porque utiliza bases de dados pouco diversas para o treinamento e otimização desse modelo", destacou.

E o problema não é recente. Há anos pesquisadores e ativistas alertam para os erros de tecnologias, percebidos, por exemplo, de filtros de redes sociais até sistemas de reconhecimento facial com IA, que tendem a uma maior margem de falhas com homens e mulheres negras, aumentando o risco de condenação de inocentes em investigações criminais. Tilt, inclusive, já elaborou uma reportagem especial sobre o assunto, que inclui o minidocumentário (veja ao final desse texto).

Outro problema do Lensa é que, segundo relatos de alguns usuários, a IA também não entende deficiência física - provavelmente, porque não foi devidamente alimentada com exemplos desse tipo. Ela sempre desenha todos os resultados com olhos, dois braços e duas pernas.

A reportagem tentou contato com a empresa desenvolvedora do aplicativo, mas não obteve retorno até o fechamento desta reportagem.