Topo

Apple vai vigiar minhas fotos? Entenda o filtro contra pornografia infantil

Cottonbro/ Pexels
Imagem: Cottonbro/ Pexels

Marcella Duarte

Colaboração para Tilt, em São Paulo

11/08/2021 11h54

A Apple anunciou recentemente que vai adotar recursos para combater o abuso infantil. A partir da próxima atualização de sistema, os dispositivos da empresa (como iPhone e iPad) serão capazes de detectar possíveis imagens de pornografia envolvendo menores de idade na galeria do celular, tablet ou computador armazenadas no iCloud (salvas na nuvem da empresa).

O processo é criptografado e sigiloso, segundo a companhia, mas trouxe preocupações sobre a privacidade. Com ajuda de um algoritmo, o sistema da Apple irá analisar as imagens no iCloud em busca de conteúdos infantis de cunho sexual — CSAM, na sigla em inglês.

De acordo com a empresa, a não ser que você esteja cometendo um crime, não será afetado pelas medidas. Além disso, a Apple não terá acesso ao conteúdo exato das fotos. Esse rastreio será realizado de um modo criptografado (entenda melhor mais abaixo).

Vale lembrar que outros serviços de armazenamento em nuvem, como os do Google, da Microsoft e o Dropbox, e até servidores de email já fazem análises de fotos em medidas contra o abuso infantil. A lei nos Estados Unidos é muito dura com casos de CSAM, obrigando as empresas a tomarem medidas de combate.

A ação da Apple, porém, não foi vista com bons olhos em termos de privacidade. Alguns consideraram a ação mais invasiva. Will Cathcart, o chefão do WhatsApp — cujo filtro para pornografia e abuso infantil são denúncias dos próprios usuários — foi um dos que fizeram críticas aos futuros recursos.

"Estou preocupado. Acho que essa é a abordagem errada e um revés para a privacidade das pessoas em todo o mundo. As pessoas perguntam se vamos adotar esse sistema para o WhatsApp. A resposta é não", afirmou em seu perfil no Twitter.

Ele lembrou que, no ano passado, o WhatsApp relatou mais de 400 mil casos de imagens de abuso sexual infantil, "sem comprometer a criptografia do aplicativo".

Para além das questões de privacidade de indivíduos que não cometem os crimes em questão, a própria segurança do sistema operacional tem sido questionada por especialistas. É um desafio desenvolver um produto inviolável a ciberataques e, ao mesmo tempo, com recursos de monitoramento (como o anunciado) — que podem abrir portas para outros usos.

Uma preocupação é que a criação dessa "porta dos fundos" possa ter sua missão desviada por interesses políticos, por exemplo. Um governo que proíbe a homossexualidade poderia exigir que conteúdo LGBTQI+ também fosse monitorado nos dispositivos das pessoas? Um regime autoritário poderia obrigar a censura de materiais sobre protestos?

De acordo com a Apple, não. "Já recebemos pedidos para implantar mudanças impostas por governos, que degradavam a privacidade dos usuários, antes. E temos recusado firmemente essas demandas. Continuaremos a recusá-las no futuro", garantiu a empresa em um manual publicado esta semana.

"Vamos ser claros, esta tecnologia se limita a detectar CSAM armazenados no iCloud e não atenderemos a nenhum pedido do governo para expandi-la", completou.

Para o famoso defensor da privacidade e polêmico Edward Snowden, porém, se é possível procurar por pornografia infantil hoje, "eles podem escanear qualquer coisa amanhã".

"Não importa o quão bem-intencionada seja, a Apple está implementando vigilância em massa para todo mundo", afirmou em seu perfil no Twitter.

De fato, é um tema polêmico e será preciso acompanhar os desdobramentos do caso. Se você tem receios a respeito da segurança dos seus dados, há uma saída: desligar o armazenamento de fotos no iCloud quando a nova atualização chegar. Assim, as imagens ficam guardadas apenas no próprio aparelho. O lado ruim é vai ocupar espaço na memória interna do dispositivo.

Vá em em Ajustes > iCloud > Fotos > selecionar a opção "Inativo"

Como os recursos da Apple vão funcionar?

O iOS 15, iPadOS 15 e o macOS Monterey, próximas atualizações dos sistemas operacionais da Apple esperadas até o final do ano, receberão três novos recursos. Inicialmente, eles funcionarão apenas nos Estados Unidos, mas é provável que sejam expandidos para outros países. Quando começar a valer, os usuários serão informados sobre os novos termos e a atualização da política de privacidade.

O primeiro, mais complexo e controverso, quer garantir que os usuários de iPhones, iPads e Macs não estejam distribuindo conteúdo sexual envolvendo crianças, além de denunciar quem tiver esse tipo de imagem ilegal em sua biblioteca de fotos. Isso não quer dizer que a Apple vai olhar cada uma de nossas fotos, de acordo com ela.

Será utilizado um algoritmo de inteligência artificial chamado NeuralHash. Esse sistema não vai olhar o conteúdo das imagens, mas o seu hash — um código que funciona como uma "impressão digital" de arquivos digitais.

A NeuralHash vai então comparar o hash das imagens na sua galeria com bancos de dados usados pela polícia que catalogam conteúdos explícitos envolvendo menores de idade. Assim, mesmo que uma foto tenha sido cortada ou esteja em preto e branco ela consegue ser detectada. E uma imagem inofensiva de seu filho em uma banheira, por exemplo, não será sinalizada.

O dispositivo Apple armazenará uma cópia criptografada dos códigos de hash das imagens da galeria na nuvem e fará essa comparação no próprio aparelho, assim que o backup no iCloud for feito. Ou seja, se não for para a nuvem, não passará pela análise.

O argumento da Apple sobre a privacidade é que, o fato de o processo acontecer dentro do próprio aparelho, sem quebrar a criptografia das imagens, é um ponto seguro. Apenas se um determinado número de fotos naquela conta coincidir com o banco de dados de pornografia infantil, os servidores da fabricante terão acesso a uma chave criptográfica que consegue desbloquear apenas os resultados positivos da análise (e não acessar toda a biblioteca), que então são enviados para uma revisão manual, feita por um ser humano.

Pessoas que não estiverem cometendo um crime não sofrerão qualquer impacto — de acordo com a empresa, as chances de o sistema apontar um falso positivo são de 1 em 1 trilhão. Caso seja constatado que de fato aquela pessoa está armazenando imagens sexuais de menores, a Apple bloqueia a conta e notifica as autoridades, para que tomem as medidas necessárias.

Filtro nas mensagens

O segundo recurso anunciado pela Apple tenta prevenir que crianças recebam conteúdos sexualmente explícitos no iMessage, o serviço de mensagens da Apple, ou que enviem fotos íntimas para possíveis predadores. Para funcionar, os pais devem configurar o aparelho da criança em seu compartilhamento familiar do iCloud.

A partir daí, imagens suspeitas ficam borradas e, caso a criança toque nela, são exibidas mensagens educativas, orientando-a a buscar ajuda. Se os avisos forem ignorados, os pais recebem uma notificação.

Vale lembrar que o iMessage possui criptografia ponta a ponta, como o WhatsApp. Portanto, a análise das imagens ocorre no próprio dispositivo, sem que a Apple tenha acesso ao teor das mensagens.

Assistente de voz

Já o último e menos polêmico recurso envolve a assistente virtual Siri. Ela ajudará os usuários a denunciar casos de abuso de menores de idade ao receber perguntas.

Além disso, pesquisas via Siri ou escritas no buscador, relacionadas a pornografia infantil, resultarão em uma mensagem de alerta, informando a gravidade do problema e dando sugestões de como obter ajuda.