Topo

Guilherme Rambo

REPORTAGEM

Texto que relata acontecimentos, baseado em fatos e dados observados ou verificados diretamente pelo jornalista ou obtidos pelo acesso a fontes jornalísticas reconhecidas e confiáveis.

Aparelhos Apple vão detectar imagens de abuso infantil; veja como funciona

Andrea Piacquadio/ Pexels
Imagem: Andrea Piacquadio/ Pexels

05/08/2021 17h45

A Apple divulgou nesta quinta-feira (5) três novas iniciativas voltadas à proteção de crianças, que virão na forma de recursos novos no iOS/iPadOS 15 e no macOS Monterey, atualizações dos sistemas operacionais que são esperadas até o final do ano.

Inicialmente, os recursos funcionarão apenas nos Estados Unidos, mas é de se esperar que sejam lançados para mais países futuramente.

Imagens sensíveis no iMessage

Imagens sensíveis no iMessage - Divulgação/ Apple - Divulgação/ Apple
Imagem: Divulgação/ Apple

O primeiro recurso é focado na prevenção do acesso de crianças a conteúdos sexualmente explícitos no iMessage, serviço de mensagens da Apple. Além disso, o recurso também visa impedir que a criança compartilhe fotos íntimas suas com um possível predador.

Para que o recurso funcione, os pais devem configurar uma família na sua conta da Apple e a conta da criança dentro dessa família, o que pode ser feito durante a configuração do aparelho.

A partir daí, caso alguém envie uma foto com conteúdo potencialmente explícito para a criança, o iMessage exibirá apenas um quadrado borrado.

Caso a criança toque na imagem para visualizá-la, serão exibidas uma série de mensagens explicando os riscos envolvidos ao acessar o conteúdo e a encorajando a não visualizar e buscar ajuda. Se mesmo assim o menor resolva ver a imagem, os pais receberão uma notificação do ocorrido.

O iMessage possui criptografia ponta a ponta, portanto, esta análise das imagens para determinar se são explícitas ocorre no próprio dispositivo do menor (iPhone, iPad, ou Mac), sem que a Apple tenha acesso ao conteúdo das mensagens ou anexos.

Denúncia de conteúdo sexual infantil

O segundo recurso é mais complexo e tem o objetivo de auxiliar na prevenção da distribuição de conteúdo explícito envolvendo crianças, além de denunciar aqueles que armazenam tal conteúdo em sua biblioteca de fotos.

Deixando bem claro para quem quer apenas saber a resposta para esta pergunta: a Apple vai ver as fotos da minha biblioteca para identificar se tenho conteúdo ilegal nelas? A resposta é não. Os próximos parágrafos explicam da forma mais simples possível como funcionará o recurso.

Antes preciso explicar o conceito de hashes. Simplificando muito, um hash nada mais é que um número derivado de algum conteúdo: textos, imagens, vídeos, etc. Esse número sempre será o mesmo para conteúdos idênticos, mas mesmo que apenas um pequeno pedacinho do conteúdo seja diferente, o número será completamente diferente.

Outras características de um bom algoritmo de geração de hash: dois conteúdos distintos jamais resultarão no mesmo número e é impossível reconstruir o conteúdo com base no hash.

O recurso que a Apple anunciou utilizará um algoritmo chamado de NeuralHash, que funciona de um jeito um pouco diferente do hash tradicional, descrito acima.

O NeuralHash foi desenvolvido especialmente para trabalhar com imagens. No lugar de simplesmente calcular um número com base nos bytes de uma imagem, ele utiliza uma espécie de inteligência artificial para calcular um número que se baseia no conteúdo da imagem. Dessa forma, uma imagem e a mesma imagem editada para ficar em preto e branco tem o mesmo número, por exemplo.

NeuralHash - Apple - Divulgação/ Apple - Divulgação/ Apple
Imagem: Divulgação/ Apple

Diversas organizações mantêm bancos de dados desses hashes que representam imagens explícitas envolvendo menores de idade. Uma dessas organizações que está fazendo parceria com a Apple é a National Center for Missing & Exploited Children (NCMEC).

O recurso funcionará da seguinte maneira: o iPhone armazenará uma cópia criptografada desse banco de dados de hashes. Toda imagem adicionada à biblioteca de fotos terá seu NeuralHash calculado no aparelho antes que ela seja enviada para o iCloud.

Ao enviar a foto para os servidores da Apple, o aparelho enviará também uma representação criptográfica do resultado dessa análise, que não pode ser lida pelos servidores até que um determinado limiar de imagens que coincidem com o banco de dados seja atingido naquela conta do iCloud.

É como se cada imagem do usuário que bate com o banco de dados tivesse um pedacinho da chave que consegue desbloquear todos os resultados para aquele usuário.

Se atingir um determinado limite de imagens que batem, os servidores da Apple conseguem desbloquear os resultados da análise, que então são enviados para uma revisão manual. Caso seja constatado que de fato aquela conta está armazenando imagens explícitas de menores, a Apple bloqueia a conta e notifica o NCMEC para que tome as medidas necessárias.

hash NeuralHash - Apple - Divulgação/ Apple - Divulgação/ Apple
Imagem: Divulgação/ Apple

Segundo a Apple, as chances do recurso apontar um falso positivo são de 1 em 1 trilhão por ano. Análises independentes realizadas por acadêmicos e outros especialistas apontaram que o recurso de fato entrega todos os aspectos apresentados pela empresa.

Siri e buscas por conteúdo problemático

O último recurso anunciado envolve Siri e Busca. Ao ser perguntada sobre como denunciar abuso infantil, a Siri indicará ao usuário recursos de como relatar tais casos.

Além disso, pesquisas realizadas na busca do iPhone ou Siri relacionadas a conteúdo explícito envolvendo crianças resultarão em uma mensagem informando o usuário que tal conteúdo é problemático e danoso, com sugestões de como obter ajuda.

Conclusão

É compreensível que muitos tenham reservas quanto à aplicação dos recursos que a Apple está anunciando.

O mais controverso deles provavelmente é a análise de fotos, porém vale ressaltar que essa análise ocorre em fotos armazenadas no iCloud, portanto quem não quiser que suas fotos passem por essa análise pode simplesmente não utilizar o serviço de armazenamento.

Outro detalhe interessante é que inúmeros outros serviços de armazenamento em nuvem já fazem esse tipo de análise, muitos deles sem o mesmo nível de preocupação com privacidade que a Apple aplicou no seu desenvolvimento.