Topo

Guilherme Rambo

OPINIÃO

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

Ação da Apple contra pedofilia: por que recursos podem fazer a diferença

Cottonbro/ Pexels
Imagem: Cottonbro/ Pexels

20/08/2021 04h00

Recentemente, escrevi sobre novas medidas de proteção às crianças que a Apple pretende lançar nos seus sistemas operacionais após o iOS 15. Como mencionado no artigo original, as medidas não estariam livres de controvérsia, o que realmente ocorreu nos dias seguintes ao anúncio.

Esta semana, uma coalizão formada por diversos grupos de proteção à liberdade de expressão, direitos civis e direitos humanos escreveu uma carta aberta à empresa, destacando diversos argumentos contrários às medidas e pedindo para que a Apple não as coloque em prática.

A primeira reclamação do grupo diz respeito ao recurso contra fotos explícitas no iMessage — serviço de mensagens da Apple. Recapitulando rapidamente o que foi anunciado: quando os pais configurarem uma conta da Apple familiar, poderão incluir filhos na conta e habilitar o recurso. Quando o filho receber (ou tentar enviar) uma imagem contendo foto que o algoritmo identifica como explícita, verá apenas uma imagem borrada, mas terá a opção de visualizá-la mesmo assim, após diversos alertas. Caso o menor tenha menos de 13 anos de idade, os pais receberão um aviso se optarem por ver tal imagem.

Segundo o grupo, algoritmos que detectam imagens explícitas são notoriamente falhos, muitas vezes identificando imagens de obras de arte ou imagens médicas e educacionais como sendo explícitas.

Além disso, segundo a carta, o recurso assume que pais e filhos possuem uma relação saudável, mas infelizmente existem muitos pais abusivos que poderão utilizar o recurso para monitorar a vida do filho além dos limites propostos pelo recurso.

O grupo cita também menores LGBTQIA+ em famílias conservadoras, que podem acabar tendo sua sexualidade revelada acidentalmente e contra a sua vontade, causando problemas graves.

Quanto ao primeiro ponto que fala sobre o algoritmo, o diretor de software da Apple, Craig Federighi, afirma que a empresa treinou seu algoritmo para que seja resistente a colisões acidentais, dizendo inclusive que tentaram "enganá-lo" de diversas formas, para garantir seu funcionamento adequado.

Ainda que o algoritmo pudesse identificar imagens inócuas como sendo explícitas, a consequência não seria tão ruim: bastaria o menor explicar a situação aos pais, talvez até realizando uma gravação de tela do iPhone mostrando que a foto que estava vendo não tinha nada de errado.

Apesar da carta apresentar bons argumentos contra a implantação de tal recurso, acredito que ele traz muito mais pontos positivos que negativos, visto que é comum predadores utilizarem redes de troca de mensagens para atrair vítimas e eventualmente trocar imagens íntimas, que acabam indo parar em sites especializados nesse tipo de conteúdo.

A seguir, a carta trata do recurso que irá identificar imagens de abuso infantil nas fotos que o usuário envia para o iCloud. É importante ressaltar novamente aqui que este recurso não tem nada a ver com o recurso do iMessage, mencionado anteriormente.

A Apple, em parceria com NCMEC e outras organizações de proteção às crianças, criou um sistema que será capaz de identificar imagens conhecidas de abuso infantil enviadas para o iCloud. Essas imagens são identificadas através de um código numérico, que é comparado com códigos presentes em um banco de dados de imagens de abuso que já circulam na internet.

Para maiores detalhes sobre o funcionamento técnico do recurso, confira meu artigo anterior a respeito.

Na carta, o grupo cita também preocupações com o recurso. Uma das afirmações é que a sua implementação colocaria a Apple — e outras empresas — na mira de governos autoritários, que poderiam forçar essas empresas a incluírem outros tipos de conteúdo para que também sejam detectados e denunciados.

A carta encerra pedindo para que a Apple abandone os planos de lançar os recursos e se comprometa com a manutenção da criptografia ponta a ponta em seus serviços.

Segundo a Apple, várias proteções existem para que o cenário apontado pelo grupo não aconteça. Um exemplo é o fato do banco de dados de hashes das imagens ser composto de uma intersecção que leva em conta a presença de um hash em pelo menos dois bancos de dados de instituições localizadas em diferentes jurisdições, protegendo o banco contra arbitrariedades de um único governo.

Além disso, o recurso não denuncia nenhum usuário automaticamente. Caso determinada conta atinja o limiar de fotos identificadas, esta passará por uma revisão manual para confirmar que se tratam realmente de conteúdo de abuso infantil, para só então a denúncia ser encaminhada ao NCMEC.

No meu ponto de vista, essa preocupação com decisões arbitrárias partindo do Estado não passam de uma constatação da realidade, que não tem nenhuma relação com o recurso que está sendo proposto.

A realidade é que a maioria dos governos mundo afora já tem o poder de impor a implementação de censura e vigilância dos dados de seus usuários por parte das empresas de tecnologia, a única proteção contra isso são a constituição e os processos legislativos e legais de cada país.

A implementação desta solução pela Apple não aumenta a probabilidade do governo dos Estados Unidos, por exemplo, passar uma lei que demanda maior vigilância dos dados de seus usuários.

Por fim, vale ressaltar que a Apple ainda não aplica criptografia ponta a ponta para fotos do iCloud nem backups, ou seja, esse recurso não está quebrando a criptografia ponta a ponta, que nem está em vigor para o conteúdo ao qual o recurso se aplicará.

O que me parece mais plausível é que a Apple esteja introduzindo este recurso justamente como um facilitador para que futuramente habilite a criptografia ponta a ponta para fotos do iCloud e backups.

A empresa supostamente teria enfrentado resistência das autoridades americanas quando planejou fazer isso no passado.

"Mas e as crianças?" é uma pergunta levantada frequentemente por autoridades estatais como justificativa para questionar a implementação de meios de comunicação totalmente privados.

A resposta para essa pergunta pode ser este sistema proposto pela Apple.