Topo

Apple vai checar iPhones a distância para verificar imagens de abuso sexual infantil

O novo sistema funciona comparando imagens a um banco de dados de imagens de abuso sexual infantil conhecido - PA MEDIA
O novo sistema funciona comparando imagens a um banco de dados de imagens de abuso sexual infantil conhecido Imagem: PA MEDIA

James Clayton

Repórter de tecnologia da BBC na América do Norte

06/08/2021 12h03

A Apple anunciou que implementará um sistema para analisar iPhones dos Estados Unidos em busca de imagens de abuso sexual infantil; críticos temem que sistema possa ser usado também para cercear liberdades individuais.

A Apple anunciou que vai colocar em uso um sistema para localizar material de abuso sexual infantil (identificado pela sigla CSAM, em inglês) em dispositivos de clientes dos Estados Unidos.

Antes de uma imagem ser armazenada no iCloud, a tecnologia irá procurar correspondências com material de abuso sexual infantil já conhecido.

Assim, se uma correspondência for encontrada, um revisor humano avaliará o caso e relatará o usuário às autoridades, segundo disse a Apple.

Isso levantou, no entanto, preocupações com a privacidade - de que a tecnologia possa ser expandida para rastrear telefones em busca de conteúdo proibido ou mesmo discurso político. Especialistas temem que a tecnologia possa ser usada por governos autoritários para espionar seus cidadãos.

A Apple disse que as novas versões do iOS e iPadOS - que serão lançadas ainda este ano - terão "novos aplicativos de criptografia para ajudar a limitar a propagação do material de abuso sexual infantil online, ao mesmo tempo em que foram projetadas para a privacidade do usuário".

O sistema funciona comparando imagens a um banco de dados de imagens de abuso sexual infantil conhecidas compilado pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA e outras organizações de segurança infantil.

Essas imagens são traduzidas em "hashes", códigos numéricos que podem ser "combinados" com uma imagem em um dispositivo Apple.

A Apple diz que a tecnologia também será capaz de detectar versões editadas, mas semelhantes, das imagens originais.

'Alto nível de precisão'

"Antes que uma imagem seja armazenada nas fotos do iCloud, um processo de correspondência no dispositivo é executado para essa imagem em relação ao material de abuso sexual infantil conhecido", disse a Apple.

A empresa afirmou que o sistema tem "um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta".

Além disso, a Apple diz que revisará manualmente cada relatório para confirmar se há uma correspondência. Em seguida, pode tomar medidas para desativar a conta de um usuário e relatar às autoridades.

A empresa diz que a nova tecnologia oferece benefícios de privacidade "significativos" em relação às técnicas existentes - já que a Apple só fica sabendo das fotos dos usuários se eles tiverem uma coleção de material de abuso sexual infantil conhecido em sua conta do iCloud.

Alguns especialistas em privacidade expressaram preocupações.

"Independentemente de quais sejam os planos de longo prazo da Apple, eles enviaram um sinal muito claro. Em sua opinião (muito influente), é seguro construir sistemas que examinam os telefones dos usuários em busca de conteúdo proibido", disse Matthew Green, pesquisador de segurança da Johns Hopkins University, nos Estados Unidos.

"Se eles estão certos ou errados nesse ponto, pouco importa. Isso quebrará a barreira - os governos exigirão isso de todos."