Topo

Apple admite 'confusão' e diz que recurso anti-pedofilia é 'auditável'

Onur Binay/ Unsplash
Imagem: Onur Binay/ Unsplash

Lucas Carvalho

De Tilt, em São Paulo

13/08/2021 17h47

A Apple resolveu esclarecer a polêmica envolvendo os recursos contra pedofilia anunciados nesta semana e que fizeram muita gente — até o chefe do WhatsApp — acreditar que a empresa criou uma maneira de vigiar os iPhones das pessoas.

Em entrevista ao jornal The Washington Post, o vice-presidente de engenharia de software da Apple, Craig Federighi, admitiu que houve um "mal-entendido" em relação ao sistema, e disse que ele é "auditável".

O sistema em questão é o que a Apple vai usar para detectar imagens de abuso infantil no iCloud, o serviço de armazenamento em nuvem da empresa, oferecido por assinatura para donos de iPhones ou outros produtos da marca.

Um algoritmo vai comparar o hash — espécie de "CPF" que identifica qualquer arquivo na memória do celular — das imagens na galeria do iPhone com um banco de dados usado pela polícia para catalogar imagens conhecidas de pornografia infantil.

Quando as fotos da galeria são armazenadas no iCloud, aquelas que tiverem um hash que coincide com o hash de alguma imagem de pornografia infantil conhecida da polícia serão marcadas com um adesivo de "atenção".

Segundo a Apple, se mais de 30 fotos forem marcadas com esse adesivo, um auditor humano vai checar para ver se não foi alarme falso. Se forem realmente imagens de pornografia infantil, a conta que subiu aqueles arquivos no iCloud é denunciada à polícia.

"Que fique claro: [o sistema] não analisa para saber se você tem uma foto do seu filho na banheira ou algum outro tipo de pornografia. Ele literalmente só detecta as impressões digitais exatas de imagens específicas e conhecidas de pornografia infantil", afirmou Federighi ao "WSJ".

Porta dos fundos?

Organizações em defesa da privacidade digital, como a EFF (Electronic Frontier Foundation), além de especialistas em segurança e até Edward Snowden, acusam a Apple de criar, com esse sistema, uma espécie de "porta dos fundos" nos celulares das pessoas.

O receio é de que, no futuro, uma administração diferente da atual na Apple ou mesmo países autoritários obriguem a empresa a usar esse sistema para procurar outros tipos de imagem que não sejam pornografia infantil e, assim, enfraquecer a privacidade das pessoas.

"Se alguém chegasse até a Apple [para pedir que o sistema fosse usado com outros arquivos], a Apple diria não. Mas digamos que você não queira confiar apenas no que a Apple diz. Você quer ter certeza de que a Apple não conseguiria se safar se disséssemos sim. Esta foi a exigência que fizemos a nós mesmos", diz Federighi.

"Há múltiplos níveis de auditabilidade. Garantimos que você não precisará confiar em uma só entidade ou um só país em relação a quais imagens fazem parte deste processo", acrescentou o executivo, sem dar detalhes de como vai funcionar essa "auditoria".

Filtro de nudes em mensagens

Além do detector de pornografia infantil no iCloud, a Apple anunciou um sistema que avisará pais e mães quando seu filho ou filha receber e abrir uma imagem que contenha nudez. Essa detecção, porém, será feita com uma inteligência artificial no próprio iPhone da criança, sem conexão com os servidores da Apple.

A crítica, aqui, é de que sistemas de inteligência artificial nem sempre são confiáveis quando o assunto é detectar o conteúdo de uma foto. A Apple tem certeza de que esse sistema não vai classificar por engano como nudez algo completamente diferente — como a foto de um foguete, por exemplo?

"O sistema é muito bom, muito preciso", respondeu Federighi ao "WSJ", mas ponderou: "Ele pode cometer um erro. Foi difícil enganar esse sistema nos nossos testes, mas ele pode ser enganado".

A Apple anunciou os recursos inicialmente apenas para os Estados Unidos, mas diz que vai considerar o lançamento em outros países no futuro.