WhatsApp se posiciona contra ferramenta para identificação de pedofilia da Apple

Entenda a divergência entre as empresas após o anúncio de um software que reconheceria abuso infantil por imagem.

Uma divergência entre a Apple e o WhatsApp figurou entre as principais notícias da última semana. A nova ferramenta da “Maçã” para identificar casos de abuso infantil em fotos gerou controvérsias com o mensageiro.

Leia mais: Confira as novidades mais esperadas do WhatsApp

O anúncio do recurso no iPhone foi realizado na última quinta-feira (5). O objetivo é identificar imagens que configurem crime de abuso/exploração infantil. Contudo, o representante do WhatsApp, Will Cathcart, disse que a novidade violaria questões jurídicas. Além disso, também infringiria a política de privacidade.

“Eu li a informação que a Apple divulgou ontem [05/08] e estou preocupado. Acho que essa abordagem é errada e um revés para a privacidade das pessoas em todo o mundo. As pessoas perguntam se vamos adotar esse sistema para o WhatsApp. A resposta é não”, enfatizou Cathcart, em sua conta no Twitter.

Will postou várias mensagens para justificar suas preocupações rem relação ao anúncio da Apple. De acordo com ele, governos e empresas de spyware poderiam interceptar o software no iPhone. Isso geraria violação na privacidade dos usuários.  

O executivo também questiona a transparência da Apple no assunto. “Este software de digitalização no seu telefone pode ser à prova de erros? Os pesquisadores não tiveram permissão para descobrir. Por que não? Como saberemos quantas vezes os erros estão violando a privacidade das pessoas?”, perguntou em uma das postagens.

“Tive a confirmação independente de várias pessoas de que a Apple está lançando uma ferramenta do lado do cliente para digitalização CSAM. Esta é uma ideia realmente ruim. Essas ferramentas permitirão que a Apple escaneie as fotos do seu iPhone em busca de imagens que correspondam a um hash perceptivo específico e as relate aos servidores da empresa se muitos deles aparecerem”, disse também.

A Apple disse que a informação sobre escaneamento de mensagens não é exatamente correta. Os dados adquiridos a partir da análise de segurança seriam colocados em um banco criptografado. A empresa não estaria acumulando dados de bibliotecas de fotos dos usuários. Isso aconteceria somente se um material criminoso fosse detectado.

Apple visa a segurança de menores

A Apple, por sua vez, informou que o novo recurso faz parte de um pacote de atualizações previsto ainda para 2021. Esse pacote faz parte de uma nova política de proteção dos usuários lançada pela empresa. O objetivo é identificar e prevenir crianças e adolescentes de predadores sexuais.

O novo sistema utiliza “NeuralHash”, uma espécie de correspondência neural.  Assim, conseguiria detectar imagens com impressões digitais correspondentes à pedofilia. 

O problema da novidade está nos riscos que ela pode trazer para a segurança de dados dos usuários. Especialistas da área dizem que ela poderia gerar vigilância em mensagens criptografadas. Esta, inclusive, é a opinião de Matthew Green, do Instituto de Segurança Johns Hopkins.

Segundo a Apple, apesar de existir o potencial para uma leitura errada, a taxa de usuários lidos de maneira equivocada seria inferior a um em 1 trilhão por ano.

você pode gostar também

Comentários estão fechados.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More