WhatsApp se posiciona contra ferramenta para identificação de pedofilia da Apple
Entenda a divergência entre as empresas após o anúncio de um software que reconheceria abuso infantil por imagem.
Uma divergência entre a Apple e o WhatsApp figurou entre as principais notícias da última semana. A nova ferramenta da “Maçã” para identificar casos de abuso infantil em fotos gerou controvérsias com o mensageiro.
Leia mais: Confira as novidades mais esperadas do WhatsApp
O anúncio do recurso no iPhone foi realizado na última quinta-feira (5). O objetivo é identificar imagens que configurem crime de abuso/exploração infantil. Contudo, o representante do WhatsApp, Will Cathcart, disse que a novidade violaria questões jurídicas. Além disso, também infringiria a política de privacidade.
“Eu li a informação que a Apple divulgou ontem [05/08] e estou preocupado. Acho que essa abordagem é errada e um revés para a privacidade das pessoas em todo o mundo. As pessoas perguntam se vamos adotar esse sistema para o WhatsApp. A resposta é não”, enfatizou Cathcart, em sua conta no Twitter.
Will postou várias mensagens para justificar suas preocupações rem relação ao anúncio da Apple. De acordo com ele, governos e empresas de spyware poderiam interceptar o software no iPhone. Isso geraria violação na privacidade dos usuários.
O executivo também questiona a transparência da Apple no assunto. “Este software de digitalização no seu telefone pode ser à prova de erros? Os pesquisadores não tiveram permissão para descobrir. Por que não? Como saberemos quantas vezes os erros estão violando a privacidade das pessoas?”, perguntou em uma das postagens.
“Tive a confirmação independente de várias pessoas de que a Apple está lançando uma ferramenta do lado do cliente para digitalização CSAM. Esta é uma ideia realmente ruim. Essas ferramentas permitirão que a Apple escaneie as fotos do seu iPhone em busca de imagens que correspondam a um hash perceptivo específico e as relate aos servidores da empresa se muitos deles aparecerem”, disse também.
A Apple disse que a informação sobre escaneamento de mensagens não é exatamente correta. Os dados adquiridos a partir da análise de segurança seriam colocados em um banco criptografado. A empresa não estaria acumulando dados de bibliotecas de fotos dos usuários. Isso aconteceria somente se um material criminoso fosse detectado.
Apple visa a segurança de menores
A Apple, por sua vez, informou que o novo recurso faz parte de um pacote de atualizações previsto ainda para 2021. Esse pacote faz parte de uma nova política de proteção dos usuários lançada pela empresa. O objetivo é identificar e prevenir crianças e adolescentes de predadores sexuais.
O novo sistema utiliza “NeuralHash”, uma espécie de correspondência neural. Assim, conseguiria detectar imagens com impressões digitais correspondentes à pedofilia.
O problema da novidade está nos riscos que ela pode trazer para a segurança de dados dos usuários. Especialistas da área dizem que ela poderia gerar vigilância em mensagens criptografadas. Esta, inclusive, é a opinião de Matthew Green, do Instituto de Segurança Johns Hopkins.
Segundo a Apple, apesar de existir o potencial para uma leitura errada, a taxa de usuários lidos de maneira equivocada seria inferior a um em 1 trilhão por ano.
Comentários estão fechados.