Apple vai usar tecnologia para procurar imagens de abuso sexual nos iPhones

Instrumento vai detectar imagens conhecidas de abuso sexual de crianças, sem desencriptar as mensagens das pessoas. Mesmo assim, alguns peritos alertam para riscos de utilização abusiva desta tecnologia.

Foto
Phil Noble

A Apple apresentou planos para examinar iPhones nos EUA, em busca de imagens de abuso sexual de crianças, o que suscitou aplausos dos defensores destas e preocupações pela eventual utilização daquela tecnologia por Governos que desejem controlar os seus cidadãos.

A Apple informou que a sua aplicação de mensagens vai passar a ter capacidade de identificar conteúdos sensíveis, sem possibilitar à empresa a leitura das comunicações privadas.

O instrumento, que a Apple designou como ‘neuralMatch’, vai detectar imagens conhecidas de abuso sexual de crianças, sem desencriptar as mensagens das pessoas. Se for encontrada uma correspondência, a imagem vai ser vista por uma pessoa, que pode notificar a polícia se for necessário.

Mas investigadores contrapuseram que o instrumento pode ser usado para outros objectivos, como vigilância governamental de dissidentes ou contestatários.

Matthew Green, da Universidade Johns Hopkins, um dos principais investigadores em criptografia, manifestou-se preocupado com a possibilidade de utilização deste instrumento para controlar pessoas inocentes, enviando-lhes imagens banais, mas desenhadas para parecerem pornografia infantil, enganando o algoritmo da Apple e levando ao alerta das forças policiais – essencialmente controlando as pessoas. “Os investigadores têm sido capazes de fazer isso facilmente”, disse.

As empresas tecnológicas, como Microsoft, Google e Facebook, têm partilhado ao longo de anos ‘listas negras’ de imagens conhecidas de abuso sexual de crianças. A Apple tem também estado a inspeccionar ficheiros guardados no seu serviço iCloud, que não está tão seguramente encriptado como as suas mensagens, em busca desse tipo de imagens.

A empresa tem estado sob pressão de governos e polícias para autorizar a vigilância de informação encriptada.

Avançar com estas medidas de segurança vai exigir à Apple um equilíbrio delicado entre atacar a exploração das crianças e manter o seu compromisso com a protecção da privacidade dos seus utilizadores.

A Apple acredita que vai conseguir esta compatibilização com a tecnologia que desenvolveu em consulta com vários criptógrafos proeminentes, como Dan Boneh, docente na Universidade de Stanford, cujo trabalho neste campo lhe valeu um Turing Award, muitas vezes considerado a versão do Prémio Nobel na área da tecnologia.

O cientista da computação, que há mais de uma década inventou a PhotoDNA, a tecnologia usada pela polícia para identificar imagens de abusos sexuais de crianças online, reconheceu o potencial para o abuso do sistema da Apple, mas contrapôs que é mais do que compensado pelo imperativo de combater o abuso sexual de crianças.

“É possível? Com certeza. Mas é alguma coisa que me preocupe? Não”, disse Hany Farid, investigador na Universidade da Califórnia, em Berkeley, que argumenta que existem muitos outros programas concebidos para proteger os aparelhos de várias ameaças. Por exemplo, a WhatsApp disponibiliza aos seus utilizadores uma encriptação total para proteger a sua privacidade, mas usa um sistema de detecção de programas maliciosos e avisa os utilizadores para não abrirem ligações suspeitas.

A Apple foi uma das primeiras principais empresas a aderir à encriptação ‘de-ponta-a-ponta’, na qual as mensagens apenas podem ser lidas por quem as envia e quem recebe. Porém, há muito que as polícias pressionam para ceder a essa informação, de forma a investigar crimes como terrorismo ou exploração sexual de crianças.

“O aumento da protecção das crianças pela Apple vem mudar o jogo”, disse o presidente Centro Nacional para as Crianças Desaparecidas e Abusadas, John Clark, em comunicado. “Com tantas pessoas a usarem os produtos da Apple, estas novas medidas de segurança têm o potencial de salvar vidas de crianças.”

A presidente da Thorn, Julia Cordua, considerou que a tecnologia da Apple pondera “a necessidade de privacidade com a segurança digital das crianças”. A Thorn, uma organização sem fins lucrativos, fundada por Demi Moore e Ashton Kutcher, usa a tecnologia para ajudar a proteger as crianças dos abusos sexuais.

Sugerir correcção
Ler 8 comentários