Análise de fotos da Apple 'abre portas para ameaças', diz especialista

5 min de leitura
Imagem de: Análise de fotos da Apple 'abre portas para ameaças', diz especialista
Imagem: BigTunaOnline/Shutterstock

O anúncio da Apple, na semana passada, de uma ferramenta de verificação que vai procurar por Material de Abuso Infantil (CSAM, na sigla em inglês) causou bastante controvérsia. Apesar da tentativa de combater a circulação de conteúdos sexuais com crianças, especialistas dizem que a plataforma precisa de ajustes para resguardar a privacidade e garantia de um uso correto.

O TecMundo conversou sobre este e outros detalhes do assunto com Marcos Barreto, professor da Escola Politécnica da Universidade de São Paulo (POLI-USP), especialista em cibersegurança e pesquisador em áreas como arquiteturas de sistemas para aplicações críticas e de tempo real.

Ele explica que a iniciativa da Maçã é louvável, já que as empresas de tecnologia com este porte têm a capacidade de atuar no combate a crimes virtuais.

Apple

"Se pensarmos como uma nova tecnologia, ela é muito bacana. [Os desenvolvedores da Apple] usaram soluções não triviais para fazer a coisa certa, já que a posse e distribuição de materiais sexuais com crianças é um crime grave quase que no mundo inteiro", salienta.

O pesquisador também argumenta que, por delimitar a checagem das imagens suspeitas ao iCloud, a companhia garante que os usuários possam continuar utilizando seus outros serviços caso não eles não se sintam confortáveis. Ele lembra, porém, a importância de tudo isso estar descrito nos termos de uso da plataforma de nuvem.

Pontos negativos

Apenas um dia após a divulgação da tecnologia pela Apple, uma carta aberta assinada por mais de 6 mil pessoas pediu para que a empresa reconsiderasse a iniciativa. O documento, que incluiu a assinatura até de ilustres do setor de segurança digital como Edward Snowden, diz que apesar das boas intenções, a premissa é bastante perigosa.

"A proposta da Apple abre portas para ameaças que minam as proteções de privacidade fundamentais para todos os usuários". A solução, que também será utilizada no aplicativo Mensagens, pode estabelecer um "precedente onde nossos dispositivos pessoais tornam-se uma nova ferramenta radical para vigilância invasiva, com pouca supervisão para prevenir eventual abuso e expansão irracional do escopo da vigilância", de acordo com os signatários.

Apesar dos elogios anteriores, Barreto também faz apontamentos sobre assuntos que não foram tratados de maneira transparente pela marca, que chegou a admitir preocupação com a ferramenta.

iCloud

"Apesar de não ser fácil, eu acredito que seria importante um processo de auditoria. É preciso garantir que a tecnologia está sendo usada, de fato, para o que ela se propõe. Como praticamente tudo no mundo, a ferramenta poderia ter seu propósito desviado".

O especialista lembra que não é possível garantir com 100% de precisão de que a Apple não vai utilizar o sistema de detecção de CSAM para outros meios, mesmo a marca garantindo isso em um documento.

Outra crítica levantada é que o próprio processo é questionável. De acordo com a gigante de Cupertino, antes de um material suspeito ser denunciado para o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), ele passará por uma "revisão humana".

Apple

"A revisão é essencial para garantir a efetividade. Porém, as diretrizes dão a entender que quem vai realizar a checagem é um profissional da Apple. Isso acarretaria uma nova exposição da criança, caso o material seja ilegal mesmo. Seria interessante se ela [Apple] pudesse explicar novamente este ponto ou simplesmente fazer de um outro jeito, se for este mesmo o procedimento".

Como a tecnologia funciona?

O professor Barreto explica que, de maneira simplificada, podemos dizer que a novidade da Apple funciona a partir de três pilares. O primeiro deles é o NeuralHash, que utiliza uma rede neural para transformar as imagens em números (chamados de hash). Ou seja, as características das fotos (ângulo e cor, por exemplo) vão compondo o número (que é único) de uma figura.

A matemática por trás da tecnologia faz com que imagens com conteúdos idênticos tenham hashes idênticos e também o contrário (imagens diferentes tem hashes diferentes). Portanto, imagens que estiverem armazenadas no iCloud e forem idênticas ou extremamente parecidas com as que estão em posse do NCMEC serão consideradas suspeitas e posteriormente analisadas. A Apple aponta que o sistema é extremamente seguro e que uma sinalização incorreta ocorrerá 1 vez em um 1 trilhão de análises durante cada ano.

O segundo pilar é o chamado "intersecção de conjuntos privados". Junto de outras técnicas de criptografia, ele garante que o sistema "aprenda" somente com imagens que estão dentro de determinado padrão de hash. Fotos fora dos parâmetros estabelecidos não são utilizadas no protocolo.

AppleExemplo da Apple mostra imagens idênticas, só diferentes pelas cores, que possuem o mesmo hash, enquanto uma não relacionada tem um outro número.

O pesquisador da POLI-USP conta que o último elemento é um modelo de organização de dados que embaralha o banco de dados para não permitir que o sistema seja acessado por cibercriminosos, e que imagens com conteúdos específicos, como fotos de cartão de crédito, por exemplo, não possam ser buscadas.

A tecnologia pode chegar ao Brasil?

Nós perguntamos a Barreto o que ele acha sobre uma possível chegada da ferramenta de verificação ao Brasil. Ele lembra que dentre os principais complicadores estão a denúncia e questões burocráticas com as entidades do país.

"A tecnologia está baseada em um conjunto de imagens sabidamente de pornografia infantil. Por isso, seria preciso localizar no país qual instituição possui essa competência para fazer a verificação das fotos dos brasileiros no iCloud. Além disso, toda a questão criminal em relação à denúncia dos perfis teria que ser pensada. A burocracia que envolve a utilização de um sistema do tipo me faz pensar que é difícil que a Apple pense, em um primeiro momento, em utilizar isso por aqui".

No Brasil, instituições públicas (como o Ministério da Mulher, da Família e dos Direitos Humanos, Polícias Estaduais e Federal, Ministério Público) e privadas (como a ONG Safernet Brasil) atuam no combate à produção e disseminação de conteúdo pornográfico e sexual envolvendo crianças na internet. Para denunciar este tipo de material existe o canal de comunicação Disque 100, bastando ligar para o número 100 para efetuar a denúncia.

O outro lado

A reportagem entrou em contato com a Apple para questionar sobre os pontos críticos citados tanto na carta pública quanto pelo professor Marcos Barreto. Além disso, foi questionado sobre uma possível chegada da tecnologia ao Brasil.

Contudo, até o fechamento desta matéria a Apple não retornou o contato. O texto será atualizado se a empresa responder aos questionamentos.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.