Apple adia polêmica tecnologia de análise de imagens no iPhone

1 min de leitura
Imagem de: Apple adia polêmica tecnologia de análise de imagens no iPhone
Imagem: Duophenom/Pexels
Essa não é uma matéria patrocinada. Contudo, o TecMundo pode receber uma comissão das lojas, caso você faça uma compra.
Avatar do autor

A Apple anunciou nesta sexta-feira (3) que não lançará agora a sua controversa tecnologia de detecção de material de abuso sexual infantil (CSAM), anunciada no mês passado. A empresa explicou ao site TechCrunch que irá "reservar um tempo adicional nos próximos meses" para analisar melhor e fazer ajustes, antes do lançamento desses recursos de segurança.

O adiamento foi feito, segundo a empresa, "com base no feedback de clientes, grupos de defesa, pesquisadores e outros". Como divulgado anteriormente, esse retorno dos usuários foi amplamente negativo. Só a ONG de defesa das liberdades civis Electronic Frontier Foudation colheu mais de 25 mil assinaturas de consumidores contra a medida. A respeitada ACLU (American Civil Liberties Union) também pediu à Apple que desistisse do procedimento.

Fonte: Apple/DivulgaçãoFonte: Apple/DivulgaçãoFonte:  Apple 

Como funciona a tecnologia de detecção de CSAM da Apple?

Chamado de NeuralHash, o novo recurso da Apple consiste em um algoritmo supostamente capaz de detectar conteúdos de pornografia infantil em dispositivos de usuários, sem obter a imagem ou mesmo conhecer o seu conteúdo. Como fotos armazenadas no iCloud são criptografadas de ponta a ponta — para que nem mesmo a própria dona do sistema consiga acessar —, o NeuralHash procura CSAM diretamente nos computadores e celulares.

Se as intenções soam como as melhores possíveis, especialistas em cibersegurança e defensores da privacidade na internet vêm expressando sua preocupação com um possível desvirtuamento do sistema por atores poderosos, como governos totalitários, para explorar e oprimir seus cidadãos.

Outra preocupação são os possíveis falsos positivos. Um usuário do agregador social Reddit usou a engenharia reversa para criar "colisões de hash" no NeuralHash, ou seja, utilizou o próprio algoritmo matemático que transforma dados em caracteres (hash) para enganar o sistema. Comparando uma imagem diferente do banco de dados CSAM do dispositivo, o especialista "o iludiu" como se as imagens fossem iguais.

News de tecnologia e negócios Deixe seu melhor e-mail e welcome to the jungle.