menu
Logo TecMundo
Software

Apple exclui referências ao monitoramento de fotos no iCloud

A polêmica tecnologia serve para detectar material de abuso sexual contra crianças armazenado na plataforma, mas levantou dúvidas sobre espionagem

Avatar do(a) autor(a): André Luiz Dias Gonçalves

schedule15/12/2021, às 12:30

Apple exclui referências ao monitoramento de fotos no iCloudFonte:  Unsplash 

Imagem de Apple exclui referências ao monitoramento de fotos no iCloud no tecmundo

O polêmico recurso de detecção de material de abuso infantil (CSAM), anunciado pela Apple em agosto, pode ter sido abandonado. Nesta quarta-feira (15), a Maçã removeu as referências à ferramenta da sua página dedicada à segurança infantil, de acordo com o MacRumors, sugerindo uma mudança de rumos a respeito da tecnologia.

Esta possível desistência em relação ao recurso é mais um capítulo envolvendo o sistema, que incluiria o escaneamento de fotos armazenadas no iCloud, em busca de imagens contendo abuso sexual contra crianças. Desde a sua divulgação, não pararam de surgir críticas à big tech.

smart_display

Nossos vídeos em destaque

Um dos críticos à digitalização de fotos foi o ex-funcionário da Agência de Segurança Nacional dos Estados Unidos (NSA) Edward Snowden, que classificou a função como uma tentativa de vigilância em massa. Pesquisadores de segurança, políticos e até mesmo funcionários da Apple também se posicionaram contra a ferramenta.

A tecnologia de escaneamento da galeria de fotos do iPhone foi considerada invasiva por especialistas.A tecnologia de escaneamento da galeria de fotos do iPhone foi considerada invasiva por especialistas.

Na maioria dos casos, os críticos disseram que esse tipo de tecnologia traz riscos à privacidade dos usuários, além de poder ser utilizada para outras finalidades por governos autoritários. Muitos também ressaltaram não haver comprovação da eficácia do sistema em detectar imagens nas quais crianças estejam sendo abusadas.

Explicações não foram aceitas

Tentando minimizar as preocupações referentes ao recurso de detecção de material abusivo contra crianças, a gigante de Cupertino divulgou documentos e entrevistas com executivos detalhando o funcionamento do sistema. A criação de FAQs foi outra medida tomada para tranquilizar os usuários do iCloud.

No entanto, as explicações não surtiram o efeito desejado e a companhia acabou decidindo adiar o lançamento, em setembro. Na época, a Apple afirmou que a decisão havia sido tomada com base no feedback de pesquisadores, usuários e grupos de defesa, optando por desenvolver melhor o sistema antes de lançá-lo para o público em geral.

Agora, essa declaração sumiu do site, junto com todas as outras informações sobre o CSAM. Estaria a empresa desistindo do projeto, por conta de todas as polêmicas registradas nos últimos meses, ou a remoção dos conteúdos se deve a outro motivo?

Por enquanto, a empresa não deu qualquer declaração a respeito do caso.

info
Essa matéria não é patrocinada, mas contém links de parceiros. O TecMundo pode ganhar comissão pelas vendas geradas por meio desses links. Reiteramos nosso compromisso em indicar apenas produtos e promoções curados e selecionados pelos nossos especialistas, sempre levando em consideração a experiência dos nossos leitores.
mystery
Sempre verifique códigos e descontos. Lojas e marcas podem alterar ou encerrar ofertas a qualquer momento.