Apple vai analisar fotos do iCoud para identificar abuso infantil

1 min de leitura
Imagem de: Apple vai analisar fotos do iCoud para identificar abuso infantil
Imagem: Unsplash
Essa não é uma matéria patrocinada. Contudo, o TecMundo pode receber uma comissão das lojas, caso você faça uma compra.
Avatar do autor

Confirmando os rumores, a Apple anunciou nesta quinta-feira (5) a chegada de novos recursos de segurança com foco nas crianças. A principal novidade é a detecção aprimorada de Material de Abuso Infantil (CSAM, na sigla em inglês) no iPhone, iPad e Mac.

O recurso usa algoritmos para analisar as fotos armazenadas no iCloud, buscando conteúdos que possam indicar pornografia infantil, por exemplo. O teor das imagens será comparado com os dados do Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos, que atua em parceria com autoridades policiais.

Se encontrar alguma correspondência, a inteligência artificial enviará o conteúdo suspeito para análise humana. Caso se confirme a existência de material com abuso infantil, a conta será desabilitada e um relatório chegará à organização sem fins lucrativos que atua na defesa dos direitos da criança.

Funcionamento do sistema de varredura de fotos.Funcionamento do sistema de varredura de fotos.Fonte:  Apple/Divulgação 

De acordo com a Apple, a verificação das fotos acontece no dispositivo e preserva a privacidade do usuário, sendo capaz de identificar apenas as imagens CSAM. A companhia afirma que o sistema, cujo lançamento acontecerá primeiro nos EUA, possui taxa de erro inferior a 1 em 1 trilhão e que o proprietário da conta poderá contestar a decisão.

Mais segurança no iMessage

Um mecanismo capaz de identificar fotos sexualmente explícitas nos anexos de imagem do iMessage também será lançado. A novidade estreará no mercado americano ainda em 2021, ficando disponível para as contas que possuem compartilhamento familiar no iCloud.

iMessage avisará às crianças sobre fotos impróprias.iMessage avisará às crianças sobre fotos impróprias.Fonte:  Apple/Divulgação 

A tecnologia objetiva evitar o compartilhamento de imagens impróprias entre as crianças que fazem parte do plano familiar. Ao receber um conteúdo sensível, a foto ficará desfocada ao ser visualizada por este público, que também não poderá compartilhá-la com usuários menores de 13 anos.

Denunciar abuso infantil

Pais e crianças que quiserem buscar orientações sobre como denunciar materiais contendo abuso ou exploração infantil terão uma ajuda extra. A gigante de Cupertino informou que atualizará o app de pesquisa e a assistente virtual Siri para facilitar a procura por assistência.

Atualizações na Siri e no app de pesquisa.Atualizações na Siri e no app de pesquisa.Fonte:  Apple/Divulgação 

Ao fazer perguntas relacionadas ao tema, as ferramentas fornecerão explicações detalhadas sobre como e onde registrar uma denúncia. Essas novidades também estão previstas para chegar até o final do ano.