Logo TecMundo
Internet

Apple e Google lucram com apps que tiram roupas de mulheres, aponta estudo

Um levantamento realizado pela Tech Transparency Project explica não haver dificuldade alguma em usar imagens de mulheres reais para criar conteúdo sexual impróprio.

Avatar do(a) autor(a): Felipe Vitor Vidal Neri

schedule27/01/2026, às 13:00

updateAtualizado em 27/01/2026, às 13:17

A Google Play Store e a Apple App Store estão lotadas de aplicativos para nudificação ilegal de mulheres. Um estudo feito pelo Tech Transparency Project (TTP) e compartilhado com a CNBC encontrou 102 apps que podem facilmente remover a roupa de mulheres sem qualquer consentimento.

Essa análise mostra que o problema da nudificação vai muito além do comportamento nocivo do Grok, a IA presente na rede social X. Dos mais de 100 softwares encontrados, 55 deles estão na loja do Google e 47 na da Apple, com um alcance de mais de 700 milhões de downloads mundiais.

smart_display

Nossos vídeos em destaque

Como indica o levantamento, esses aplicativos usados para nudez geraram algo em torno de US$ 110 milhões (R$ 580 milhões) em receita. Vale apontar que todo software adicionado nos marketplaces das duas companhias estão sujeitos a repassar uma parcela de até 30% dos seus ganhos à Apple e Google, então essas duas Big Techs estariam lucrando diretamente com material ilícito, segundo a TTP.

dreamface-ap-de-nudificaçao.jpg
Parte desses softwares oferecem templates de mulheres somente com biquínis (Imagem: Tech Transparency Project/reprodução)

Alguns dos aplicativos testados prometem transformar fotos, texto e vozes em vídeos com boa resolução em segundos. Basta escrever um comando simples na maioria desses apps, como inserir uma foto e solicitar para que a plataforma retire as roupas da pessoa, e em pouco tempo o conteúdo é gerado quase sem nenhum impeditivo.

Google e Apple já removeram alguns apps

Fora a geração das imagens por meio do envio de fotos, é possível realizar o chamado Face Swap, ou seja, a troca de rostos. Essa é uma prática que consiste em pegar uma modelo nua ou atriz de filmes adultos, e pedir para a plataforma trocar o rosto original com a foto de uma mulher comum, geralmente conhecida pelo usuário, para simular um ato sexual, por exemplo.

  • Em nota à CNBC, um representante da Apple revelou que a companhia já removeu 28 dos 47 apps apontados no relatório;
  • A empresa afirma que alertou os desenvolvedores dos outros apps que há o risco da remoção caso as violações não sejam removidas;
  • O Google explicou ao veículo que também suspendeu aplicativos relacionados, mas não revelou uma quantidade, já que ainda investiga o caso;
  • Um dos aplicativos da Play Store tinha como uso exclusivo a geração de vídeos de mulheres dançando, e permite que elas fiquem nuas;
  • No mesmo app, mas testado através da App Store, a aplicação não aceitou o comando, criando apenas o vídeo da mulher dançando de biquíni;
  • Uma das plataformas testadas é chinesa, e não teve problema algum em usar a foto de uma mulher vestida para tirar sua blusa, deixando-a exposta;
  • O curioso desse app chinês é que na descrição das políticas de privacidade é dito que “suas informações pessoais são armazenadas na República Popular da China”;
  • Isso significa que o upload de fotos de mulheres reais e posteriormente nuas artificialmente pode ser compartilhado com o governo chinês.

A conclusão da Tech Transparency Project é que as polêmicas do Grok são apenas a ponta do iceberg de nudificação. Os apps mencionados no relatório representam apenas uma fração do problema, e mostram como Apple e Google não conseguem acompanhar a velocidade danosa do mau uso das IAs.


Quer acompanhar novidades sobre inteligência artificial, deepfakes e tecnologia? Siga o TecMundo no X, Instagram, Facebook e YouTube e assine a nossa newsletter para receber as principais notícias e análises diretamente no seu e-mail.

star

Continue por aqui