Logo TecMundo
Segurança

OpenAI lança plano para prevenir exploração sexual infantil com IA

A iniciativa objetiva facilitar a identificação de conteúdos inadequados gerados com IA, bem como a denúncia e a investigação.

Avatar do(a) autor(a): André Luiz Dias Gonçalves

schedule09/04/2026, às 16:00

A OpenAI anunciou, na quarta-feira (8), um plano de ação para fortalecer a proteção de crianças nas plataformas online em meio à popularidade da inteligência artificial generativa. O objetivo é combater a exploração sexual infantil associada aos avanços da IA.

Segundo a startup, a iniciativa foi desenvolvida em parceria com o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) e autoridades dos Estados Unidos, incorporando sugestões de organizações e especialistas em segurança infantil. Ela otimiza detecções e investigações de casos de abuso.

smart_display

Nossos vídeos em destaque

Plano de Segurança Infantil da OpenAI

O projeto foca em três aspectos principais, como explicou a desenvolvedora do ChatGPT. Um deles é a atualização das leis para lidar com lidar com material de abuso sexual infantil (CSAM) gerado e/ou modificado com soluções de IA.

  • Aprimorar os sistemas de denúncias às autoridades competentes é outro ponto em destaque, mudança essencial para investigações mais eficazes;
  • Também é destacada a integração de novas medidas de segurança preventivas nos modelos de IA, combatendo e detectando usos indevidos da tecnologia;
  • De acordo com a OpenAI, a estrutura traz, ainda, abordagens legais, operacionais e técnicas para melhorar a identificação de riscos, acelerar respostas e apoiar a responsabilização;
  • Além de auxiliar a detectar ameaças potenciais mais cedo, o projeto garantirá que essas informações estejam prontamente disponíveis para os investigadores.
crianca-usando-ia-no-celular
A iniciativa aprimora a segurança das crianças ao lidar com a IA. (Imagem: Chong Kee Siong/Getty Images)

"Como copresidentes da Força-Tarefa de IA da Aliança dos Procuradores-Gerais, saudamos este plano como um passo significativo para alinhar as práticas de segurança infantil do setor de tecnologia com as realidades de fiscalização que nossos escritórios enfrentam diariamente", disseram os procuradores-gerais Jeff Jackson e Derek Brown.

Esse novo plano de segurança infantil da OpenAI tem como base outros projetos anteriores. Recentemente, ela atualizou as diretrizes para interações com menores de 18 anos e proibiu a geração de conteúdos que incentivem a automutilação.

Aumento de casos

No ano passado, mais de 8 mil denúncias de materiais de abuso sexual infantil gerados com IA foram registradas apenas no primeiro semestre, conforme a Internet Watch Foundation (IWF). O número representa aumento de 14% em comparação a primeira metade de 2024.

Os materiais denunciados incluem imagens explícitas falsas de crianças, produzidas com ferramentas inteligentes. Eles são utilizados para extorsão financeira e no aliciamento de menores, segundo a instituição britânica.

"Continuamos comprometidos em trabalhar com parceiros da indústria, do governo e da comunidade de proteção à criança para promover soluções que reduzam os danos e apoiem melhor a segurança das crianças", comentou a CEO do NCMEC, Michelle DeLaune.

Materiais para a reforçar a segurança de adolescentes na internet também foram lançados pela OpenAI. Saiba mais detalhes nesta matéria.

star

Continue por aqui