Logo TecMundo
Software

OpenAI endurece regras para denunciar crimes após atentado no Canadá

A OpenAI prometeu estabelecer políticas mais rigorosas no sistema de denúncias e revisão sobre comportamento potencialmente violento.

Avatar do(a) autor(a): Igor Almenara Carneiro

schedule27/02/2026, às 15:00

A OpenAI anunciou políticas mais rígidas para denunciar possíveis crimes às autoridades. As novas diretrizes foram detalhadas em carta enviada a Evan Solomon, ministro federal do Canadá responsável por inteligência artificial, na quinta-feira (26).

Segundo o Wall Street Journal, a OpenAI havia detectado conversas perturbadoras entre a autora do atentado em Tumbler Ridge e o ChatGPT. O sistema de monitoramento identificou atividade suspeita e, após revisão humana, a conta da usuária foi banida — mas nenhuma autoridade foi alertada sobre o possível crime.

smart_display

Nossos vídeos em destaque

“Os eventos em Tumbler Ridge são uma tragédia indescritível, e nossos corações permanecem com as vítimas, suas famílias e toda a comunidade”, afirma a carta da OpenAI, assinada pela vice-presidente de políticas globais, Ann O’Leary.

O que a OpenAI prometeu mudar?

Como parte das novas políticas, a OpenAI prometeu:

• Continuar fortalecendo o “Protocolo Aprimorado de Encaminhamento às Forças da Lei”, mantendo colaboração com autoridades canadenses e considerando o contexto do incidente de Tumbler Ridge;
• Estabelecer um ponto de contato direto com as autoridades policiais canadenses;
• Incorporar o contexto nacional e comunitário nos esforços de desescalada em conversas;
• Aprimorar o sistema de detecção para violações repetidas das políticas de serviço.

“Esses compromissos imediatos são apenas o primeiro passo no trabalho que devemos realizar em parceria com o governo canadense para aprimorar a segurança da IA”, ressaltou a executiva.

Atiradora mantinha conversas perturbadoras com o ChatGPT

A suspeita de ser autora do atentado em Tumbler Ridge mantinha conversas consideradas perturbadoras com o ChatGPT. O sistema de monitoramento automático detectou o comportamento incomum e solicitou revisão humana, que confirmou a suspeita.

A conta foi banida, mas líderes da OpenAI optaram por não informar as autoridades locais, segundo apuração do WSJ.

Na carta enviada ao governo canadense, a empresa afirmou ter identificado uma segunda conta associada à suspeita e prometeu compartilhar os dados do perfil com as autoridades.

As conversas no ChatGPT são monitoradas por um sistema automático de denúncias ao menos desde agosto de 2025.

Quer acompanhar os desdobramentos sobre segurança em IA e as mudanças nas políticas das big techs? Fique ligado no TecMundo para mais atualizações sobre tecnologia, regulação e inteligência artificial.

star

Continue por aqui