Logo TecMundo
Redes Sociais

YouTube afrouxou a moderação de conteúdo e não avisou a ninguém, descobriu jornal

Um documento distribuído em treinos internos orientou moderadores a manter vídeos online, desde que seu conteúdo seja de interesse público

Avatar do(a) autor(a): Igor Almenara Carneiro

schedule09/06/2025, às 10:30

updateAtualizado em 09/06/2025, às 14:03

O YouTube afrouxou suas políticas de moderação de conteúdo sem qualquer anúncio oficial, revelou o The New York Times. A mudança acompanha uma tendência observada também em outras plataformas, como Facebook, Instagram e X.

Tradicionalmente, o YouTube mantém critérios rigorosos de moderação, especialmente em temas sensíveis como política ou saúde pública. Vídeos que disseminam desinformação ou promovem discriminação costumam ser removidos rapidamente do ar.

smart_display

Nossos vídeos em destaque

Alívio na moderação de conteúdo

No entanto, essa abordagem mudou desde a posse de Donald Trump como presidente dos Estados Unidos, em janeiro de 2025. Um documento interno de treinamento, distribuído em dezembro de 2024, orientou moderadores a preservar vídeos que possivelmente violem as diretrizes, desde que sejam considerados de "interesse público".

youtube.jpg
O YouTube afrouxou a moderação de conteúdo após a posse do presidente dos Estados Unidos, Donald Trump. (Fonte: YouTube/Reprodução)

Segundo o novo padrão, até 50% do conteúdo de um vídeo pode conter material potencialmente ofensivo — anteriormente, o limite era de 25%. Além disso, os moderadores foram incentivados a manter no ar vídeos de reuniões de conselhos municipais, manifestações e debates políticos.

Entre os temas considerados de interesse público estão:

  • Debates sobre eleições;
  • Conversas ideológicas;
  • Manifestações;
  • Discussões sobre raça, sexualidade ou identidade de gênero;
  • Temas como aborto, imigração e censura.

Durante o treinamento, os funcionários analisaram um vídeo intitulado “RFK Jr. Delivers SLEDGEHAMMER Blows to Gene-Altering JABS” (“RFK Jr. faz revelações chocantes sobre vacinas alteradoras de genes”, em tradução livre). Mesmo com alegações falsas, o material deveria permanecer disponível por ser considerado de interesse público — embora atualmente não esteja mais no ar, sem explicação oficial.

Outro exemplo citado no treinamento envolvia um insulto direcionado a uma pessoa trans durante uma audiência do governo Trump. Apesar da ofensa, o restante do vídeo — com 43 minutos de duração — seria mantido no ar por conter conteúdo relevante e informativo.

Mudanças são recorrentes na plataforma, diz YouTube

Ao The New York Times, o YouTube afirmou que ajustes nas políticas de moderação são frequentes e fazem parte da estratégia da plataforma. A empresa citou o período da pandemia de covid-19, quando endureceu as regras em 2020, para depois flexibilizá-las em 2023.

Nos três primeiros meses de 2025, 192.586 vídeos foram removidos por conteúdo problemático, um aumento de 22% em relação ao mesmo período de 2024.

“A definição de ‘interesse público’ está em constante evolução, e atualizamos nossas diretrizes para refletir os novos tipos de discussões que surgem na plataforma”, afirmou um porta-voz do YouTube. “Nosso objetivo continua o mesmo: proteger a liberdade de expressão no YouTube, ao mesmo tempo em que mitigamos danos mais graves.”

Quer ficar por dentro das mudanças nas redes sociais e nos bastidores das big techs? Siga o TecMundo no Instagram, TikTok, YouTube, Facebook e X.

 

 

 

Perguntas Frequentes

O que mudou na política de moderação de conteúdo do YouTube?
O YouTube afrouxou suas diretrizes de moderação, permitindo que vídeos com até 50% de conteúdo potencialmente ofensivo permaneçam no ar, desde que sejam considerados de interesse público. Antes, o limite era de 25%. A mudança não foi anunciada publicamente e foi revelada por um documento interno de treinamento obtido pelo The New York Times.
Quando e por que essa mudança ocorreu?
A flexibilização começou após a posse de Donald Trump como presidente dos Estados Unidos, em janeiro de 2025. Um documento interno distribuído em dezembro de 2024 orientou os moderadores a preservar vídeos que poderiam violar as diretrizes, desde que tivessem relevância pública.
O que é considerado “interesse público” pelo YouTube?
Segundo o treinamento interno, são considerados de interesse público conteúdos como debates sobre eleições, conversas ideológicas, manifestações, discussões sobre raça, sexualidade, identidade de gênero, além de temas como aborto, imigração e censura.
Vídeos com desinformação podem continuar no ar?
Sim, desde que o conteúdo seja classificado como de interesse público. Um exemplo citado no treinamento foi um vídeo com alegações falsas sobre vacinas, que deveria permanecer disponível por seu valor informativo, mesmo contendo desinformação. No entanto, esse vídeo específico não está mais no ar, sem explicação oficial.
Como o YouTube justifica essas mudanças?
A plataforma afirma que ajustes nas políticas de moderação são frequentes e refletem a evolução das discussões públicas. O objetivo declarado é equilibrar a liberdade de expressão com a mitigação de danos mais graves. O YouTube citou como exemplo o endurecimento das regras durante a pandemia de covid-19 em 2020 e a flexibilização em 2023.
Essas mudanças impactaram a quantidade de vídeos removidos?
Sim. Nos três primeiros meses de 2025, o YouTube removeu 192.586 vídeos por conteúdo problemático, um aumento de 22% em relação ao mesmo período de 2024. Isso indica que, apesar da flexibilização, a plataforma continua removendo uma quantidade significativa de material.
Outras plataformas também estão reduzindo a moderação?
Sim. A tendência de afrouxar a moderação de conteúdo também foi observada em outras redes sociais como Facebook, Instagram e X, conforme mencionado no texto.
star

Continue por aqui