Facebook está trabalhando duro para prevenir o suicídio

2 min de leitura
Imagem de: Facebook está trabalhando duro para prevenir o suicídio

Desde que a ferramenta "Transmitir Ao Vivo" foi implementada no Facebook, a rede social vem enfrentando problemas com usuários realizando diversos tipos de ações negativas ou criminosas, desde o consumo de drogas, passando por suicídio até homicídio. Como a rede social não é uma terra sem lei, o Facebook vem criando ferramentas para prevenir e atenuar os casos mais sensíveis, como o suicídio.

"O Facebook é um lugar onde amigos e familiares já estão conectados, então somos capazes de conectar uma pessoa em situação de dificuldade emocional com outras que podem oferecer apoio. É parte do nosso esforço contínuo ajudar a construir uma comunidade segura dentro e fora do Facebook", comentou a rede social.

Para isso, a plataforma terá as seguintes novidades

  • Usar tecnologia para detectar sinais em posts ou transmissões ao vivo que possam ter pensamentos suicidas, e para ajudar a responder a denúncias de conteúdos de suicídio ou automutilação mais rapidamente
  • Melhorar a forma como identificamos as melhores opções de ajuda
  • Dedicar mais revisores de nosso time de especialistas para analisar denúncias de conteúdos de suicídio ou automutilação

O Facebook também está trabalhando com a tecnologia para reconhecer padrões. Isso acontece da seguinte maneira, segundo a plataforma

  • Estamos começando a usar inteligência artificial fora dos Estados Unidos para ajudar a identificar situações onde alguém possa estar expressando pensamentos que levem ao suicídio, inclusive no Facebook Live
  • Essa abordagem usa tecnologia de reconhecimento de padrões para ajudar a identificar publicações e transmissões ao vivo como possíveis de expressar pensamentos suicidas. Continuamos a trabalhar nessa tecnologia para aumentar sua precisão e evitar falsos positivos
  • Usamos sinais como o texto usado em posts e comentários (por exemplo, comentários como “você está bem?” ou “posso ajudar?” podem ser sinais de que uma pessoa está enfrentando dificuldade emocional). Em algumas ocasiões, a tecnologia identificou vídeos que poderiam não ter sido reportados por nossa comunidade

O Facebook também comentou sobre a equipe de revisores e socorristas

  • Temos milhares de revisores em todo o mundo que analisam denúncias de conteúdo no Facebook. A equipe inclui um grupo dedicado de especialistas que tem treinamento específico em suicídio e automutilação
  • Também estamos usando inteligência artificial para priorizar as análises feitas por nossas equipes, sejam publicações, vídeos ou transmissões ao vivo. Isso garante uma resposta mais rápida nos casos que envolvam pessoas em perigo e, quando for apropriado, podemos alertar de maneira mais rápida os serviços de emergência
  • Contexto é fundamental para as nossas equipes de revisão de denúncias, e temos aprimorado nossas ferramentas para ajudar as pessoas o mais rápido possível. Nossos revisores podem, por exemplo, identificar rapidamente quais trechos dentro de um vídeo motivaram um aumento nos comentários, reações e denúncias das pessoas. Isso ajuda nossos revisores a entender rapidamente se alguém pode estar em perigo e assim, podemos acionar ajuda
  • Também estamos usando recursos de automação para que nossa equipe entre em contato com serviços de emergência mais rapidamente

"O Facebook tem trabalhado em ferramentas de prevenção ao suicídio por mais de 10 anos. Nossa abordagem foi desenvolvida em colaboração com organizações de saúde mental como Save.org, National Suicide Prevention Lifeline e Forefront Suicide Prevention, com a contribuição de pessoas que tiveram experiências pessoais pensando a respeito ou até mesmo tentando suicídio. Essas ferramentas também estão disponíveis globalmente – com a ajuda de mais de 80 parceiros locais – em qualquer idioma em que as pessoas usem o Facebook. No Brasil, além do CVV, temos parceria com a SaferNet".

Categorias

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.