Logo TecMundo
Internet

ChatGPT incentivará pausas em conversas longas e será mais imparcial em decisões delicadas

A OpenAI desenvolve mecanismos para incentivar o uso saudável do ChatGPT — dentre elas, lembretes ocasionais para fazer pausas ao longo do uso

Avatar do(a) autor(a): Igor Almenara Carneiro

schedule05/08/2025, às 10:45

updateAtualizado em 05/08/2025, às 10:48

O ChatGPT vai começar a sugerir pausas se perceber que o usuário está conversando por muito tempo com o assistente. A novidade faz parte de um pacote de atualizações que busca incentivar o uso seguro e saudável da inteligência artificial.

"Nós construímos o ChatGPT para ajudá-lo a prosperar do jeito que quiser: para progredir, aprender algo novo, ou resolver um problema, e depois voltar para sua vida. Nosso objetivo não é reter sua atenção, mas permitir que você a use bem", explicou a OpenAI em um artigo publicado nesta segunda-feira (4).

smart_display

Nossos vídeos em destaque

De acordo com a empresa, o ChatGPT não foi criado para tomar decisões no lugar do usuário, mas sim para auxiliar na organização de ideias, esclarecimento de dúvidas e construção de conceitos. Por isso, o modelo passa a contar com medidas que promovem o uso equilibrado e que buscam identificar sinais de fragilidade emocional.

A pop-up message with a rounded white box on a soft blue gradient background. The message reads, “Just checking in — You’ve been chatting a while — is this a good time for a break?” with two buttons labeled “Keep chatting” and “This was helpful.
O ChatGPT agora vai lembrar você de tirar pausas de conversas com a IA. (Fonte: OpenAI/Reprodução)

As principais mudanças incluem:

  • Envio de alertas sugerindo pausas quando o usuário passa muito tempo interagindo com o ChatGPT;
  • Ajustes no modelo para adotar postura mais imparcial ao abordar decisões pessoais delicadas, como o fim de um relacionamento;
  • Treinamento do modelo para detectar sinais de delírio ou dependência emocional.

Essas novas funcionalidades são desenvolvidas com o apoio de médicos, pesquisadores e consultores de aproximadamente 30 países. Entre os especialistas envolvidos estão clínicos gerais, psiquiatras, pediatras e outros profissionais da saúde, que colaboram com a OpenAI para avaliar e aprimorar as ferramentas de detecção de comportamento preocupante.

A OpenAI reforça que o ChatGPT não substitui um profissional de saúde mental. Apesar de poder adotar uma persona empática, o modelo funciona de forma probabilística e não garante sigilo. Caso você precise de apoio emocional, procure ajuda humana, como o atendimento do Centro de Valorização da Vida (disque 188).

Quer acompanhar todas as novidades sobre inteligência artificial e tecnologia? Siga o TecMundo nas redes sociais e fique por dentro dos lançamentos, atualizações e tendências que impactam o seu dia a dia digital.

Perguntas Frequentes

O que muda com as novas atualizações do ChatGPT?
As atualizações incluem sugestões de pausas durante conversas longas, maior imparcialidade em temas delicados e mecanismos para identificar sinais de fragilidade emocional. Essas mudanças visam promover um uso mais saudável e equilibrado da inteligência artificial.
Como o ChatGPT incentiva pausas durante o uso?
O ChatGPT agora exibe alertas quando detecta que o usuário está interagindo por um longo período. A mensagem sugere uma pausa com opções como “Continuar conversando” ou “Isso foi útil”, incentivando o uso consciente da ferramenta.
Por que a OpenAI está promovendo o uso saudável do ChatGPT?
Segundo a OpenAI, o objetivo do ChatGPT é ajudar o usuário a aprender, resolver problemas e depois retornar à sua vida. A empresa afirma que não busca reter a atenção do usuário, mas sim permitir que ele utilize a ferramenta de forma produtiva e equilibrada.
O ChatGPT pode tomar decisões por mim?
Não. A OpenAI esclarece que o ChatGPT não foi criado para tomar decisões no lugar do usuário. Ele serve como apoio para organizar ideias, esclarecer dúvidas e construir conceitos, mantendo uma postura imparcial, especialmente em situações pessoais delicadas.
Como o ChatGPT lida com temas emocionalmente sensíveis?
O modelo foi ajustado para adotar uma postura mais neutra em decisões delicadas, como o término de um relacionamento. Além disso, foi treinado para identificar sinais de delírio ou dependência emocional, sempre com o objetivo de promover o bem-estar do usuário.
Quem está envolvido no desenvolvimento dessas novas funcionalidades?
As atualizações contam com a colaboração de médicos, psiquiatras, pediatras e outros profissionais da saúde de cerca de 30 países. Esses especialistas ajudam a avaliar e aprimorar as ferramentas de detecção de comportamentos preocupantes no uso do ChatGPT.
O ChatGPT pode substituir um profissional de saúde mental?
Não. A OpenAI reforça que, apesar de o ChatGPT poder adotar uma persona empática, ele não substitui um profissional de saúde mental. O modelo funciona de forma probabilística e não garante sigilo. Em casos de necessidade emocional, é recomendado buscar ajuda humana, como o serviço do CVV (disque 188).
star

Continue por aqui