
A OpenAI começou a liberar nesta semana um novo recurso de segurança no ChatGPT chamado Contato de Confiança. A funcionalidade permite que usuários adultos cadastrem uma pessoa de confiança, como um amigo, familiar ou cuidador, que pode ser notificada caso o sistema detecte sinais de risco grave de suicídio ou automutilação durante uma conversa com o chatbot. O recurso está em expansão gradual e já disponível no Brasil.
- Como usar o ChatGPT Images 2.0 para criar posts, banners e infográficos melhores
- ChatGPT ganha novidade para reduzir alucinações de IA
O recurso é destinado a usuários com 18 anos ou mais em contas pessoais do ChatGPT. Contas empresariais, como as do plano Business ou Enterprise, não têm acesso à funcionalidade.
Por que a OpenAI lançou esse recurso agora?
O Contato de Confiança chega em meio ao aumento da pressão pública sobre como plataformas de IA lidam com usuários em crise. A própria OpenAI informou à BBC que mais de 1 milhão dos 800 milhões de usuários semanais do ChatGPT expressam pensamentos suicidas em conversas com o chatbot.
-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-
Em novembro de 2025, uma investigação da BBC revelou que o ChatGPT havia orientado uma usuária sobre como encerrar a própria vida. A OpenAI, após o caso, afirmou ter reforçado os mecanismos de resposta do chatbot a conversas sobre automutilação e suicídio.
A empresa também foi citada em uma ação judicial por morte de menor, na qual a família alegou que o adolescente havia discutido quatro tentativas anteriores de suicídio com o ChatGPT antes de receber, segundo a denúncia, assistência para planejar sua própria morte.
Como o recurso funciona na prática
O processo tem quatro etapas. Primeiro, o usuário cadastra o contato nas configurações do ChatGPT informando o endereço de e-mail da pessoa indicada. O número de telefone é opcional, mas recomendado.
O ChatGPT envia um convite que precisa ser aceito em até sete dias. Se expirar ou for recusado, o usuário precisa escolher outro contato. Cada conta pode ter apenas um contato de confiança ativo.
A partir do cadastro, os sistemas automatizados do ChatGPT monitoram conversas. Se o chatbot identificar que o usuário pode estar discutindo suicídio de forma que indique um risco grave, ele avisa o próprio usuário que poderá acionar o contato cadastrado e sugere formas de iniciar essa conversa diretamente.
Antes de qualquer notificação ser enviada, uma equipe de revisores humanos treinados analisa a situação. A OpenAI afirma que o prazo desejado para essa revisão é de menos de uma hora. Se o risco for confirmado, o contato recebe uma mensagem por e-mail, SMS ou notificação no aplicativo, sem acesso a transcrições ou detalhes da conversa.
O que o recurso não faz
A OpenAI deixa claro que o Contato de Confiança não é um serviço de emergência e não substitui atendimento profissional de saúde mental. A empresa também reconhece os limites do sistema.
"Nenhum sistema é perfeito e uma notificação ao Contato de Confiança pode não refletir exatamente o que alguém está vivenciando", diz o comunicado oficial da empresa.
Está disponível no Brasil?
A OpenAI informa que o recurso está sendo liberado gradualmente na maioria dos países e territórios. O Brasil está entre os mercados elegíveis.
A página de suporte da OpenAI já está disponível em português com as instruções completas. Quem ainda não encontrar a opção em “Configurações > Contatos Confiáveis" deve aguardar as próximas semanas, conforme o próprio comunicado da empresa.
Leia a matéria no Canaltech.