OpenAI detectou sinais de ataque no ChatGPT, mas não avisou polícia no Canadá

OpenAI detectou sinais de ataque no ChatGPT, mas não avisou polícia no Canadá

Meses antes de Jesse Van Rootselaar protagonizar um dos ataques mais fatais da história recente do Canadá, a OpenAI já havia identificado comportamentos perturbadores em suas interações com o ChatGPT. Segundo informações reveladas com exclusividade pelo The Wall Street Journal, a empresa chegou a debater internamente o envio de um alerta às autoridades, mas optou pelo silêncio.

O caso, que culminou na tragédia de Tumbler Ridge, na Colúmbia Britânica, levanta um debate urgente sobre a responsabilidade das empresas de inteligência artificial na prevenção de crimes reais.

O rastro digital no ChatGPT

Em junho de 2025, o sistema de monitoramento da OpenAI sinalizou que Van Rootselaar estava utilizando o chatbot para descrever cenários detalhados de violência com armas de fogo. As interações ocorreram ao longo de vários dias e foram graves o suficiente para disparar um alerta vermelho entre os moderadores da plataforma.

Cerca de doze funcionários da OpenAI participaram de uma discussão interna sobre o caso. De acordo com fontes próximas à empresa, parte da equipe defendeu que o comportamento indicava um risco real de violência e instou a liderança a notificar a Real Polícia Montada do Canadá (RCMP).

Leia também:

O critério da “Ameaça Iminente”

Apesar do alarme entre os funcionários, a diretoria da OpenAI decidiu não contatar as autoridades na época. Em comunicado, uma porta-voz da empresa explicou os motivos:

  • A conta foi banida: o acesso de Van Rootselaar foi bloqueado por violar as políticas de uso.
  • Falta de “iminência”: a empresa determinou que as mensagens não atendiam aos critérios legais para quebra de privacidade, que exigem a evidência de um risco crível e iminente de dano físico grave a terceiros.

A OpenAI justificou que precisa equilibrar a segurança pública com a privacidade dos usuários, evitando envolver a polícia em casos que possam ser interpretados apenas como “estresse mental” ou ficção, sem um plano de ação concreto detectado.

O desfecho em Tumbler Ridge

No último dia 10 de fevereiro, Jesse Van Rootselaar, de 18 anos, matou oito pessoas – incluindo sua mãe e seu meio-irmão – antes de abrir fogo na escola secundária de Tumbler Ridge, onde cometeu suicídio.

Após o ataque, outras facetas do comportamento digital da suspeita vieram à tona, reforçando que os sinais estavam por toda parte:

  • Roblox: ela havia criado um jogo na plataforma que simulava um tiroteio em massa.
  • Redes sociais: publicava fotos em estandes de tiro e discutia a criação de munição em impressoras 3D.
  • Histórico policial: A polícia local já havia visitado sua residência anteriormente por questões de saúde mental.

IA e o dilema da vigilância

A tragédia coloca as Big Techs de IA no mesmo banco dos réus em que redes sociais como Facebook e X (antigo Twitter) já estiveram. A diferença reside na intimidade: usuários tendem a confessar pensamentos mais profundos a chatbots do que em fóruns públicos.

Atualmente, a OpenAI treina seus modelos para recusar pedidos violentos e encaminha intenções de dano a revisores humanos. Contudo, o caso Van Rootselaar prova que a linha entre uma “fantasia sombria” e um “plano de ataque” ainda é uma zona cinzenta que a tecnologia não consegue navegar com precisão absoluta.

Ao WSJ, a OpenAI afirmou que está colaborando com as investigações da RCMP e revisando seus critérios de denúncia para evitar que casos semelhantes voltem a ocorrer.

O post OpenAI detectou sinais de ataque no ChatGPT, mas não avisou polícia no Canadá apareceu primeiro em Olhar Digital.