A Internet Watch Foundation (IWF) alertou que o Grok, inteligência artificial (IA) da xAI atrelada ao X/Twitter (ambas empresas de Elon Musk), vem sendo citado em fóruns da dark web como ferramenta para gerar imagens de abuso sexual infantil. Analistas da entidade viram material envolvendo crianças de 11 a 13 anos, enquadrado como crime grave pela legislação do Reino Unido.
O caso, repercutido pelo jornal The Guardian, aprofunda polêmicas envolvendo a IA e a rede social de Musk. Mudanças recentes no Grok facilitaram a manipulação de imagens de mulheres e crianças sem consentimento. Depois disso, órgãos oficiais abandonaram a plataforma, reguladores ameaçaram sanções e especialistas apontaram falhas éticas de design.
Uso do Grok por criminosos na dark web aciona alerta máximo de reguladores britânicos
A denúncia da IWF vai além do que foi gerado dentro do Grok. Segundo a IWF, essas imagens passaram a ser usadas como matéria-prima para a criação de conteúdos ainda mais extremos, classificados como Categoria A (o nível mais severo de abuso) em outras ferramentas de IA. Ou seja: a tecnologia funciona como porta de entrada para uma cadeia criminosa maior.

Outro fator preocupa os reguladores: velocidade e realismo. A facilidade para gerar imagens fotorealistas reduz o custo, o tempo e a barreira técnica desse tipo de crime. Para a IWF, isso cria um risco real de normalização desse conteúdo em ambientes digitais amplos, algo descrito como “inaceitável”.
A resposta institucional já começou. O Comitê de Mulheres e Igualdades da Câmara dos Comuns decidiu abandonar o X, classificando a plataforma como inadequada para comunicação oficial diante da incapacidade de conter abusos. É o primeiro movimento desse tipo em Westminster ligado diretamente ao caso Grok.
No governo, o tom também endureceu. Downing Street declarou apoio total à atuação do Ofcom, regulador britânico de comunicações, que tem poderes para aplicar multas bilionárias e até suspender o acesso ao site no país. Apesar disso, autoridades afirmam que pedidos de manipulação de imagens de adolescentes continuam a circular, o que levanta dúvidas sobre a eficácia real das salvaguardas prometidas.
Falhas de governança e vácuo legal permitem que a IA seja usada como arma de assédio e humilhação
A crise ganhou força após uma atualização do Grok em dezembro, que simplificou a edição de imagens enviadas por usuários. Na prática, a mudança tornou mais fácil remover digitalmente roupas de terceiros, sem qualquer notificação ou consentimento das pessoas retratadas.

As consequências atingiram vítimas reais. Ashley St. Clair, mãe de um dos filhos de Elon Musk, relatou ter tido imagens antigas manipuladas de forma sistemática para fins sexuais. Casos semelhantes envolveram atrizes mirins, com fotos de infância alteradas e disseminadas online.
Uma análise da organização AI Forensics ajuda a dimensionar o padrão. Ao examinar 20 mil imagens geradas pelo Grok em uma semana, pesquisadores encontraram uma predominância de pedidos envolvendo mulheres jovens, com termos recorrentes como “remover”, “roupas” e “biquini”. Uma parcela menor, mas significativa, envolvia menores de idade.
O problema esbarra num vácuo legal. No Reino Unido, leis que criminalizam a criação e a solicitação de deepfakes íntimos sem consentimento já foram aprovadas, mas ainda não entraram em vigor. Na prática, isso limita a capacidade de punição rápida, mesmo diante de danos evidentes.
Para especialistas ouvidos pelo Olhar Digital, o ponto central não é a IA em abstrato. O foco está nas escolhas humanas de design, que priorizam engajamento e rapidez de lançamento em detrimento de governança, limites e responsabilidade. A tecnologia apenas executa permissões que alguém decidiu conceder.
O contraste fica mais agudo quando se olha para o dinheiro. Em meio à crise ética, a xAI captou US$ 20 bilhões (cerca de R$ 107,6 bilhões), com apoio de grandes fundos e da Nvidia, para expandir centros de dados e poder de processamento. O investimento sinaliza confiança no crescimento da empresa, apesar da pressão e do escrutínio internacional.
Leia mais:
- Google e Character.AI firmam acordos após mortes de adolescentes associadas à IA
- Grok: como acessar e usar a IA do X/Twitter
- Como evitar que o X/Twitter use seus posts para treinar IA
O X/Twitter afirma remover conteúdos ilegais e suspender contas infratoras. Reguladores do Reino Unido e da União Europeia, no entanto, continuam a investigar se essas medidas funcionam na prática. O caso do Grok expõe uma tensão central da corrida pela IA: a inovação avança mais rápido do que os mecanismos de proteção. E o custo recai sobre pessoas.
O post Grok é usado para gerar imagens de abuso sexual infantil, alerta órgão britânico apareceu primeiro em Olhar Digital.