Anthropic, dona do Claude, trabalha em modelo de IA mais avançado

Anthropic, dona do Claude, trabalha em modelo de IA mais avançado

A empresa de inteligência artificial (IA) Anthropic confirmou que está desenvolvendo e já iniciou testes com um novo modelo de IA mais avançado do que qualquer versão anterior, após um vazamento de dados revelar sua existência.

Segundo a companhia, o sistema representa “uma mudança de patamar” em desempenho e é “o mais capaz que já construímos até hoje”.

De acordo com um porta-voz, o modelo já está sendo testado por um grupo restrito de clientes com acesso antecipado. A confirmação veio depois que descrições do sistema foram encontradas acidentalmente em um cache de dados público, analisado pela revista Fortune.

Vazamento expõe novo modelo e estratégia da Anthropic

  • O material vazado incluía um rascunho de postagem de blog, disponível em um repositório público e não protegido até a noite de quinta-feira (26), no qual o modelo era identificado como Claude Mythos. No documento, a empresa afirmava que o sistema poderia representar riscos inéditos de segurança cibernética;
  • O mesmo conjunto de arquivos também revelou detalhes sobre um encontro exclusivo de CEOs na Europa, parte da estratégia da Anthropic para comercializar seus modelos de IA a grandes empresas;
  • Os documentos foram encontrados em um vazamento de dados público e desprotegido, segundo análise de Roy Paz, pesquisador sênior de segurança em IA da LayerX Security, e Alexandre Pauwels, pesquisador da Universidade de Cambridge;
  • Ao todo, cerca de três mil ativos ligados ao blog da empresa — que não haviam sido publicados oficialmente — estavam acessíveis, segundo Pauwels.

Após ser informada pela Fortune, a Anthropic desativou o acesso público ao repositório. Em nota, a empresa atribuiu o incidente a um “erro humano” na configuração de seu sistema de gerenciamento de conteúdo (CMS, na sigla em inglês), classificando os arquivos como “rascunhos iniciais de conteúdo considerados para publicação”.

Novo nível de modelos: Capybara

Além do nome Mythos, o rascunho também descrevia uma nova categoria de modelos chamada Capybara. Segundo o documento, “‘Capybara’ é um novo nome para uma nova camada de modelo: maior e mais inteligente do que nossos modelos Opus — que, até agora, eram os mais poderosos”.

A Anthropic atualmente organiza seus modelos em três níveis: Opus (mais avançados), Sonnet (intermediários) e Haiku (mais leves e rápidos). O Capybara surgiria como uma camada superior ao Opus, com maior capacidade — e também custo mais elevado.

“Comparado ao nosso melhor modelo anterior, Claude Opus 4.6, o Capybara alcança pontuações dramaticamente mais altas em testes de programação, raciocínio acadêmico e cibersegurança, entre outros”, diz o texto.

O documento afirma ainda que o treinamento do Claude Mythos já foi concluído e o descreve como, “de longe, o modelo de IA mais poderoso que já desenvolvemos”.

Questionada pela Fortune, a empresa confirmou o desenvolvimento do novo sistema: “Estamos desenvolvendo um modelo de propósito geral com avanços significativos em raciocínio, programação e cibersegurança”, disse o porta-voz. “Dada a força de suas capacidades, estamos analisando como lançá-lo.”

O material analisado indica que o lançamento será gradual, começando com um grupo restrito de usuários, devido ao alto custo operacional e ao fato de o modelo ainda não estar pronto para uso amplo.

Leia mais:

Tel de boas vindas do Claude Opus 4.6
Opus é a versão mais recente e mais avançada da IA da empresa de Dario Amodei (Imagem: Robert Way/Shutterstock)

Riscos inéditos em cibersegurança

Um dos principais pontos destacados no rascunho é o potencial de risco do modelo na área de segurança digital. “Ao nos prepararmos para lançar o Claude Capybara, queremos agir com cautela extra e entender os riscos que ele apresenta — inclusive, além do que aprendemos em nossos próprios testes”, afirma o documento.

A empresa demonstra preocupação específica com o uso malicioso da tecnologia: o sistema estaria “atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas” e “prenuncia uma onda de modelos capazes de explorar vulnerabilidades muito mais rapidamente do que os esforços de defesa”.

Na prática, isso significa que hackers poderiam utilizar o modelo para realizar ataques cibernéticos em larga escala. Por esse motivo, a estratégia inicial de lançamento prioriza defensores de segurança digital. “Estamos liberando o acesso antecipado para organizações, dando a elas uma vantagem inicial na melhoria da robustez de seus sistemas contra a onda iminente de exploits impulsionados por IA”, diz o texto.

A Anthropic não é a única a alertar para esse tipo de risco. Modelos recentes também têm ultrapassado limites considerados críticos em cibersegurança. Em fevereiro, a OpenAI classificou seu GPT-5.3-Codex como de “alta capacidade” para tarefas relacionadas à área.

A própria Anthropic já havia enfrentado desafios semelhantes com o Opus 4.6, capaz de identificar vulnerabilidades desconhecidas em códigos — uma característica de uso duplo, que pode tanto fortalecer defesas quanto facilitar ataques.

A empresa também revelou que grupos hackers, incluindo organizações ligadas ao governo chinês, já tentaram explorar seus sistemas.

Em um caso documentado, um grupo patrocinado pelo Estado chinês utilizou o Claude Code para infiltrar cerca de 30 organizações, incluindo empresas de tecnologia, instituições financeiras e agências governamentais. Após detectar a operação, a Anthropic investigou o caso por dez dias, baniu as contas envolvidas e notificou as vítimas.

Especialistas apontam que o vazamento ocorreu devido à configuração padrão do CMS utilizado pela empresa, que torna os arquivos públicos automaticamente, a menos que o usuário altere manualmente as permissões.

A Anthropic confirmou que “um problema com uma de nossas ferramentas externas de CMS levou ao acesso a conteúdo em rascunho”, novamente atribuindo a falha a erro humano. Embora muitos arquivos fossem materiais descartados — como imagens e banners —, alguns pareciam documentos internos, incluindo registros relacionados a benefícios de funcionários.

Entre os arquivos, também havia um PDF com detalhes de um retiro exclusivo para CEOs europeus, que será realizado no Reino Unido e contará com a presença do CEO da empresa, Dario Amodei.

O evento de dois dias é descrito como um encontro “íntimo”, voltado a “conversas reflexivas” em uma mansão do século XVIII transformada em hotel e spa. Os participantes, não identificados nominalmente, são descritos como alguns dos líderes empresariais mais influentes da Europa.

Segundo a empresa, o encontro faz parte de uma série de eventos organizados ao longo do último ano. “Esperamos receber líderes empresariais europeus para discutir o futuro da IA”, afirmou o porta-voz.

O post Anthropic, dona do Claude, trabalha em modelo de IA mais avançado apareceu primeiro em Olhar Digital.