
O Google Threat Intelligence Group (GTIG) identificou e interrompeu, pela primeira vez, um ataque de dia zero desenvolvido com auxílio de inteligência artificial. O grupo de cibercriminosos responsável,descrito como "proeminente", mas não identificado pela empresa, planejava usar a brecha em uma campanha de exploração em massa. O relatório foi divulgado na segunda-feira (11).
- 1 a cada 8 funcionários acha justificável vender acesso a sistemas da empresa
- 70% dos brasileiros já foram vítimas de golpe digital, aponta organização
O código malicioso estava embutido em um script Python e permitiria contornar a autenticação de dois fatores de uma ferramenta popular de administração de sistemas, identificada apenas como open-source e baseada na web.
Para funcionar, os invasores ainda precisariam de credenciais válidas de acesso à plataforma. O Google diz ter trabalhado com o fornecedor afetado para corrigir a falha, e uma atualização já foi liberada.
-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-
O que é um ataque de dia zero
Uma vulnerabilidade de dia zero é uma falha de segurança em software ou hardware desconhecida pelos próprios desenvolvedores.
O nome vem do fato de que, ao ser descoberta por atacantes antes dos criadores do sistema, a empresa tem literalmente "zero dias" para corrigi-la antes de sofrer um ataque.
Exploits desse tipo são considerados os mais graves em cibersegurança justamente porque não existe defesa disponível no momento em que são usados.
Como o Google identificou a participação da IA
O GTIG afirma ter "alta confiança" de que um modelo de IA foi utilizado para descobrir e transformar a vulnerabilidade em arma.
As evidências estão no próprio código: o script contém docstrings educacionais em abundância, um score CVSS "alucinado" — gerado incorretamente pelo modelo — e uma formatação Python estruturada, típica dos dados de treinamento de grandes modelos de linguagem (LLMs), com menus de ajuda detalhados e uso padronizado de classes de cor ANSI.
O Google afirma não acreditar que seu modelo Gemini tenha sido usado no ataque.
A falha explorada era um problema de lógica semântica. O desenvolvedor da ferramenta havia inserido uma suposição de confiança no sistema de autenticação em duas etapas, e a IA identificou essa brecha.
Padrão crescente entre grupos hackers
O caso documenta um movimento mais amplo. O relatório do GTIG detalha como hackers estão usando o modelo OpenClaw e técnicas de "jailbreaking com personas", instruindo a IA a agir como especialista em segurança, para mapear brechas e desenvolver malware.
Grupos ligados à China e à Coreia do Norte "demonstraram interesse significativo em capitalizar a IA para descoberta de vulnerabilidades", segundo o documento. O grupo norte-coreano APT45, por exemplo, usou IA para refinar e escalar seus métodos.
Grupos vinculados à Rússia também aparecem no levantamento, registrados usando IA para atacar redes ucranianas com malware. Em novembro, a Anthropic já havia reportado que hackers apoiados por Pequim utilizaram IA para automatizar completamente ciberataques pela primeira vez.
"Para cada dia zero que podemos rastrear de volta à IA, provavelmente há muitos mais por aí", disse John Hultquist, analista-chefe do GTIG. "Atores de ameaças estão usando IA para aumentar a velocidade, escala e sofisticação dos ataques”.
Leia a matéria no Canaltech.