A divisão de cibersegurança do Google anunciou, nesta segunda-feira (11), que encontrou um possível uso de inteligência artificial (IA) de forma inédita no setor para criar uma ferramenta de invasão. Segundo a companhia, ela conseguiu impedir o uso do sistema criminoso antes que ele causasse danos reais a alguma vítima.
O caso envolveu uma tentativa de exploração de uma vulnerabilidade de dia-zero, ou seja, que não foi descoberta pela equipe de proteção de um sistema e poderia ser usada como porta de entrada por agentes mal intencionados.
"Temos grande confiança de que o agente provavelmente utilizou um modelo de IA para auxiliar na descoberta e exploração dessa vulnerabilidade", diz o comunicado do Threat Intelligence Group.
A empresa reforça que o incidente confirma uma preocupação de especialistas: “estamos oficialmente no momento do mercado em que o uso de IA no desenvolvimento de ferramentas de cibersegurança é uma realidade “tangível” e tende a ficar mais acessível. Até por isso, softwares automatizados que encontram brechas que outras tecnologias ou profissionais humanos deixaram passar também serão usados para fins criminosos.”
O que sabemos (e não sabemos) sobre a IA cibercriminosa
Até o momento, os pesquisadores do Google não divulgaram muitos detalhes sobre o caso, mas compartilharam informações que ajudam no contexto da descoberta.
- O grupo hacker e a vítima não foram citados nominalmente, mas estão envolvidos no caso "proeminentes atores de ameaça" e uma desenvolvedora de softwares de acesso a sistemas;
- O mecanismo que eles tentaram burlar era um autenticador de múltiplos fatores, com o objetivo de ganhar acesso a redes internas usando o software sem precisar de logins vazados. Um script em Python seria a forma de obtenção das credenciais de acesso;
- Segundo o Google, a desenvolvedora da ferramenta foi alertada antes que o mecanismo fosse utilizado na prática contra usuários, embora a vulnerabilidade estivesse exposta ao longo de meses;
- A empresa não nomeou qual foi o modelo de linguagem possivelmente utilizado no desenvolvimento da ferramenta criminosa, mas acredita que não foi o próprio Gemini e nem o Mythos, o modelo "perigoso para a humanidade" da Anthropic que chegou a ser acessado por pessoas não autorizadas.
Até o momento, empresas donas de chabots de modelos de linguagem só faziam alertas para o uso potencial dessas ferramentas em cibercrimes, ao mesmo tempo em que elas mesmas já são usadas para encontrar vulnerabilidades e ajudar a fortalecer sistemas.
Quer saber mais sobre novidades do mercado de proteção digital? Acesse a seção especializada no assunto dentro do site do TecMundo!