Lojas do Android e iOS ainda têm apps que tiram roupas de mulheres com IA

Lojas do Android e iOS ainda têm apps que tiram roupas de mulheres com IA

Apple e Google estão direcionando usuários a aplicativos potencialmente criminosos que tiram a roupa de pessoas usando inteligência artificial (IA), inclusive menores de idade. Essa conclusão é de um relatório do Tech Transparency Project. Apple e Google sinalizaram ter removido vários dos apps, já que eles são contrários às políticas das plataformas.

De acordo com o levantamento, uma busca simples e a análise de anúncios nas lojas digitais Google Play Store e App Store resultam em várias dessas ferramentas, que são direcionadas principalmente para gerar montagens com mulheres sem consentimento.

  • Os aplicativos pegam fotos de pessoas reais e, a partir de IA, geram um deepfake sem roupas ou em situações eróticas. Essas imagens são compartilhadas entre grupos e podem ser usadas até para crimes como extorsão;
  • Em outros desses apps, além da mudança de vestuário e a sexualização, foi possível criar chatbots de IA com a aparência da pessoa retratada para interações em texto;
  • O estudo notou que pesquisas por termos como "nudificar", "tirar a roupa" e "deepfake" trouxeram mais de 40 resultados em cada uma das lojas — com alguns deles inclusive sendo impulsionados por anúncios, além do automcompletar da busca sugerir termos similares para usuários interessados;
app-store-deepfakes-ia.
Alguns dos resultados na App Store. (Imagem: Tech Transparency Project/Reprodução)
  • Os apps listados no estudo foram baixados mais de 483 milhões de vezes e geraram ao menos US$ 122 milhões (R$ 608 milhões) em receita, de acordo com análises de empresas especializadas — em especial pelo uso de publicidade dentro do serviço;
  • O Grok, IA de Elon Musk que é usada no X e foi usado para tirar ou trocar a roupa de fotos de pessoas na rede social no início do ano, costuma ser um dos primeiros resultados de quase todas as pesquisas. Em outro caso encontrado, o app afirmava que os serviços de tirar a roupa eram "fornecidos pela x.AI";
  • Além disso, a investigação notou que 31 dos aplicativos traziam a classificação indicativa livre, o que significa que eles eram exibidos inclusive para menores de idade.

O mesmo projeto já denunciou a presença desse tipo de aplicativo nas lojas de Apple e Google no começo do ano, mas o problema não foi resolvido mesmo meses depois. Além dessas ferramentas, há ainda o caso de sites e grupos do Telegram que fazem serviços criminosos parecidos.

O que dizem as empresas

Após a divulgação da notícia, as companhias removeram vários dos aplicativos citados que retiram as roupas das pessoas. Tanto Apple quanto Google afirmaram que esses tipos de aplicações violam as regras das lojas de apps.

Para a Bloomberg, a Apple ainda explicou ter entrado em contato com alguns desenvolvedores para que os apps fossem alterados, caso contrário eles seriam removidos.

Qual o panorama atual desse tipo de crime envolvendo deepfakes sexuais no Brasil e no mundo? Saiba mais sobre o assunto nesta matéria.