
Os Jogos Olímpicos de Inverno reuníram diversos atletas do mundo todo para competir na Itália e, embora tenha marcado momentos felizes para os atletas, um lado sombrio da disputa veio à tona quando usuários do 4chan começaram a criar deepfakes de atletas femininas.
As postagens foram rastreadas por várias empresas de pesquisa, como a Graphika e a Open Measures. O que os especialistas encontraram mostrou uma realidade bastante preocupante no que diz respeito ao uso de ferramentas de inteligência artificial (IA).
Isso porque usuários do polêmico fórum utilizaram recursos da tecnologia para manipular a imagem e a voz de atletas mulheres, criando imagens falsas e sexualizadas delas. Entre as esportistas que sofreram o ataque estão as patinadoras artísticas Alysa Liu, Amber Glenn e Isabeau Levito, e as esquiadoras Mikaela Shiffrin e Eileen Gu.
-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-
Exploração de IAs para ataques virtuais
Embora o compartilhamento de imagens falsas e manipuladas de personalidades públicas, principalmente de mulheres, em comunidades online não seja algo novo, a inteligência artificial “otimizou” o processo criminoso, segundo a analista sênior da Graphika, Cristina López G.
Afinal, o recurso tecnológico abriu espaço para que criminosos melhorem a qualidade das imagens falsificadas, além de possibilitar o processo de “nudificação”, que consiste no uso da tecnologia para tirar a roupa de mulheres em fotos com IA.
Segundo a análise, esses usuários do 4chan seguem um padrão na hora de compartilhar as fotos manipuladas: eles publicam o registro não consentido e pedem para que outros membros também postem suas próprias manipulações com IA nas respostas, aumentando a proliferação dessas imagens criminosas, mesmo que as postagens do fórum sejam excluídas de maneira automática.
Considerando que modelos de código aberto são altamente usados por qualquer pessoa disposta a explorar ferramentas de IA, os usuários podem personalizar as fotos do jeito que quiserem, gerando registros falsos e manipulados de qualquer pessoa.
Algo parecido ocorreu em 2024 quando imagens íntimas falsas da cantora Taylor Swift surgiram no 4chan e acabaram viralizando nas redes sociais.
Vídeo manipulado
Para além do caso envolvendo as atletas femininas dos Jogos Olímpicos de Inverno, outro incidente que chamou a atenção durante a competição diz respeito a uma publicação compartilhada no TikTok da Casa Branca que consistia em um vídeo gerado por inteligência artificial.
O vídeo mostra o jogador de hóquei americano Brady Tkachuk zombando de canadenses após a vitória do time estadunidense, que levou a medalha de ouro para casa. A publicação até conta com um aviso que sinaliza o uso de IA, mas o vídeo já foi visualizado milhões de vezes na plataforma.
Tkachuk, por sua vez, se manifestou acerca da postagem, afirmando que não gostou do vídeo. “Não é a minha voz, não são os meus lábios que estão se movendo”, falou à imprensa.
Leia também:
- Deepfakes estão fora de controle? Entenda os riscos e como se proteger
- X é investigado na Europa devido aos deepfakes sexuais criados com IA pelo Grok
- Avast lança "detector de deepfake" para Windows que analisa vídeos em tempo real
Leia a matéria no Canaltech.