Atletas olímpicos viram alvo de deepfakes com fotos íntimas e citações falsas

Os Jogos Olímpicos de Inverno reuníram diversos atletas do mundo todo para competir na Itália e, embora tenha marcado momentos felizes para os atletas, um lado sombrio da disputa veio à tona quando usuários do 4chan começaram a criar deepfakes de atletas femininas.

As postagens foram rastreadas por várias empresas de pesquisa, como a Graphika e a Open Measures. O que os especialistas encontraram mostrou uma realidade bastante preocupante no que diz respeito ao uso de ferramentas de inteligência artificial (IA).

Isso porque usuários do polêmico fórum utilizaram recursos da tecnologia para manipular a imagem e a voz de atletas mulheres, criando imagens falsas e sexualizadas delas. Entre as esportistas que sofreram o ataque estão as patinadoras artísticas Alysa Liu, Amber Glenn e Isabeau Levito, e as esquiadoras Mikaela Shiffrin e Eileen Gu.

-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-

Exploração de IAs para ataques virtuais

Embora o compartilhamento de imagens falsas e manipuladas de personalidades públicas, principalmente de mulheres, em comunidades online não seja algo novo, a inteligência artificial “otimizou” o processo criminoso, segundo a analista sênior da Graphika, Cristina López G.

Atletas mulheres nos Jogos Olímpicos de Inverno viram alvo de deepfakes (Imagem: Divulgação/Milano Cortina 2026).

Afinal, o recurso tecnológico abriu espaço para que criminosos melhorem a qualidade das imagens falsificadas, além de possibilitar o processo de “nudificação”, que consiste no uso da tecnologia para tirar a roupa de mulheres em fotos com IA.

Segundo a análise, esses usuários do 4chan seguem um padrão na hora de compartilhar as fotos manipuladas: eles publicam o registro não consentido e pedem para que outros membros também postem suas próprias manipulações com IA nas respostas, aumentando a proliferação dessas imagens criminosas, mesmo que as postagens do fórum sejam excluídas de maneira automática.

Considerando que modelos de código aberto são altamente usados por qualquer pessoa disposta a explorar ferramentas de IA, os usuários podem personalizar as fotos do jeito que quiserem, gerando registros falsos e manipulados de qualquer pessoa.

Imagens de mulheres são manipuladas por usuários do 4chan com IA (Imagem: Maxim Tolchinskiy/Unsplash).

Algo parecido ocorreu em 2024 quando imagens íntimas falsas da cantora Taylor Swift surgiram no 4chan e acabaram viralizando nas redes sociais.

Vídeo manipulado

Para além do caso envolvendo as atletas femininas dos Jogos Olímpicos de Inverno, outro incidente que chamou a atenção durante a competição diz respeito a uma publicação compartilhada no TikTok da Casa Branca que consistia em um vídeo gerado por inteligência artificial.

O vídeo mostra o jogador de hóquei americano Brady Tkachuk zombando de canadenses após a vitória do time estadunidense, que levou a medalha de ouro para casa. A publicação até conta com um aviso que sinaliza o uso de IA, mas o vídeo já foi visualizado milhões de vezes na plataforma.

Tkachuk, por sua vez, se manifestou acerca da postagem, afirmando que não gostou do vídeo. “Não é a minha voz, não são os meus lábios que estão se movendo”, falou à imprensa.

Leia também:

Leia a matéria no Canaltech.