Deepfakes sexuais em escolas: 16 vítimas no Brasil e mais de 600 pelo mundo

Deepfakes sexuais em escolas: 16 vítimas no Brasil e mais de 600 pelo mundo

Aplicativos que transformam fotos comuns em nudes falsos estão sendo usados por adolescentes para abusar sexualmente de colegas de escola em ao menos 28 países. Desde 2023, mais de 600 alunos foram vítimas do crime em cerca de 90 instituições, segundo levantamento inédito das publicações WIRED e Indicator.

O método é sempre parecido. Uma foto baixada do Instagram ou do Snapchat é processada por um aplicativo de nudificação e a montagem explícita, com o rosto da vítima, circula em grupos de WhatsApp ou Telegram da escola. Em minutos, dezenas de colegas já tiveram acesso.

Apps de "tirar roupa" derrubaram a barreira técnica do abuso

Deepfakes sexuais são imagens ou vídeos de nudez criados com IA generativa sem o consentimento das pessoas retratadas. A tecnologia pode gerar conteúdo inteiramente sintético ou manipular fotos reais para produzir montagens hiper-realistas com alteração de rostos e corpos.

ilustracao-deepfake-rosto-feminino-digital-com-elementos-de-edicao-manipulacao-facial-ia-inteligencia-artificial
Aplicativos de nudificação usam IA generativa para manipular fotos reais e criar montagens explícitas sem o consentimento das vítimas.

A disseminação desse abuso em escolas está diretamente ligada à proliferação de aplicativos conhecidos como "nudify" ou "undress". Dezenas de apps, bots e sites permitem criar imagens sexualizadas de terceiros com poucos cliques, sem nenhum conhecimento técnico.

Em quase todos os casos mapeados, os responsáveis pela criação das imagens eram meninos adolescentes. Uma pesquisa da Unicef estima que 1,2 milhão de crianças tiveram deepfakes sexuais criados sobre elas apenas no ano passado. Na Espanha, uma em cada cinco crianças disse a pesquisadores do Save the Children que nudes falsos foram criados com sua imagem.

As motivações variam. Pesquisas com adolescentes identificam curiosidade, vingança e desafios entre colegas como fatores recorrentes.

posse-de-smartphone-por-pre-adolescentes-aumenta-risco-de-depressao
Em quase todos os casos mapeados pela WIRED e Indicator, as imagens falsas foram distribuídas por grupos de mensagens entre colegas de escola.

Vítimas tem medo de que as imagens circulem para sempre

O impacto sobre as vítimas é documentado em múltiplos relatos. "Estou preocupada que toda vez que me vejam, elas vejam aquelas fotos", disse uma adolescente de Iowa, nos EUA, no início deste ano. Outra família descreveu a filha como "chorando e sem comer". Em vários casos, as vítimas passaram a evitar a escola para não se deparar com quem criou as imagens.

Advogados que representam uma adolescente de New Jersey em ação judicial contra um serviço de nudificação descreveram o estado da cliente: ela sabe que as imagens já estão na internet e terá de monitorar a rede pelo resto da vida para tentar impedir que se espalhem.

"Frequentemente, quando crianças falam sobre o que acontece com elas, a resposta é completamente inadequada", disse Afrooz Kaviani Johnson, especialista em proteção infantil da Unicef. "A forma como os adultos reagem pode impactar tanto a recuperação da vítima quanto a probabilidade de ela voltar a se manifestar se algo mais acontecer."

menina-escondendo-o-rosto
Vítimas relatam medo de frequentar a escola e de que as imagens circulem indefinidamente na internet.

Resposta de escolas e autoridades ainda é irregular

A reação de escolas e autoridades ao problema tem sido desigual. Há registros de casos em que a escola levou três dias para acionar a polícia e de vítimas que afirmam não ter havido consequências imediatas para os agressores.

Em outros, alunos enfrentaram acusações criminais por posse e criação de material de abuso sexual infantil. Em março de 2025, dois estudantes da Pensilvânia admitiram culpa em tribunal juvenil e foram condenados a 60 horas de serviço comunitário por terem criado imagens e vídeos de 60 meninas.

Algumas escolas passaram a adotar medidas preventivas, como eliminar fotos de alunos de perfis oficiais ou substituí-las por silhuetas e imagens de costas. Na Coreia do Sul e na Austrália, alunos foram orientados a não aparecer em anuários escolares.

empresas-de-ia-se-comprometem-a-combater-deepfakes-de-pornografia-thumb.png
A tecnologia de deepfake permite alterar rostos e corpos em fotos e vídeos com poucos cliques e sem conhecimento técnico.

A pressão por respostas legais tem partido, em grande medida, das próprias vítimas e de suas famílias. Nos Estados Unidos, adolescentes contribuíram para a criação do Take It Down Act, lei que obriga plataformas a remover imagens íntimas não consensuais em até 48 horas. Reino Unido e União Europeia trabalham em banimentos de aplicativos de nudificação.

Brasil tem casos confirmados em ao menos 10 estados

O Brasil integra esse cenário. Um levantamento da SaferNet Brasil identificou 16 casos de deepfakes sexuais em escolas de 10 dos 27 estados, com ao menos 72 vítimas e 57 agressores identificados — todos menores de 18 anos na época dos fatos. Os estados com registros são Alagoas, Bahia, Mato Grosso, Minas Gerais, Pará, Paraíba, Pernambuco, São Paulo, Rio de Janeiro e Rio Grande do Sul.

Em quase todos os episódios cobertos pela imprensa, os crimes ocorreram em escolas privadas. A SaferNet confirmou ainda outros três casos que não chegaram às notícias, dois no Rio de Janeiro e um no Distrito Federal, com ao menos mais 10 vítimas.

video-em-reproducao-no-celular
Deepfakes sexuais criados por adolescentes são compartilhados em grupos de WhatsApp e Telegram, atingindo dezenas de colegas em minutos.

Os casos seguem um padrão. Em novembro de 2023, alunos do 7º ao 9º ano de uma escola no Rio de Janeiro foram suspeitos de usar IA para remover roupas de fotos de adolescentes publicadas nas redes sociais. Ao menos 20 meninas foram expostas.

Em Belo Horizonte, em junho de 2025, imagens falsas de alunas nuas circularam em grupos escolares e em fóruns do Telegram. Em Campo Grande, em fevereiro de 2026, meninos chegaram a oferecer as imagens por R$ 50 dentro da escola — o caso só veio à tona quando uma mãe soube da situação e acionou a polícia.

Em Vitória, no mesmo mês, a foto original era de três amigas sorrindo num shopping, tirada um ano e meio antes. Em março de 2026, estudantes do Colégio Sagrada Família, em Blumenau, foram expulsos depois de criar e compartilhar nudes falsos de ao menos cinco colegas.

A SaferNet aponta que não há, por parte das autoridades brasileiras, nenhum monitoramento sistemático sobre a incidência desses crimes nem sobre o andamento das investigações. Isso dificulta a compreensão da real dimensão do problema. O estudo faz parte de uma pesquisa mais ampla sobre o mau uso de IA generativa em crimes contra crianças e adolescentes, financiada pelo fundo SafeOnline, gerido pela Unicef.

Acompanhe o TecMundo nas redes sociais. Para mais notícias de segurança e tecnologia, inscreva-se em nossa newsletter e canal do YouTube.