Desde agosto acompanhamos o crescente número de notícias sobre denúncias envolvendo a criação, venda e compartilhamento de material gráfico sexual utilizando a tecnologia deepfake a partir de fotos de mulheres na Coreia do Sul. Segundo as autoridades policiais do país, 297 casos foram relatados nos primeiros sete meses de 2024, um número superior aos 180 casos em todo o ano passado e aos 160 casos de 2021 — e adolescentes foram responsáveis por mais de dois terços desses crimes nos últimos três anos.
Esta reação ocorre num contexto em que o movimento feminista na Coreia do Sul conseguiu colocar os debates feministas na agência de comunicação social através do Movimento 4B, movimento que surgiu em 2019, mas ganhou relevância no último ano.
O que é deepfake?
Usada inicialmente na produção de vídeo humorísticos, deepfake é uma técnica que altera vídeos, áudios ou fotos e tem sido muito usada entre os produtores e disseminadores de desinformação e pornografia ilegal.
Ela usa inteligência artificial (IA) e outros materiais (como imagens e vídeos reais) para criar adulterações realistas, geralmente combinando o rosto de uma pessoa real com um corpo falso em uma imagem ou alterando o que uma pessoa fala em um vídeo. São mídias em que a IA combina, substitui, funde ou sobrepõe áudios, vídeos e imagens para criar mídias falsas em que pessoas podem ser colocadas em qualquer situação, dizendo ou fazendo coisas que nunca aconteceram realmente.
É possível trocar rostos, clonar voz, sincronizar os lábios com um áudio diferente do original, entre outras alterações. A criação desse tipo de material requer arquivos verdadeiros, ou seja, fotos, vídeos ou áudios da pessoa que será alvo da manipulação e que irão alimentar o sistema da IA — quanto mais material, melhor o resultado, porque a IA irá reproduzir padrões de movimentos, expressões, vozes e outras características com mais fidelidade.
Há diversos aplicativos criados apenas para essa finalidade — e hoje é possível até mesmo mudar o rosto e a voz de pessoas durante videochamadas.
A epidemia de crimes sexuais digitais na Coreia do Sul
No começo de agosto, usuárias no X começaram a fazer postagens contando sobre os crimes que estão ocorrendo na Coreia do Sul e a divulgar capturas de tela contando sobre grupos de bate-papo em que homens compartilhavam mídias deepfake de conteúdo sexual. Ao longo das semanas, outras pessoas se ajuntaram a elas para revelar as inúmeras salas de bate-papo no Telegram que distribuem pornografia deepfake ilegal categorizada por região e escola no país — como a plataforma X está bloqueada no Brasil desde agosto, não iremos incluir links dos perfis, apenas mencionaremos alguns.
Com a viralização dessas postagens, as autoridades e jornalistas também passaram a reportar as denúncias sobre um grande número de grupos de bate-papo no Telegram onde os membros estavam criando e compartilhando imagens deepfake sexualmente explícitas — incluindo de meninas menores de idade.
A onda de grupos de bate-papo, vinculados a escolas e universidades em todo o pais, foi descoberta no Telegram. Nesses grupos — um deles tinha mais de 133 mil membros —, os usuários, em sua maioria estudantes adolescentes, carregavam fotos de pessoas que conheciam (colegas de classe, professores, parentes, militares) e outros usuários transformavam essas mídias em mídias deepfake sexualmente explícitas. Além disso, os perpetradores também usam imagens de celebridades e plataformas de rede social, como o Instagram, para salvar ilicitamente fotos de vítimas, que são então usadas em suas atividades criminosas.
No X, a conta identificada como “(cat) 페미니즘=여성인권운동” postou capturas de tela e escreveu: “Na Coreia do Sul, uma rede de crimes sexuais em larga escala usando o Telegram foi descoberta novamente nos últimos dias. 220.000 homens estavam em uma sala secreta do Telegram onde a IA foi usada para fazer photoshop de rostos de mulheres em pornografia. Então, as feministas coreanas estão ocupadas. Estamos tentando tornar isso conhecido no exterior“.
Outra conta (@f_c_1050) escreveu: “[Notícia de] última hora: os homens coreanos têm criado várias salas de bate-papo usando o Telegram e difundido informações pessoais das mulheres ao seu redor; incluindo seus familiares, colegas de trabalho e de classe”.
Uma outra usuária, identificada como “안더쿠”, explicou: “Crimes de deepfake cometidos por homens coreanos ocorrem independentemente da nacionalidade da vítima. Os relatórios da mídia por enquanto indicam que 53% das vítimas são mulheres coreanas, mas isso não significa que apenas 53% dos perpretadores são homens coreanos. Atualmente, os homens coreanos estão cometendo terrorismo indiscriminado, visando mulheres ao redor do mundo. Embora a Assembleia Nacional da Coreia do Sul e o governo tenham anunciado uma resposta estrita, não houve consenso de que isso é um ataque terrorista indiscriminado motivado pela misoginia“.
Existem inúmeras salas de bate-papo dessa natureza no Telegram e elas são categorizadas por nomes de universidades em todo o país — de fato, foram descobertos grupos em mais de 70% das escolas sul-coreanas. Nesses grupos, os homens espalharam informações pessoais das mulheres ao seu redor, incluindo suas familiares e colegas de trabalho — para participar de alguns deles era obrigatório tirar fotos de partes do corpo de mulheres de suas famílias e compartilhar com os outros membros.
Nomes de cerca de 300 escolas em todo o país aparecem em grupos no Telegram, e investigações policiais sobre casos de pornografia deepfake começaram em Seul, Incheon e South Jeolla. Essa lista de nomes viralizou no final de agosto depois que várias contas postaram no X, e inclui escolas de ensino fundamental, médio e universidades.
Um aspecto alarmante dessa questão é a participação de adolescentes: eles são tanto as principais vítimas quanto os principais perpetradores dos crimes.
O Sindicato Coreano de Professores e Trabalhadores da Educação acredita que mais de 200 escolas foram afetadas nesta última série de incidentes. E, de acordo com o Ministério da Educação sul-coreano, o número de deepfakes visando professores aumentou nos últimos dois anos. Somente entre 27 e 28 de agosto, o Sindicato identificou aproximadamente 520 casos de danos indiretos e diretos de exploração sexual deepfake entre alunos e professores em todo o país.
Medidas governamentais
Em 26 de agosto, Yoon Suk Yeol, o presidente da Coreia do Sul, pediu às autoridades sul-coreanas que se esforçassem para “erradicar” a epidemia de crimes sexuais digitais do país, instruindo que investigassem e abordassem minuciosamente os crimes sexuais digitais.
O presidente ainda afirmou que “embora seja frequentemente descartado como ‘apenas uma brincadeira’, é claramente um ato criminoso que explora a tecnologia para se esconder atrás do escudo do anonimato”.
Além dos mais de 500 casos de crimes sexuais deepfake em investigação pela polícia, as autoridades sul-coreanas pediram a colaboração do Telegram e de outras plataformas de redes sociais — o Telegram, em especial, apenas começou a colaborar com as investigações em setembro, quando abriu uma linha direta com a Comissão de Padrões de Comunicações da Coreia (KCSC) para responder melhor ao conteúdo ilícito em sua plataforma e, desde então, a plataforma removeu 61 materiais deepfake de exploração sexual.
Também foi criada uma linha direta 24 horas para vítimas e a Comissão de Padrões de Comunicações da Coreia disse que duplicaria o número de agentes reguladores monitorando crimes sexuais digitais (em agosto eram 70 pessoas].
Ainda em setembro, o governo anunciou que iria estabelecer novas regulamentações que penalizarão a posse, compra e visualização de vídeos deepfake, e que lançaria um canal de denúncia unificado para esse tipo de conteúdo para agilizar os métodos de denúncia atuais entre os ministérios.
A Agência Nacional de Polícia sul-coreana divulgou que 812 boletins de ocorrência foram registrados até 25 de setembro em toda a Coreia do Sul por crimes sexuais relacionados a deepfake e 387 suspeitos foram presos durante esse período. Dos suspeitos presos, 324 eram adolescentes, incluindo 66 com menos de 14 anos, que são legalmente isentos de punição criminal. Também foram presos 50 suspeitos na faixa dos 20 anos, 9 na faixa dos 30, 2 na faixa dos 40 e 2 com 50 anos ou mais.
Do total de boletins, 367 foram registrados somente no mês passado, desde 28 de agosto, quando a polícia começou uma repressão especial a esses crimes devido à crescente gravidade do problema.
Ainda assim, parece que os criminosos não estão realmente com medo de serem descobertos, dois usuários no X (@bulll100 e @smoldikenergy69) postaram capturas de tela de uma mensagem anônima, que circulou entre os alunos da Universidade Soongsil, dizendo que eles nunca serão pegos se não postaram nenhuma informação nos grupos: “se você não deixou nenhuma informação, sua chance de ser pego é 0%. Não se preocupe, apenas aproveite“.
Um histórico desfavorável
A Coreia do Sul tem um histórico de crimes sexuais digitais e a situação é ainda mais agravada pelo aumento da violência contra as mulheres. Um relatório do The Korea Times divulgado em 2023 aponta que os crimes contra mulheres aumentaram de 16.006 em 2007 para 28.228 em 2021. E entre 2011 e 2020, 86,7% das vítimas de crimes violentos no país eram mulheres.
Além disso, as mulheres ocupam apenas 5,8% dos cargos executivos nas empresas de capital aberto da Coreia do Sul e recebem, em média, um terço a menos que os homens sul-coreanos, dando ao país a pior disparidade salarial de gênero entre todas as nações ricas do mundo.
Adicione-se a isso uma cultura generalizada de assédio sexual, alimentada pela crescente indústria de tecnologia, que contribuiu para uma explosão de crimes sexuais digitais — o que incluiu os casos de molka, em que mulheres foram filmadas por pequenas câmeras escondidas enquanto usavam o banheiro ou se despiam em provadores.
Esses casos refletem uma tendência social mais ampla de estigmatizar as mulheres, pois os homens frequentemente culpam as mulheres por suas próprias dificuldades, como as baixas taxas de casamento, sem reconhecer questões estruturais em uma sociedade patriarcal.
por Vitória Ferreira Doretto
Fonte: (1), (2), (3), (4), (5), (6), (7), (8), (9)
Imagem: Yonhap
Não retirar sem os devidos créditos.