ONU alerta para explosão de deepfakes pornográficos que expõem mulheres a novo tipo de violência

imagem representando a Educacao Digital Brasil.

A ONU Mulheres divulgou um levantamento que aponta crescimento expressivo na circulação de imagens e vídeos falsos gerados por inteligência artificial, conhecidos como deepfakes, com conteúdo pornográfico não consensual envolvendo mulheres e meninas. O relatório, publicado às vésperas do Dia Internacional da Mulher, indica que 98% de todos os vídeos deepfake disponíveis na internet têm caráter sexual explícito e 99% retratam mulheres. O uso da tecnologia para esse fim registou aumento de 550% entre 2019 e 2023.

Escala do problema e características dos deepfakes

Os deepfakes são criados a partir de algoritmos que combinam, substituem ou manipulam vozes, rostos e corpos, gerando a impressão de que a pessoa realizou ações ou pronunciou palavras inexistentes. A prática não é recente, mas ganhou força com a popularização de ferramentas capazes de produzir material de forma rápida, gratuita e sem exigir conhecimento técnico avançado.

De acordo com a agência da ONU, o fenómeno atinge mulheres de todas as idades e perfis, desde figuras públicas até usuárias comuns de redes sociais. Uma das vítimas relatou ter acordado com centenas de imagens falsas suas espalhadas em múltiplas plataformas, sem qualquer possibilidade de remoção imediata. Entre as consequências mais frequentes estão danos psicológicos graves, incluindo pensamentos suicidas relatados por mais da metade das entrevistadas nos Estados Unidos.

Lacunas jurídicas e respostas governamentais

O avanço da tecnologia não foi acompanhado pela atualização das legislações nacionais. Menos da metade dos países dispõe de normas para combater abusos on-line, e menos ainda tratam especificamente dos deepfakes. Muitas disposições sobre “pornografia de vingança” foram redigidas antes da existência das ferramentas de IA, deixando brechas que dificultam a responsabilização dos autores.

Alguns governos iniciaram ajustes nas suas leis. No Brasil, uma alteração do Código Penal aprovada em abril de 2025 passou a enquadrar como violência psicológica contra a mulher a manipulação de imagem ou voz por meio de IA, prevendo penas de prisão. Nos Estados Unidos, publicações que contenham deepfakes devem ser removidas em até 48 horas após notificação. Emirados Árabes Unidos e Reino Unido também tipificaram o crime, embora a legislação britânica se concentre no compartilhamento de imagens explícitas e não alcance necessariamente a etapa de criação.

No âmbito supranacional, a Lei de Inteligência Artificial da União Europeia estabelece obrigações de transparência, exigindo que conteúdos sintéticos sejam claramente identificados. Entretanto, especialistas apontam que a falta de previsões sobre fiscalização e sanções ainda dificulta a aplicação prática.

Dificuldades na investigação e na punição

A responsabilização dos criadores de deepfakes enfrenta entraves técnicos e processuais. Para iniciar um inquérito, forças policiais precisam de perícia digital, cooperação internacional e agilidade na coleta de provas que podem desaparecer rapidamente com a multiplicação de cópias. Grande parte dos sistemas de justiça não possui recursos para atender a essas demandas.

Plataformas digitais costumam demorar a retirar o material ou exigem processos de denúncia extensos, o que perpetua a exposição das vítimas. Além disso, dados necessários para identificação dos autores nem sempre são compartilhados com as autoridades, sobretudo em casos que atravessam fronteiras.

Consequências para as vítimas

Para denunciar o abuso, mulheres são obrigadas a reapresentar as imagens manipuladas a policiais, advogados ou moderadores, procedimento que muitas vezes agrava o trauma. Há também receio de exposição pública, de questionamentos sobre a veracidade dos conteúdos e da possibilidade de processos por difamação movidos pelos próprios agressores.

Estudo citado pela ONU Mulheres aponta que 41% das vítimas que ocupam cargos públicos ou de relevância social sofreram assédio ou violência fora da internet após a divulgação dos deepfakes. Em determinados contextos culturais, o material é utilizado para justificar agressões físicas severas, incluindo crimes de honra.

ONU alerta para explosão de deepfakes pornográficos que expõem mulheres a novo tipo de violência - Imagem do artigo original

Imagem: ilustrativa

Propostas para conter o avanço dos deepfakes

Organizações internacionais recomendam cinco frentes de ação:

1. Legislação específica: Definições claras sobre abuso gerado por IA, foco em consentimento e prazos curtos para remoção de conteúdo.

2. Capacitação das autoridades: Investimentos em perícia digital, estruturas de cooperação transfronteiriça e redução de atrasos na produção de laudos.

3. Responsabilidade das plataformas: Obrigação de monitorar e excluir proativamente material abusivo, além de colaboração efetiva com investigações.

4. Apoio às sobreviventes: Atendimento jurídico gratuito, profissionais treinados em abordagem não revitimizadora e ligação entre órgãos de justiça e serviços de saúde mental.

5. Educação digital: Programas de alfabetização que abordem segurança on-line, consentimento e orientação sobre como proceder diante de abusos.

Para a ONU Mulheres, a combinação de legislação robusta, aplicação eficiente da lei e cooperação das empresas de tecnologia é essencial para reduzir a disseminação dos deepfakes pornográficos. Sem essas medidas, a facilidade de criação e a velocidade de propagação do conteúdo tendem a ampliar ainda mais os riscos enfrentados por mulheres e meninas no ambiente digital.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *