O Fundo das Nações Unidas para a Infância (UNICEF) divulgou, em Nova Iorque, um alerta sobre o crescimento acelerado de imagens sexualizadas de crianças produzidas por inteligência artificial (IA). A organização destaca que fotografias reais estão a ser manipuladas em conteúdos explícitos, configurando material de abuso sexual infantil segundo as normas internacionais.
Escala global do problema
Dados reunidos pelo UNICEF, pela rede internacional Ecpat e pela Interpol apontam que, em 11 países avaliados, pelo menos 1,2 milhão de crianças relataram ter tido as suas imagens transformadas em deepfakes sexualmente explícitos no último ano. Em algumas nações, a proporção equivale a uma em cada 25 crianças, o que ilustra a ampla disseminação da prática.
O relatório chama a atenção para diferentes técnicas de manipulação, entre elas a “nudificação”, na qual ferramentas de IA removem digitalmente as roupas presentes em fotografias. O UNICEF considera que esses conteúdos, mesmo quando não envolvem contacto físico, causam danos diretos às vítimas e incentivam a procura por material semelhante.
Preocupação das próprias crianças
O estudo revela que as próprias crianças estão cientes dos riscos. Em certos países, até dois terços dos menores entrevistados disseram temer que a IA seja usada para gerar imagens e vídeos sexuais falsos. Esse nível de preocupação varia de acordo com o contexto local, mas reforça, segundo a agência, a urgência de campanhas de sensibilização, prevenção e proteção.
Consequências e responsabilidade
Para o UNICEF, “abuso por deepfake é abuso”. A agência sublinha que não existe distinção entre conteúdo gerado por IA e outras formas de exploração sexual infantil: ambos configuram crime e produzem efeitos duradouros sobre as vítimas. Mesmo quando nenhuma criança identificável aparece na imagem, o material contribui para a normalização do abuso, dificulta o trabalho das autoridades e alimenta a procura por novos conteúdos.
A nota da organização reconhece que alguns desenvolvedores de IA têm adotado abordagens de segurança desde a fase de conceção, incluindo filtros que impedem a criação de imagens nocivas. Contudo, o órgão da ONU considera esses esforços insuficientes, pois “o cenário permanece desigual” e muitos modelos continuam a ser lançados sem salvaguardas adequadas.
Integração em redes sociais aumenta o risco
O UNICEF alerta para o potencial agravamento do problema quando ferramentas de IA generativa são integradas diretamente em plataformas de redes sociais. Esse ambiente favorece a criação rápida de deepfakes e a sua disseminação quase instantânea, dificultando a remoção de conteúdos e ampliando o impacto sobre as vítimas.
Imagem: IA ctribui para normalizar a exploraç
Recomendações para governos e setor privado
Para conter o avanço do abuso sexual infantil associado à IA, a agência propõe um pacote de medidas:
- Revisão legal: governos devem expandir a definição de material de abuso sexual infantil para incluir conteúdos gerados por IA, criminalizando a criação, posse e distribuição.
- Proteção na origem: desenvolvedores de IA precisam implementar bloqueios robustos que impeçam o uso indevido de seus sistemas.
- Moderação proativa: empresas digitais devem adotar tecnologias de detecção que removam imagens ilegais de forma imediata, em vez de reagirem apenas após denúncias de usuários.
A ONU reforça que a responsabilidade é compartilhada entre legisladores, indústria tecnológica e plataformas de comunicação. A falha de qualquer elo, acrescenta o documento, amplia o espaço para que abusadores explorem lacunas regulatórias e técnicas.
Urgência de resposta
A nota divulgada em Nova Iorque encerra-se com um apelo direto: “o dano é real e urgente; as crianças não podem esperar que a lei acompanhe”. O UNICEF considera imprescindível acelerar a adoção de normas, ferramentas de prevenção e mecanismos de apoio às vítimas para conter uma tendência que, segundo o órgão, já ultrapassou fronteiras e desafia as capacidades atuais de fiscalização.
Com a popularização de modelos de IA cada vez mais acessíveis, a agência teme que o número de vítimas aumente ainda mais caso não haja resposta coordenada. O apelo dirige-se a governos, empresas tecnológicas e sociedade civil para que atuem de forma integrada e imediata, bloqueando a criação e a circulação de material que vitimize crianças em todo o mundo.






