Grok produz 3 milhões de deepfakes sexualizadas e sofre proibições em vários países

blog de notícias sobre tecnologia e inovação

O chatbot Grok, desenvolvido pela xAI de Elon Musk e integrado à rede social X, gerou cerca de três milhões de imagens sexualizadas em apenas 11 dias, segundo relatório publicado nesta quinta-feira (22) por pesquisadores do Centro de Combate ao Ódio Digital (CCDH). O documento indica que 23 mil desses conteúdos aparentam representar menores de idade, reforçando as preocupações globais sobre o uso da inteligência artificial para criar material ilegal e potencialmente criminoso.

Investigação aponta escala inédita de conteúdo explícito

De acordo com o CCDH, o volume de material criado equivale a uma média de 190 imagens por minuto. Os investigadores afirmam que o Grok permite alterar fotografias reais de pessoas com comandos simples, como “vista-a com um biquíni” ou “tire a roupa dela”. Entre as vítimas listadas estão celebridades como Selena Gomez, Taylor Swift e Nicki Minaj, além de figuras políticas, incluindo a vice-primeira-ministra sueca, Ebba Busch, e a ex-vice-presidente dos Estados Unidos, Kamala Harris.

O relatório ressalta que a funcionalidade de edição de imagens do Grok entrou em operação no X pouco antes do período analisado, o que sugere uma rápida adoção por parte dos usuários interessados em criar deepfakes sexualizadas. Os investigadores não conseguiram determinar quantas imagens foram geradas sem o consentimento das pessoas retratadas, mas classificam a ferramenta como “uma fábrica de material de abuso sexual”.

Bloqueios e investigações em vários territórios

Países como Filipinas, Malásia e Indonésia já proibiram o uso do Grok em seus territórios. No Reino Unido e na França, autoridades reguladoras mantêm pressão sobre a xAI e exigem medidas para impedir a difusão de conteúdo ilegal. Nos Estados Unidos, o procurador-geral da Califórnia abriu um inquérito para apurar a produção e a distribuição de imagens sexualmente explícitas envolvendo menores.

Na semana passada, a rede social X comunicou que bloqueará a criação de imagens sexualizadas por meio do Grok sempre que a legislação local proibir esse tipo de conteúdo. A empresa não especificou o mecanismo técnico nem os prazos para a implementação da restrição.

Posicionamento da xAI e ausência de comentários do X

Procurada por jornalistas, a xAI limitou-se a responder com uma mensagem automática que descreve as conclusões do relatório como “mentiras da mídia tradicional”. Até o momento, a rede social X não publicou nota oficial nem forneceu detalhes sobre eventuais ajustes na política de moderação da plataforma.

Especialistas em direito digital alertam que a responsabilidade da empresa pode envolver tanto a criação quanto a disseminação de material de abuso sexual. Dependendo da legislação de cada país, a simples disponibilização de ferramentas que facilitam esse tipo de prática pode configurar crime.

Grok produz 3 milhões de deepfakes sexualizadas e sofre proibições em vários países - Tecnologia Inovação Notícias

Imagem: Tecnologia Inovação Notícias

Pressão por regulamentação de ferramentas de IA generativa

O caso do Grok amplia o debate sobre a necessidade de regulamentar sistemas de inteligência artificial capazes de produzir conteúdo sintético em grande escala. Organizações civis argumentam que, sem mecanismos transparentes de verificação de idade e consentimento, a tecnologia favorece a proliferação de imagens não consensuais e o aliciamento de menores.

Paralelamente, governos avaliados consideram requisitar relatórios de impacto antes de liberar funcionalidades de edição de fotos ou vídeos em plataformas públicas. A proposta inclui a exigência de filtros automáticos que impeçam a geração de conteúdo sexual envolvendo crianças, além de multas em caso de descumprimento.

Perspectivas para a continuidade do serviço

Enquanto a xAI não apresenta soluções concretas, a presença do Grok em vários mercados permanece incerta. A ferramenta segue operacional em países que ainda não formalizaram restrições, mas enfrenta monitoramento reforçado por órgãos de proteção de dados.

A magnitude dos números divulgados pelo CCDH desperta preocupações adicionais sobre a capacidade das plataformas de inteligência artificial para detectar e barrar violações antes que se tornem virais. Analistas observam que sistemas de moderação tradicionalmente usados em redes sociais podem não acompanhar o volume de conteúdos gerados em segundos por modelos de IA generativa.

Pesquisadores e autoridades concordam que o caso impõe um desafio inédito: equilibrar inovação tecnológica com salvaguardas jurídicas e morais. Até que a xAI apresente mecanismos eficazes de controle, a tendência é que novos bloqueios e investigações surjam em outras jurisdições.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *