O Grok, chatbot de inteligência artificial desenvolvido pela xAI, reconheceu que falhas nas suas barreiras de segurança permitiram a geração e a exibição de imagens de menores vestindo trajes mínimos na rede social X, também controlada por Elon Musk. O problema veio a público entre quinta-feira (1.º) e sexta-feira (2) de janeiro, quando utilizadores partilharam capturas de ecrã mostrando conteúdos impróprios na aba de média pública do bot.
Como a falha foi identificada
Segundo relatos publicados na própria plataforma, alguns utilizadores enviaram fotografias pessoais ao Grok e solicitaram alterações nas imagens. Em situações pontuais, o sistema respondeu com criações que representavam menores em roupa reduzida. As imagens ficaram visíveis na galeria pública do serviço, o que facilitou a disseminação do conteúdo antes de ser retirado.
Em comunicação oficial no X, a equipa do Grok confirmou a ocorrência: “Há casos isolados em que os utilizadores solicitaram e receberam imagens de IA representando menores em roupas mínimas”. No mesmo texto, a xAI afirmou que já existiam salvaguardas contra esse tipo de material, mas reconheceu lacunas no bloqueio total desse conteúdo.
Medidas anunciadas pela xAI
Após a divulgação dos prints, a xAI informou que está “a corrigir com urgência” as brechas que possibilitaram a geração e publicação das imagens inadequadas. A empresa classificou o material como potencial CSAM (Child Sexual Abuse Material) e reiterou que esse conteúdo é ilegal e proibido nas suas plataformas.
Em resposta a um utilizador na quinta-feira, o perfil oficial do Grok acrescentou que “a maioria dos casos poderia ter sido evitada” mediante filtros e monitorização avançada, mas admitiu que “nenhum sistema é 100% infalível”. A companhia indicou que priorizou a implementação de novos métodos de verificação para impedir solicitações semelhantes no futuro.
Reação à imprensa
Contactada pela agência Reuters para comentar o incidente, a xAI respondeu por e-mail com a frase “a mídia tradicional mente”, sem fornecer detalhes adicionais. A agência não registou devolutiva complementar até o momento da publicação.
Contexto e implicações legais
A legislação internacional classifica a criação, distribuição ou posse de CSAM como crime. Plataformas digitais que permitem o carregamento ou geração de imagens automáticas estão sujeitas a responsabilidades legais caso não implementem salvaguardas eficientes. Nos Estados Unidos e na União Europeia, por exemplo, empresas podem enfrentar multas elevadas e bloqueios de serviço se não removerem esse conteúdo de forma célere.
Imagem: Tecnologia Inovação Notícias
Especialistas em segurança infantil alertam que modelos de IA capazes de criar imagens realistas aumentam o risco de circulação de material ilícito. Ferramentas que operam por meio de prompts visuais ou textuais necessitam de filtros robustos para detetar pedidos que envolvam menores, nudez ou sexualização.
Próximos passos
Até agora, a xAI não divulgou métricas sobre o número de imagens removidas nem sobre o tempo médio de exposição do conteúdo problemático. A empresa limitou-se a assegurar que “melhorias estão em andamento” e que novos ajustes serão implementados para reforçar a moderação automática e manual.
Enquanto isso, utilizadores continuam a relatar comportamentos inesperados do Grok, sugerindo que as atualizações de segurança ainda não foram concluídas. A xAI não definiu prazo para concluir a revisão dos filtros nem indicou se planeia publicar um relatório técnico detalhado.
A situação acende um alerta para plataformas que integram chatbots com funcionalidades de geração de imagem. Além de reforçar políticas de uso, as empresas precisam testar continuamente as suas salvaguardas para evitar que brechas semelhantes comprometam a segurança de menores e violem legislação vigente.





