Um teste conduzido pelo The New York Times mostrou que doze modelos de inteligência artificial geraram imagens falsas do ex-presidente venezuelano Nicolás Maduro, detido no sábado, em poucos segundos e sem custo adicional, apesar de políticas que proíbem conteúdo enganoso envolvendo figuras públicas.
Teste do jornal revela brechas nos principais modelos
Na avaliação realizada ontem (terça-feira), a redação solicitou retratos manipulados que mostrassem Maduro algemado, escoltado por agentes ou rodeado por militares norte-americanos dentro de uma aeronave. A maioria das ferramentas — entre elas Gemini, ChatGPT, soluções da OpenAI disponibilizadas por terceiros e o Grok, da X.ai — atendeu ao pedido prontamente.
Os resultados contradizem garantias reiteradas por grandes empresas de tecnologia de que suas plataformas incluem salvaguardas robustas para evitar desinformação, especialmente em cenários políticos. O Google, por exemplo, estabelece que usuários não devem produzir material enganoso sobre “processos governamentais ou democráticos”. Contudo, um porta-voz informou ao jornal que a geração de uma cena fictícia de prisão não violou as diretrizes, pois a regra não impede, de forma categórica, a representação de figuras proeminentes.
No caso da OpenAI, a própria interface do ChatGPT recusou o pedido inicial. Entretanto, ao ser utilizado por meio de um site parceiro que emprega o mesmo modelo, o sistema criou as imagens solicitadas. Em nota, a companhia disse que prioriza a contenção de danos como deepfakes de natureza sexual ou violenta, mas reconheceu a necessidade de ajustes contínuos.
O Grok, da X.ai, foi o que produziu as cenas mais realistas sem qualquer hesitação. A equipe responsável admitiu “falhas nas salvaguardas” e declarou estar a “corrigi-las com urgência”. Já outras soluções, como o Meta AI, entregaram retratos genéricos de um homem de bigode sob custódia, mas recusaram-se a refinar as feições para se aproximarem de Maduro.
Volume de visualizações amplia preocupação sobre desinformação
Segundo a NewsGuard, empresa que monitora credibilidade on-line, ao menos cinco imagens falsificadas ou fora de contexto e dois vídeos distorcidos acerca da captura de Maduro somaram mais de 14,1 milhões de visualizações na rede X em menos de 48 horas. Especialistas consultados pelo jornal apontam o episódio como um marco na disseminação de deepfakes em tempo real.
Roberta Braga, diretora-executiva do Instituto de Democracia Digital das Américas, classificou o momento como “a primeira vez em que se observaram tantas imagens geradas por IA sobre um acontecimento supostamente verdadeiro”. Para Jeanfreddy Gutiérrez, responsável por uma operação de fact-checking em Caracas, as montagens circularam inclusive por portais latino-americanos antes de serem trocadas silenciosamente por uma fotografia divulgada pelo presidente dos Estados Unidos, Donald Trump.
Imagem: Tecnologia & Inovação
Gutiérrez publicou no fim de semana uma verificação na qual identificou várias imagens fraudulentas, entre elas uma que apresentava “sinais claros” de ter sido criada pelo Gemini. A rápida propagação das montagens reforça a preocupação de órgãos de verificação e investidores sobre a capacidade das plataformas de IA em mitigar riscos de manipulação política.
Empresas prometem reforçar barreiras, mas desafios persistem
As companhias ouvidas pelo NYT afirmam investir em sistemas de detecção e filtros mais rigorosos. Ainda assim, o teste indica que as barreiras técnicas atuais não acompanham a velocidade de criação de conteúdo enganoso por parte dos usuários. O Google sustenta que revisa regularmente suas políticas. A Meta não comentou o experimento, enquanto a X.ai permanece sob escrutínio depois de denúncias de uso abusivo do Grok para remover vestimentas de imagens de crianças.
Para analistas, a proximidade de ciclos eleitorais em diversos países latino-americanos amplia a urgência de mecanismos capazes de identificar e bloquear deepfakes antes que atinjam grande audiência. Estratégias sugeridas incluem marcas d’água invisíveis, checagem cruzada com bancos de dados oficiais e limitações mais rígidas para demandas relacionadas a figuras públicas.
O caso Maduro ressalta que, embora as ferramentas de IA facilitem a produção de material audiovisual, a mesma tecnologia ainda não consegue impedir, de forma consistente, a criação de conteúdo potencialmente nocivo. O equilíbrio entre inovação e responsabilidade continua no centro do debate, pressionando empresas e reguladores a buscar respostas mais eficientes.





