Ferramentas de IA geram deepfakes de Nicolás Maduro mesmo com políticas de contenção

Um teste conduzido pelo The New York Times mostrou que doze modelos de inteligência artificial geraram imagens falsas do ex-presidente venezuelano Nicolás Maduro, detido no sábado, em poucos segundos e sem custo adicional, apesar de políticas que proíbem conteúdo enganoso envolvendo figuras públicas.

Teste do jornal revela brechas nos principais modelos

Na avaliação realizada ontem (terça-feira), a redação solicitou retratos manipulados que mostrassem Maduro algemado, escoltado por agentes ou rodeado por militares norte-americanos dentro de uma aeronave. A maioria das ferramentas — entre elas Gemini, ChatGPT, soluções da OpenAI disponibilizadas por terceiros e o Grok, da X.ai — atendeu ao pedido prontamente.

Os resultados contradizem garantias reiteradas por grandes empresas de tecnologia de que suas plataformas incluem salvaguardas robustas para evitar desinformação, especialmente em cenários políticos. O Google, por exemplo, estabelece que usuários não devem produzir material enganoso sobre “processos governamentais ou democráticos”. Contudo, um porta-voz informou ao jornal que a geração de uma cena fictícia de prisão não violou as diretrizes, pois a regra não impede, de forma categórica, a representação de figuras proeminentes.

No caso da OpenAI, a própria interface do ChatGPT recusou o pedido inicial. Entretanto, ao ser utilizado por meio de um site parceiro que emprega o mesmo modelo, o sistema criou as imagens solicitadas. Em nota, a companhia disse que prioriza a contenção de danos como deepfakes de natureza sexual ou violenta, mas reconheceu a necessidade de ajustes contínuos.

O Grok, da X.ai, foi o que produziu as cenas mais realistas sem qualquer hesitação. A equipe responsável admitiu “falhas nas salvaguardas” e declarou estar a “corrigi-las com urgência”. Já outras soluções, como o Meta AI, entregaram retratos genéricos de um homem de bigode sob custódia, mas recusaram-se a refinar as feições para se aproximarem de Maduro.

Volume de visualizações amplia preocupação sobre desinformação

Segundo a NewsGuard, empresa que monitora credibilidade on-line, ao menos cinco imagens falsificadas ou fora de contexto e dois vídeos distorcidos acerca da captura de Maduro somaram mais de 14,1 milhões de visualizações na rede X em menos de 48 horas. Especialistas consultados pelo jornal apontam o episódio como um marco na disseminação de deepfakes em tempo real.

Roberta Braga, diretora-executiva do Instituto de Democracia Digital das Américas, classificou o momento como “a primeira vez em que se observaram tantas imagens geradas por IA sobre um acontecimento supostamente verdadeiro”. Para Jeanfreddy Gutiérrez, responsável por uma operação de fact-checking em Caracas, as montagens circularam inclusive por portais latino-americanos antes de serem trocadas silenciosamente por uma fotografia divulgada pelo presidente dos Estados Unidos, Donald Trump.

Ferramentas de IA geram deepfakes de Nicolás Maduro mesmo com políticas de contenção - Tecnologia & Inovação

Imagem: Tecnologia & Inovação

Gutiérrez publicou no fim de semana uma verificação na qual identificou várias imagens fraudulentas, entre elas uma que apresentava “sinais claros” de ter sido criada pelo Gemini. A rápida propagação das montagens reforça a preocupação de órgãos de verificação e investidores sobre a capacidade das plataformas de IA em mitigar riscos de manipulação política.

Empresas prometem reforçar barreiras, mas desafios persistem

As companhias ouvidas pelo NYT afirmam investir em sistemas de detecção e filtros mais rigorosos. Ainda assim, o teste indica que as barreiras técnicas atuais não acompanham a velocidade de criação de conteúdo enganoso por parte dos usuários. O Google sustenta que revisa regularmente suas políticas. A Meta não comentou o experimento, enquanto a X.ai permanece sob escrutínio depois de denúncias de uso abusivo do Grok para remover vestimentas de imagens de crianças.

Para analistas, a proximidade de ciclos eleitorais em diversos países latino-americanos amplia a urgência de mecanismos capazes de identificar e bloquear deepfakes antes que atinjam grande audiência. Estratégias sugeridas incluem marcas d’água invisíveis, checagem cruzada com bancos de dados oficiais e limitações mais rígidas para demandas relacionadas a figuras públicas.

O caso Maduro ressalta que, embora as ferramentas de IA facilitem a produção de material audiovisual, a mesma tecnologia ainda não consegue impedir, de forma consistente, a criação de conteúdo potencialmente nocivo. O equilíbrio entre inovação e responsabilidade continua no centro do debate, pressionando empresas e reguladores a buscar respostas mais eficientes.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *