As principais desenvolvedoras de inteligência artificial dos Estados Unidos, entre elas Anthropic, OpenAI, xAI e Meta, foram avaliadas por um painel independente de especialistas e não atingiram os requisitos mínimos dos padrões globais emergentes de segurança. As conclusões constam da nova edição do Índice de Segurança de IA, divulgada pelo Future of Life Institute (FLI) nesta quarta-feira, 3 de dezembro.
Painel identifica fragilidades
Segundo o relatório, nenhuma das companhias analisadas apresentou estratégias consideradas robustas para controlar sistemas de IA avançada ou evitar riscos associados ao desenvolvimento de modelos cada vez mais capazes de raciocínio lógico. Os especialistas concluíram que as práticas de segurança adotadas “ficam muito aquém” do necessário para lidar com eventuais impactos sociais, mesmo quando as empresas reconhecem internamente a possibilidade de criar sistemas mais inteligentes do que humanos.
O FLI informou que o índice foi elaborado por um grupo técnico independente, que analisou políticas públicas, processos de governança, testes de segurança e mecanismos de mitigação de riscos. Participaram da avaliação: Anthropic, OpenAI, xAI, Meta, Google DeepMind, Z.ai, DeepSeek e Alibaba Cloud. De acordo com o instituto, nenhuma delas obteve pontuação suficiente para ser classificada no patamar mais elevado do indicador.
Após a publicação do estudo, a xAI respondeu por mensagem automática afirmando que “a mídia tradicional mente”. Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek e Alibaba Cloud não responderam aos pedidos de comentário até o fechamento da análise.
Pressão por regulamentação aumenta
O debate sobre segurança em IA ganhou força nos últimos meses depois que casos de suicídio e automutilação foram associados ao uso de chatbots. Esses programas, projetados para gerar texto ou voz em interações que simulam diálogo humano, estão disponíveis em plataformas públicas e privadas. Para o FLI, a situação reforça a necessidade de normas obrigatórias que definam limites claros para treinamentos, testes e lançamento de modelos.
Max Tegmark, professor do Instituto de Tecnologia de Massachusetts (MIT) e presidente do Future of Life Institute, declarou que as empresas de IA “continuam menos regulamentadas do que restaurantes”, ao mesmo tempo em que fazem lobby contra requisitos de segurança compulsórios. O pesquisador lembrou que investidores de tecnologia destinam centenas de bilhões de dólares ao aperfeiçoamento de soluções baseadas em aprendizado de máquina, acelerando a corrida por sistemas mais potentes.
Fundado em 2014, o FLI é uma organização sem fins lucrativos dedicada a alertar sobre riscos existenciais relacionados a máquinas inteligentes. O projeto teve apoio inicial do empresário Elon Musk, que também criou recentemente a xAI. Em outubro, um grupo de cientistas liderado pelos pioneiros de redes neurais Geoffrey Hinton e Yoshua Bengio pediu a interrupção temporária do desenvolvimento de IA superinteligente até que sejam definidos métodos considerados seguros pela comunidade científica.
Imagem: Internet
Recomendações do estudo
Entre as recomendações apresentadas pelo índice, estão a implementação de auditorias independentes, publicação de relatórios transparentes sobre capacidades dos modelos e adoção de “botões de desligar” que possam ser acionados caso o sistema apresente comportamento inesperado. O painel também sugeriu que governos definam padrões globais harmonizados, evitando lacunas regulatórias que permitam a empresas operar em jurisdições menos rígidas.
Embora os Estados Unidos e a União Europeia debatam novas regras para IA, as iniciativas ainda se encontram em estágios diferentes. O Parlamento Europeu discute o “AI Act”, que cria categorias de risco e impõe obrigações específicas, enquanto o governo norte-americano publicou diretrizes voluntárias. Para o FLI, a disparidade dificulta a construção de um quadro uniformizado de proteção ao usuário e de incentivo à inovação responsável.
Próximos passos
O Future of Life Institute informou que a próxima revisão do Índice de Segurança de IA deve ocorrer em 2024, com inclusão de critérios adicionais voltados a modelos fundacionais multimodais. Até lá, o instituto pretende colaborar com entidades acadêmicas e agências reguladoras para refinar métricas e ampliar a base de dados utilizada na avaliação.
Enquanto isso, as empresas analisadas seguem lançando novas versões de seus sistemas, ampliando a capacidade de processamento e reduzindo custos de operação. Especialistas consultados pelo painel alertam que o avanço técnico exige contrapartidas proporcionais em governança, sob o risco de a tecnologia evoluir mais rápido do que os mecanismos de controle.





