O projeto de lei 2338/23, que pretende regulamentar o uso de inteligência artificial no Brasil, está previsto para ser votado em 2025, segundo o relator Aguinaldo Ribeiro (PP-PB). Especialistas, empresas e entidades da sociedade civil analisam o texto e destacam sete temas considerados estratégicos para o futuro da tecnologia no país.
Classificação de risco dos sistemas
O PL propõe uma escala de risco — baixo, alto e excessivo — inspirada no modelo da União Europeia. Ferramentas enquadradas como “excessivo” podem ser proibidas; as de “alto risco” teriam exigências adicionais de transparência e segurança. Organizações da sociedade civil defendem avaliações de impacto antes da implantação, enquanto representantes de grandes empresas pedem critérios mais simples e ajustáveis à evolução tecnológica.
Responsabilidade civil e ônus da prova
O texto responsabiliza participantes da cadeia de desenvolvimento quando um sistema causar dano ao usuário. A inversão do ônus da prova permite que a vítima não precise demonstrar culpa; caberá ao fornecedor provar que não houve falha. Especialistas temem aumento de litígios e custos operacionais, sobretudo em aplicações complexas de machine learning.
Prevenção de discriminação algorítmica
Ao reconhecer que bases de dados podem reproduzir vieses sociais, o projeto discute mecanismos para mitigar discriminação indireta. Entidades de direitos digitais defendem exigências de transparência durante todo o ciclo de vida dos sistemas, do treinamento à implementação. Empresas alertam para eventuais custos adicionais, caso a obrigação não seja calibrada.
Supervisão e atribuições da ANPD
A Agência Nacional de Proteção de Dados deve receber competência para normatizar, fiscalizar e sancionar o uso de IA quando não houver órgão setorial específico. Parte do setor privado teme concentração de poder, enquanto juristas argumentam que a “competência residual” evita lacunas regulatórias e mantém equilíbrio entre áreas já supervisionadas e o ecossistema de tecnologia.
Mineração de texto e dados
O PL libera a mineração de textos e dados para pesquisa acadêmica, mas restringe o uso comercial sem autorização dos detentores dos direitos. Pesquisadores apontam que a medida amplia a segurança jurídica de universidades e centros de pesquisa, mas pedem clareza sobre o conceito de “acesso lícito” e a inclusão de jornalistas e investigadores independentes.
Imagem: Tecnologia e Inovação
Remuneração pelo treinamento de IA
Conteúdos protegidos empregados no treinamento de modelos com finalidade comercial deverão ser remunerados. Técnicos citam a dificuldade de rastrear a contribuição individual de cada obra em sistemas treinados com bilhões de registros. Uma das soluções em discussão é a adoção de licenças prévias para bases de dados combinadas a modelos de remuneração baseados no produto gerado — o output. Empresas sugerem regime de opt-out alinhado ao AI Act europeu, argumentando que taxas ou obrigações retroativas podem gerar insegurança jurídica.
Distinção entre IA tradicional e IA generativa
A proposta trata todas as modalidades de inteligência artificial sob o mesmo conjunto de regras, inclusive a IA generativa, capaz de criar textos, imagens e áudio. Especialistas defendem abordagens específicas para essa categoria, a fim de equilibrar remuneração a titulares de direitos e incentivo à inovação em sistemas que não produzem conteúdo autoral.
Com votações previstas para ocorrer até 2025, o projeto segue em análise na Câmara dos Deputados. As discussões sobre risco, responsabilidade, discriminação, supervisão regulatória, mineração de dados, remuneração e escopo tecnológico deverão determinar o formato final da legislação e o posicionamento do Brasil no cenário internacional de inteligência artificial.





