OpenAI prepara sistema de verificação de idade no ChatGPT e quer limitar uso por menores

A OpenAI anunciou que trabalha num mecanismo de estimativa de idade para o ChatGPT. A medida pretende restringir o acesso de menores de idade ao chatbot, seguindo a linha de plataformas como Roblox e TikTok, que já adotam soluções semelhantes.

Como funcionará a estimativa de idade

De acordo com a empresa, o modelo cruzará múltiplos sinais para inferir a faixa etária de cada utilizador. Entre os parâmetros avaliados estarão a data de criação da conta, os períodos de maior atividade, os padrões de uso acumulados ao longo do tempo e a idade declarada voluntariamente pelo usuário.

O sistema analisará, por exemplo, se a conta foi aberta recentemente, quais horários concentram as interações e a consistência desses hábitos em comparação com perfis típicos de diferentes idades. Ao combinar esses dados, a ferramenta formará uma estimativa probabilística sobre a idade real do utilizador.

Caso a análise conclua que o usuário provavelmente tem menos de 18 anos, o acesso ao ChatGPT poderá ser limitado ou bloqueado. Se o algoritmo errar, o titular da conta terá a opção de contestar a decisão por meio de uma plataforma de apelação. Nessa etapa, a pessoa deverá enviar uma selfie para verificação de identidade, procedimento já utilizado em redes sociais e serviços de pagamento.

Pressão externa e troca de críticas públicas

A iniciativa surge num contexto de pressão crescente para proteger usuários jovens. Organizações de defesa digital, legisladores e tribunais vêm apontando falhas na filtragem de conteúdos sensíveis ou inadequados para menores. Além disso, a OpenAI enfrenta ações judiciais que a acusam de omissão em casos envolvendo usuários vulneráveis.

Nas redes sociais, o debate ganhou intensidade depois que Elon Musk, proprietário da Tesla, da SpaceX, do X e da xAI, aconselhou seus seguidores a impedir que familiares utilizem o ChatGPT. A publicação motivou resposta imediata de Sam Altman, cofundador e diretor-executivo da OpenAI.

Altman reconheceu a necessidade de reforçar salvaguardas, mas criticou a postura de Musk, alegando que o empresário alterna entre acusações de excesso de restrição e de permissividade. O executivo lembrou que quase um bilhão de pessoas recorrem ao ChatGPT e que parte desse público pode estar em situação mental frágil, exigindo equilíbrio entre liberdade de uso e proteção.

A discussão ultrapassou o campo da inteligência artificial. Altman mencionou acidentes ligados ao Autopilot da Tesla e declarou ter considerado o recurso inseguro no lançamento. Do outro lado, Musk não respondeu diretamente às críticas mas mantém posição favorável ao desenvolvimento de sistemas de IA próprios, como o Grok, criado pela xAI.

OpenAI prepara sistema de verificação de idade no ChatGPT e quer limitar uso por menores - Imagem do artigo original

Imagem: Internet

Próximos passos da OpenAI

Sem divulgar calendário oficial, a empresa informa que a fase de testes internos da estimativa de idade já começou. A OpenAI deverá recolher métricas de precisão, taxas de falso positivo e impacto na experiência do utilizador antes de estender o recurso a todos os mercados.

Além da verificação automatizada, a companhia estuda complementar o procedimento com recursos de consentimento parental e alertas de contexto para conteúdos mais sensíveis. As medidas integram um pacote mais amplo de governança, que inclui ajustes no filtro de segurança, revisão de políticas de dados e novos canais de denúncia.

A implementação não ocorre isoladamente. Ferramentas de IA generativa vêm enfrentando escrutínio regulatório, e entidades de direitos do consumidor pressionam pela adoção de salvaguardas. Exemplo recente é a denúncia apresentada ao órgão regulador de proteção de dados contra o Grok, da xAI, por suposta violação de privacidade em imagens geradas.

Internamente, Altman afirma que a empresa continuará a “aprimorar os sistemas para lidar com situações complexas e delicadas”. Ele reforça que o objetivo é permitir interação criativa e útil com a IA sem expor grupos vulneráveis a riscos desnecessários.

Com o novo mecanismo, a OpenAI pretende alinhar-se a exigências de responsabilidade digital e reduzir a possibilidade de menores acessarem conteúdos inadequados. A efetividade da abordagem dependerá da precisão do modelo na identificação de padrões etários e da transparência nos processos de contestação.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *