O TikTok anunciou a adoção de uma nova ferramenta automatizada de verificação etária destinada a restringir a presença de crianças com menos de 13 anos na plataforma. O sistema começará a funcionar na União Europeia, Reino Unido e Suíça, com a promessa de utilização posterior em outros mercados.
Como o mecanismo vai funcionar
A tecnologia foi desenvolvida para estimar a idade real de cada utilizador com base em múltiplos indicadores internos. Quando o algoritmo encontrar sinais de que a conta possa pertencer a alguém abaixo da idade mínima permitida, o perfil será imediatamente encaminhado a um moderador humano. Esse profissional verificará as evidências reunidas e decidirá se o registo deve ser desativado.
O processo não se limita à análise automática. Qualquer pessoa poderá reportar perfis suspeitos de pertencerem a menores de 13 anos. Nesses casos, um segundo grupo de moderadores analisará as denúncias, seguindo o mesmo critério aplicado às detecções da inteligência artificial.
Comunicação e direito de recurso
Antes da implementação, os utilizadores localizados nos países abrangidos receberão notificações detalhando o funcionamento da verificação. Caso uma conta seja bloqueada de forma equivocada, o titular poderá contestar a decisão. Para isso, será necessário encaminhar um documento oficial que comprove a idade.
De acordo com o TikTok, o processo de recurso terá prioridade semelhante à moderação inicial, de forma a evitar interrupções prolongadas no acesso de utilizadores legítimos. Não foram divulgados prazos específicos para a conclusão dessa análise.
Justificativa e limitações apontadas pela empresa
Em comunicado, a rede social reconheceu «os desafios inerentes» à confirmação etária online. «Ainda não existe um método amplamente consensual que consiga verificar a idade de forma fiável e, simultaneamente, preservar a privacidade do utilizador», indicou a nota oficial. Apesar disso, a companhia sustenta que combinar técnicas distintas — entre elas algoritmos, denúncias de utilizadores e análise humana — representa a abordagem mais eficaz disponível no momento.
A empresa também reiterou o compromisso de manter crianças de até 12 anos afastadas do serviço e de oferecer experiências específicas para adolescentes. Segundo o TikTok, a proteção de menores exige «uma estratégia multifacetada, concebida desde a fase de desenho da plataforma».
Imagem: Internet
Regulamentação europeia e pressões sobre redes sociais
A iniciativa surge num contexto de reforço regulatório na Europa, onde leis como o Digital Services Act exigem ferramentas robustas para proteger menores de idade. Embora o TikTok já aplique controles de idade, autoridades do bloco apontam a necessidade de mecanismos mais fiáveis para cumprir as novas obrigações legais.
Outras plataformas sofrem pressões semelhantes. Empresas de tecnologia têm sido instadas a demonstrar que conseguem limitar o acesso de crianças a conteúdos inapropriados, bem como impedir práticas de coleta de dados sensíveis sem consentimento parental.
Próximos passos e alcance global
Num primeiro momento, o sistema será limitado à União Europeia, Reino Unido e Suíça. Contudo, a companhia admite expandir o recurso para outros mercados «à medida que a tecnologia amadurecer» e conforme exigências regulatórias locais se fortaleçam.
Não há, até o momento, calendário definido para a chegada do recurso a regiões como América Latina ou Estados Unidos. O TikTok sublinha que pretende avaliar o desempenho nos mercados iniciais antes de estabelecer prazos globais.
Embora o novo mecanismo represente um avanço na proteção de menores, a empresa reconhece que nenhuma solução isolada consegue erradicar completamente o problema. O desenvolvimento contínuo de métodos de verificação e a cooperação com reguladores deverão permanecer no centro da estratégia da plataforma.





