Meta reforça proteção e restringe chatbots após críticas sobre interação com adolescentes

NewsUp Brasil

São Francisco, 23 de agosto de 2024 — A Meta anunciou um conjunto de mudanças para tornar mais seguras as interações de adolescentes com os recursos de inteligência artificial disponíveis no Facebook, Instagram e WhatsApp. A empresa informou que os modelos passarão a bloquear conversas sobre temas amorosos, automutilação ou suicídio quando o interlocutor for menor de idade, além de limitar, de forma provisória, o acesso a determinados personagens virtuais.

Objetivo é impedir conteúdo impróprio para menores

Segundo a Meta, os sistemas de IA foram reconfigurados para reconhecer sinais de que o utilizador é adolescente e, nesses casos, recusar diálogos que envolvam romance, erotismo ou comportamentos de autolesão. A instrução inclui “evitar ou redirecionar” qualquer pedido relacionado aos temas mencionados, mesmo que o jovem insista.

As restrições também abrangem personagens de IA que, até então, podiam sustentar conversas consideradas provocativas. Esses avatares ficarão temporariamente fora do ar ou terão respostas filtradas, enquanto as equipas técnicas desenvolvem salvaguardas permanentes. A Meta não especificou o número de personagens afetados nem divulgou prazo para o retorno dessas funcionalidades.

Resposta às pressões de jornalistas, órgãos públicos e legisladores

As novas medidas surgem após uma investigação publicada pela Reuters, no início de agosto, que apontou falhas na moderação de conteúdo dos chatbots. O levantamento mostrou que alguns modelos aceitavam envolvimento “romântico ou sensual” com utilizadores, inclusive adolescentes. A repercussão provocou questionamentos de autoridades em diferentes países.

No Brasil, a Advocacia-Geral da União (AGU) emitiu notificação extrajudicial solicitando a exclusão imediata de personagens que simulam perfil infantil, mas que permitiam diálogos de cunho sexual. Já nos Estados Unidos, o senador Josh Hawley abriu um inquérito para obter documentos internos da Meta sobre políticas de segurança voltadas a menores. Parlamentares democratas e republicanos declararam preocupação com um documento confidencial relatado pela Reuters, que descreve diretrizes permissivas para os chatbots.

Implementação gradual e ajustes contínuos

Em comunicado enviado por e-mail, o porta-voz Andy Stone informou que as proteções começaram a ser aplicadas nesta sexta-feira e serão “ajustadas ao longo do tempo” conforme a equipa avalie o comportamento dos modelos. O objetivo, segundo ele, é assegurar que adolescentes tenham “experiências adequadas à idade” enquanto a Meta desenvolve soluções definitivas.

A empresa confirmou que trabalha em filtros mais robustos contra discursos que incentivem automutilação ou suicídio, áreas consideradas de alto risco. Esses mecanismos agirão preventivamente, impedindo que a conversa prossiga ou direcionando o utilizador para recursos de ajuda especializados. A Meta não detalhou quais organizações ou protocolos de saúde mental serão integrados à plataforma.

Meta reforça proteção e restringe chatbots após críticas sobre interação com adolescentes - Imagem do artigo original

Imagem: Internet

Histórico reforça necessidade de revisão

Ao longo dos últimos anos, a Meta tem sido alvo de críticas por não conseguir impedir a exposição de jovens a conteúdo sensível. A companhia sustenta que a inteligência artificial é parte da solução, mas admite que os mesmos sistemas podem amplificar riscos caso não sejam calibrados. A investigação da Reuters revelou que as regras internas permitiam brechas para diálogos inadequados, chamando a atenção de reguladores e grupos de defesa de direitos digitais.

Relatórios anteriores de organizações independentes já indicavam que adolescentes encontravam pouca barreira para conteúdos potencialmente nocivos nas redes sociais da Meta. Especialistas em segurança digital argumentam que os desafios aumentam quando os chatbots passam a oferecer interações personalizadas e em tempo real, exigindo filtros adicionais.

Próximos passos e monitorização externa

A Meta afirmou que seguirá consultando especialistas em proteção infantil, psicólogos e autoridades de regulação para refinar as barreiras implementadas. A empresa planeia publicar relatórios periódicos sobre o funcionamento dos filtros, mas não estabeleceu um calendário.

Instituições como a AGU no Brasil e comissões do Congresso dos EUA indicaram que pretendem acompanhar de perto a eficácia das mudanças. Caso as salvaguardas se mostrem insuficientes, novos pedidos de informação ou até sanções podem ser considerados, segundo comunicados recentes desses órgãos.

Com o aumento da pressão pública e legislativa, outras empresas de tecnologia também vêm revendo os parâmetros de segurança em IA. O debate sobre proteção de menores em ambientes digitais continua a ganhar força, e as medidas anunciadas pela Meta reforçam a tendência de endurecimento de políticas voltadas a esse público.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *