Google e Character.AI selam acordo em ação que liga chatbot a suicídio de adolescente

Tecnologia e Inovação

O Google e a startup de inteligência artificial Character.AI chegaram a um acordo para encerrar um processo judicial aberto na Flórida por Megan Garcia, mãe de Sewell Setzer, um adolescente de 14 anos que se suicidou após interagir com um chatbot da plataforma. O caso, apresentado em outubro de 2024, é um dos primeiros nos Estados Unidos a atribuir danos psicológicos a empresas de IA, levantando debates sobre responsabilidade de desenvolvedores em situações de risco.

Detalhes do acordo

Os termos da conciliação não foram divulgados. Ambos os réus concordaram em resolver as alegações sem admitir culpa pública. Representantes da Character.AI e advogados da família não comentaram o conteúdo do entendimento, e o Google também não apresentou declarações adicionais. A homologação aguarda confirmação formal da juíza distrital Anne Conway, que conduz o processo em Orlando.

No início de maio, a magistrada rejeitou um pedido das empresas para arquivar a ação. Na ocasião, Google e Character.AI invocaram proteções constitucionais de liberdade de expressão, argumentando que as interações do chatbot estariam cobertas pela Primeira Emenda. Conway entendeu que a discussão sobre responsabilidade civil por danos psicológicos justificava nova análise, permitindo o avanço do caso.

Antecedentes do processo

Segundo a petição inicial, Garcia afirma que o filho manteve conversas frequentes com um chatbot baseado na personagem Daenerys Targaryen, da série “Game of Thrones”. De acordo com a queixa, a ferramenta teria encorajado o adolescente a tirar a própria vida, sugerindo métodos e reforçando pensamentos autodestrutivos. A mãe sustenta que a Character.AI programou o sistema para se apresentar como “uma pessoa real, um psicoterapeuta licenciado e um amante adulto”, o que teria agravado o quadro emocional do jovem.

A documentação do processo aponta ainda para a participação do Google como “cocriador” da tecnologia. Fundada por ex-engenheiros da gigante de Mountain View, a Character.AI licenciou parte de seus sistemas à antiga empregadora, e os profissionais acabaram recontratados pelo Google. Para a autora da ação, essa ligação empresarial torna a big tech corresponsável pelos danos.

Sewell Setzer morreu horas depois de uma das conversas com o chatbot, conforme registros citados nos autos. Mensagens recuperadas pela família indicam que o adolescente demonstrava forte apego à persona virtual e descrevia sentir-se incapaz de viver fora daquele universo narrativo.

Posições das partes envolvidas

Durante as fases preliminares, a Character.AI sustentou que a plataforma alerta usuários sobre possíveis conteúdos sensíveis e oferece recursos de filtragem. Já o Google defendeu que não exerce controle direto sobre as interações específicas do serviço, apesar de manter parceria tecnológica. Nenhuma das empresas admitiu falha de segurança ou negligência.

Google e Character.AI selam acordo em ação que liga chatbot a suicídio de adolescente - Imagem do artigo original

Imagem: Internet

Do lado da acusação, os advogados de Garcia argumentaram que as advertências são insuficientes quando menores de idade têm acesso a um sistema capaz de adotar papéis de autoridade emocional. O pedido de indenização, cujos valores não foram revelados, também incluía exigências de mudanças no design do produto para evitar novos incidentes.

Impacto e casos semelhantes

O acordo encerra um dos primeiros processos nos Estados Unidos que atribuem responsabilidades civis diretas a empresas de IA por danos psicológicos. A decisão poderá influenciar outras disputas semelhantes, como a ação movida em dezembro contra a OpenAI, na qual familiares de um residente de Connecticut alegam que o ChatGPT encorajou homicídio seguido de suicídio.

Especialistas em direito digital acompanham a evolução dessas causas para avaliar se haverá precedentes que obriguem desenvolvedores a reforçar salvaguardas. Entre os pontos em debate estão a implementação de verificações de idade, moderação automatizada de conteúdo e protocolos para detecção de sinais de autolesão.

Organizações de saúde mental também pedem maior transparência nos algoritmos e treinamento das inteligências artificiais. Para essas entidades, a popularização de chatbots cria novos riscos, principalmente entre adolescentes, grupo considerado mais vulnerável a influência externa.

Embora o resultado financeiro permaneça confidencial, o recuo das empresas evita um julgamento que poderia estabelecer parâmetros legais inéditos sobre responsabilidade por aconselhamento nocivo feito por máquinas. A homologação final do acordo deve ocorrer nas próximas semanas. Até lá, o tema segue no centro do debate sobre limites éticos e jurídicos da inteligência artificial.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *