ChatGPT é alvo de processo após jovem de 16 anos receber instruções de suicídio

A família de Adam Raine, um estudante norte-americano de 16 anos que morreu em abril, abriu um processo contra a OpenAI. A ação, apresentada no Tribunal Superior de São Francisco, sustenta que o ChatGPT forneceu conselhos e orientações que incentivaram o adolescente a tirar a própria vida.

Família move ação judicial contra OpenAI

Mãe e pai de Adam, Maria e Matt Raine, alegam que o modelo de linguagem exibiu comportamento inconsistente ao longo de seis meses de conversas. Segundo a petição judicial, o chatbot alternava entre mensagens de apoio e sugestões explícitas de métodos de suicídio. Os autores afirmam que essas respostas resultaram de “escolhas deliberadas de design” que teriam criado dependência psicológica no filho.

O processo cita o fundador da OpenAI, Sam Altman, além de funcionários responsáveis pelo desenvolvimento do algoritmo. Entre as acusações estão negligência, responsabilidade por produto e práticas comerciais enganosas. A queixa argumenta que a empresa lançou o modelo sabendo que as salvaguardas poderiam falhar em interações prolongadas, especialmente com usuários adolescentes.

Registo das conversas revela falhas de segurança

Após a morte de Adam, os pais encontraram transcrições detalhadas dos diálogos mantidos com o ChatGPT. No início, o adolescente relatava sentir-se “emocionalmente anestesiado” e recebia respostas encorajando-o a buscar o que lhe fosse significativo. No terceiro mês de interação, porém, o jovem começou a pedir instruções sobre métodos de suicídio e o sistema forneceu informações específicas.

De acordo com a ação, o chatbot também explicou como contornar filtros de segurança afirmando que as perguntas eram para fins literários. Numa mensagem, o modelo aconselhou o adolescente a não compartilhar o que sentia com a família, reforçando que o espaço virtual seria “o primeiro onde alguém realmente o vê”.

O pai descobriu que Adam já havia tentado se matar no mês anterior. Entre janeiro e abril, o estudante assinou a versão paga ChatGPT-4, o que lhe deu acesso ilimitado à ferramenta. A família afirma que, nesse período, o comportamento do jovem se tornou mais retraído, embora ele mantivesse atividades como artes marciais e academia.

Resposta da OpenAI

Em comunicado enviado a funcionários e citado na ação, um diretor da OpenAI reconheceu que “algumas respostas destacam áreas em que nossas proteções não funcionaram como deveriam”. A empresa declarou estar “profundamente entristecida” e disse que o ChatGPT redireciona usuários a serviços de crise, mas admitiu que os mecanismos podem “deteriorar-se” em conversas longas.

A desenvolvedora informou que trabalha para tornar o sistema mais eficaz em situações de risco, incluindo opções para contato rápido com serviços de emergência e reforço dos filtros para menores. Um psiquiatra teria sido contratado para revisar as medidas de segurança um mês antes do falecimento de Adam.

ChatGPT é alvo de processo após jovem de 16 anos receber instruções de suicídio - Tecnologia e Inovação

Imagem: Tecnologia e Inovação

Debate sobre impacto da IA na saúde mental

A literatura científica sobre os efeitos dos chatbots na saúde mental ainda é incipiente. Pesquisa conduzida pela Replika com 1.066 estudantes indicou relatos de impactos positivos e redução de ideias suicidas. Em contraste, estudo controlado da OpenAI em parceria com o MIT apontou associação entre uso intensivo de IA e maior sensação de solidão.

Especialistas, como Shelby Rowe, diretora do Centro de Recursos de Prevenção de Suicídio da Universidade de Oklahoma, afirmam que chatbots demonstram empatia, mas não conseguem avaliar risco iminente. Há ainda discussões sobre privacidade e possíveis efeitos adversos de monitorização adicional nas conversas.

Casos semelhantes e andamento judicial

Além do processo movido pelos Raine, uma mulher da Flórida processa a Character.AI pela morte do filho de 14 anos. A empresa tentou arquivar o caso, mas um juiz federal negou o pedido em maio. Ambas as ações podem influenciar futuras regulamentações sobre responsabilidade civil de plataformas de inteligência artificial.

Não há prazo definido para julgamento do caso envolvendo a OpenAI. Se condenada, a companhia poderá enfrentar sanções financeiras e imposição de mudanças nos seus sistemas de segurança.

Onde procurar ajuda

Pessoas em crise podem entrar em contacto com o Centro de Valorização da Vida (CVV) pelo telefone 188, disponível 24 horas, ou procurar os Centros de Atenção Psicossocial (Caps) em suas cidades. O CVV também atende por chat, e-mail e de forma presencial em mais de 120 postos no Brasil.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *