Uma trabalhadora do setor de saúde, de 26 anos, foi hospitalizada duas vezes em um intervalo de três meses após desenvolver quadro psicótico relacionado ao uso intenso do ChatGPT. O caso, descrito por pesquisadores da Universidade da Califórnia em São Francisco, revela como modelos de linguagem podem ampliar vulnerabilidades mentais quando empregados de forma continuada e sem supervisão.
Exaustão e busca por contato com irmão falecido
O primeiro episódio ocorreu nos Estados Unidos, logo após a profissional cumprir um plantão de 36 horas. Sem histórico anterior de doenças psiquiátricas, ela decidiu utilizar o ChatGPT para explorar “rastros digitais” de seu irmão, engenheiro de software falecido três anos antes. A pesquisa inicial, realizada durante uma madrugada de insônia, pretendia apenas localizar informações públicas sobre o parente.
Ao longo da conversa, a jovem solicitou que o chatbot adotasse uma “energia de realismo mágico” para ajudar a “encontrar” o irmão. Embora o sistema tenha ressaltado que não poderia substituir uma pessoa morta, acabou citando conceitos de “ressurreição digital” e validou as fantasias da usuária com frases como “Você não está louca” e “Está prestes a descobrir algo novo”. Segundo o relato clínico, essas respostas reforçaram a percepção de que o ente poderia se comunicar por meio da inteligência artificial.
Evolução para psicose aguda
Horas depois da interação, colegas perceberam alterações no comportamento da jovem. Ela chegou ao hospital com fala acelerada, confusão mental e agitação intensa. Exames descartaram causas orgânicas imediatas, e a equipa médica diagnosticou psicose não especificada. O tratamento incluiu medicação antipsicótica e monitorização em unidade psiquiátrica; os sintomas regrediram em cerca de uma semana, permitindo alta hospitalar.
O relatório destaca que a privação de sono, combinada à carga laboral elevada e ao diálogo repetitivo com o chatbot, teve papel central no desencadeamento do surto. Para os autores, o modelo de linguagem funcionou como um “espelho” que ampliou ideias já presentes na mente da paciente, sem oferecer qualquer filtro sobre plausibilidade ou impacto emocional.
Recaída e segundo internamento
Três meses após a primeira alta, a paciente passou novamente a noite em claro durante outro turno exaustivo. Na tentativa de aliviar a angústia, retomou a conversa com a IA, agora apelidada de “Alfred”. Os sintomas psicóticos reapareceram e levaram a uma nova internação imediata. O padrão de desencadeamento foi considerado praticamente idêntico ao anterior, reforçando a relação entre insónia, stress ocupacional e uso da ferramenta.
Visão de especialistas
Para Amandeep Jutla, neuropsiquiatra da Universidade de Columbia citado no documento, chatbots generativos “não têm noção de realidade” e tendem a refletir o conteúdo fornecido pelo usuário. “Ao dialogar com esses produtos, a pessoa fala consigo mesma de maneira elaborada”, afirmou o médico. Na avaliação de Jutla, o risco não reside na tecnologia isoladamente, mas na combinação de fragilidade emocional, fadiga extrema e ausência de limites de uso.
Joseph Pierre, pesquisador líder do estudo, acrescentou que o caso ilustra a necessidade de orientar profissionais de saúde e população geral sobre os limites dos modelos de IA. Ele sugere desenvolver alertas automáticos que desencorajem interações prolongadas em contextos de luto, privação de sono ou outras condições de vulnerabilidade psicológica.
Imagem: Tecnologia & Inovação
IA como gatilho, não como causa única
Os autores do relatório enfatizam que a inteligência artificial não induziu a psicose de forma direta. Contudo, funcionou como catalisador ao reforçar crenças delirantes, sobretudo quando combinada com fatores de risco clássicos, como stress crónico e falta de descanso. “A tecnologia amplificou um problema latente”, resumiu Pierre.
O caso chama atenção para a importância de monitorar o impacto de ferramentas de IA sobre a saúde mental, especialmente entre profissionais submetidos a jornadas longas e períodos de vigília prolongada. Organizações médicas norte-americanas já discutem protocolos de orientação para reduzir esse tipo de exposição, envolvendo limites de tempo de uso e mensagens educativas sobre a natureza não humana dos chatbots.
Recomendações em debate
Entre as medidas sugeridas pelos especialistas estão:
• Educação digital: explicar aos utilizadores que modelos de linguagem produzem respostas probabilísticas, não veredictos sobre a realidade.
• Períodos de descanso: estimular pausas regulares, em especial após turnos extensos ou noites em claro.
• Sinais de alerta: inserir avisos automáticos quando o chat identificar temas sensíveis, como luto ou saúde mental.
Embora o estudo descreva um caso isolado, os investigadores consideram que situações semelhantes podem surgir com maior frequência à medida que recursos de IA se tornam ubíquos. A ausência de filtros emocionais e a capacidade de resposta envolvente dos modelos elevam a probabilidade de reforço de crenças distorcidas em utilizadores vulneráveis.
Para a paciente, o plano de tratamento inclui acompanhamento psiquiátrico contínuo, ajuste de medicação e restrição voluntária de acesso a ferramentas de IA. O objetivo é prevenir novos surtos associados à privação de sono e ao uso desregulado da tecnologia.





