ChatGPT Health é lançado e levanta questões sobre precisão e responsabilidade

A OpenAI iniciou em janeiro a disponibilização do ChatGPT Health, versão do seu chatbot concebida para responder a dúvidas específicas de saúde. A novidade é apresentada como recurso informativo e educacional, mas provocou debate entre profissionais de medicina, direito digital e inteligência artificial sobre limites de uso, fiabilidade das respostas e responsabilidade em caso de erros.

Lançamento voltado a orientação

De acordo com a OpenAI, o ChatGPT Health não se destina a diagnóstico ou tratamento, nem pretende substituir consultas presenciais. A empresa afirma que a ferramenta ajuda o utilizador a organizar perguntas, interpretar resultados de exames e preparar-se para conversas com médicos. O modelo foi treinado com contributo de mais de 260 profissionais de 60 países, que ofereceram cerca de 600 mil feedbacks em 30 áreas clínicas.

Nesta fase inicial, o acesso é restrito a um grupo reduzido de utilizadores, com previsão de expansão gradual. Nos Estados Unidos, há integração opcional com prontuários eletrónicos; no Brasil, o recurso ainda não tem data para chegar. Quando estiver disponível, exigirá consentimento explícito do paciente, em conformidade com a Lei Geral de Proteção de Dados (LGPD).

Benefícios e riscos apontados por especialistas

Entre médicos consultados, o ChatGPT Health é visto como ferramenta adicional para esclarecimento de dúvidas, mas não como substituto do exame clínico. O Conselho Federal de Medicina considera que o serviço pode orientar pacientes, mantendo, contudo, a necessidade de avaliação presencial e responsabilidade profissional.

Para André Costa, diretor de operações da Rede Mater Dei de Saúde, cerca de 90 % dos diagnósticos clínicos surgem durante a anamnese. Segundo ele, confiar exclusivamente na análise de uma IA pode atrasar detecção de doenças ou gerar interpretações equivocadas. Na mesma instituição, Lara Salvador alerta que o chatbot não dispõe do contexto completo do paciente, não realiza exame físico nem acompanha evolução do quadro, fatores essenciais para decisões médicas.

Especialistas em tecnologia chamam atenção para o fenómeno das “alucinações” — respostas que aparentam coerência, mas distorcem factos. Gustavo Zaniboni, fundador da consultoria Redcore, questiona quem seria responsabilizado caso um erro de IA resulte em dano ao paciente. Ele observa que, enquanto um médico pode ser punido, a continuidade de operação de um algoritmo falho ainda carece de regras claras.

ChatGPT Health é lançado e levanta questões sobre precisão e responsabilidade - Imagem do artigo original

Imagem: Internet

Para Emir Vilalba, responsável pela área de saúde da Semantix, a qualidade das informações deve ser analisada com cautela, sem tratar as respostas como diagnóstico final. Nuria López, professora de direito digital na Universidade Presbiteriana Mackenzie, lembra que toda ferramenta pode incorrer em falhas, pois não possui a experiência humana nem acesso integral ao histórico clínico. Ambos defendem uso crítico e supervisionado por profissionais.

Proteção de dados e soberania digital

O armazenamento de informações de brasileiros em servidores estrangeiros também suscita debate. Nos Estados Unidos vigora o Cloud Act, legislação que permite a autoridades americanas requisitar dados de empresas de tecnologia mesmo quando alojados fora do país. Paralelamente, o governo federal investe R$ 1,2 bilhão na criação de uma “nuvem soberana”, prevista no Plano Brasileiro de Inteligência Artificial (PBIA), para manter dados sensíveis sob jurisdição nacional.

Potencial de alcance e perspectivas

A OpenAI calcula que mais de 230 milhões de pessoas em todo o mundo recorram ao ChatGPT semanalmente para temas de saúde e bem-estar. Para Zaniboni, o avanço de sistemas de IA na área médica representa “um caminho sem volta”, comparável à difusão da eletricidade. Na avaliação de López, a versão especializada pode oferecer respostas mais estruturadas do que pesquisas genéricas na internet, beneficiando especialmente quem não tem acesso fácil a serviços médicos.

Apesar das vantagens, médicos e especialistas reiteram a necessidade de supervisionar o uso do ChatGPT Health, reforçando que a consulta presencial e o acompanhamento profissional permanecem fundamentais para assegurar diagnóstico preciso, tratamento adequado e proteção legal de pacientes e profissionais de saúde.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *