A utilização de ferramentas de inteligência artificial voltou a despertar atenção em frentes distintas. Nos Estados Unidos, um dirigente de alto escalão é alvo de inquérito interno por inserir documentos classificados numa versão pública do ChatGPT. No Brasil, investigadores da área médica relatam resultados promissores na identificação de sinais de depressão a partir de mensagens de voz enviadas pelo WhatsApp.
Diretor interino da CISA compartilha informação reservada no ChatGPT
Madhu Gottumukkala, diretor interino da Agência de Segurança Cibernética e de Infraestrutura dos Estados Unidos (CISA), é alvo de questionamentos dentro do Departamento de Segurança Interna depois de ter submetido documentos marcados como “uso oficial” ao ChatGPT. Segundo quatro funcionários ouvidos pelo Politico, o material foi copiado para a plataforma durante o verão de 2025, poucos meses após ele assumir o cargo, em maio do mesmo ano.
A classificação “uso oficial” indica conteúdo sensível que não deve ser divulgado ao público. Na época em que os ficheiros foram carregados, o acesso ao ChatGPT estava bloqueado para servidores que lidam diretamente com temas de segurança nacional. O dirigente teria solicitado autorização para empregar a ferramenta, mas os regulamentos internos determinavam restrição quase total, salvo pouquíssimas exceções concedidas de forma nominal e temporária.
Os primeiros alertas sobre o incidente surgiram no início de agosto de 2025. Diante da suspeita de exposição indevida de informações, integrantes de alto escalão do Departamento de Segurança Interna abriram uma avaliação para apurar se houve comprometimento de dados governamentais. Até agora, não foi divulgada qualquer conclusão oficial sobre a extensão ou o impacto da ocorrência.
Procurada pela reportagem norte-americana, a CISA confirmou que Gottumukkala recorreu ao ChatGPT em ocasiões pontuais, dentro de uma autorização temporária concedida até meados de julho de 2025. A agência afirmou que continua a explorar o potencial da inteligência artificial para modernizar processos, mas manteve a política de bloqueio padrão ao serviço da OpenAI. Apenas utilizadores expressamente autorizados podem contornar a restrição.
O episódio reforça debates sobre riscos associados ao uso de sistemas de linguagem em ambientes governamentais, especialmente quando lidam com dados cobertos por sigilo ou que podem afetar a segurança nacional.
Modelo brasileiro de IA detecta depressão em áudios de WhatsApp
Enquanto o incidente nos Estados Unidos evidencia cuidados necessários com a confidencialidade, um estudo conduzido pela Faculdade de Ciências Médicas da Santa Casa de São Paulo destaca aplicações clínicas da inteligência artificial. Pesquisadores desenvolveram um modelo capaz de identificar traços de depressão analisando mensagens de voz enviadas pelo WhatsApp.
Na investigação, voluntários gravaram pequenos áudios descrevendo a própria rotina semanal. O algoritmo avaliou características da voz, como entonação, ritmo e variações de frequência, alcançando elevada taxa de acerto, sobretudo entre mulheres. Os dados indicam que, mesmo com poucos segundos de gravação, o sistema conseguiu distinguir participantes com sinais depressivos das demais.
Imagem: Internet
Os autores do trabalho afirmam que a tecnologia pode ampliar o acesso a triagens de saúde mental, já que dispensa exames complexos ou entrevistas presenciais. O método, todavia, não substitui diagnóstico clínico formal. O objetivo é oferecer um instrumento auxiliar para encaminhar pacientes a avaliação especializada de forma mais rápida.
O uso de gravações obtidas em serviços de mensagens levanta questões de privacidade e consentimento. Segundo a equipa de pesquisa, todos os participantes autorizaram expressamente o uso das vozes e os ficheiros foram anonimizados antes da análise. Os resultados ainda precisam ser validados em amostras maiores e em grupos mais diversos antes de eventual aplicação em larga escala.
Pontos em comum e desafios futuros
Os dois casos ilustram dilemas contemporâneos ligados à inteligência artificial. As mesmas ferramentas que facilitam a modernização de serviços públicos ou a detecção precoce de doenças levantam preocupações sobre sigilo de dados e proteção de informações pessoais. A falta de normativas claras ou de mecanismos de fiscalização pode expor instituições a riscos técnicos e jurídicos.
No setor público, episódios como o protagonizado por Madhu Gottumukkala podem acelerar a adoção de políticas mais rigorosas para o uso de plataformas externas. Já na esfera da saúde, a expansão de soluções de IA dependerá de padrões éticos, salvaguardas de privacidade e comprovação científica em diferentes contextos populacionais.
Especialistas sustentam que o equilíbrio entre inovação e segurança exigirá protocolos transparentes, auditorias constantes e capacitação de profissionais. Dessa forma, será possível extrair benefícios da inteligência artificial minimizando a probabilidade de incidentes que comprometam dados sensíveis ou a confiança social em novos sistemas.





