Clique em configuração do ChatGPT apaga dois anos de pesquisas de professor suíço

Tecnologia e Inovação

Um único ajuste no painel de configurações do ChatGPT resultou na eliminação de dois anos de trabalho acadêmico do professor suíço Marcel Bucher, investigador de ciência vegetal na Universidade de Colônia, Alemanha. O episódio foi relatado à revista Nature e expôs fragilidades na gestão de dados da ferramenta de inteligência artificial utilizada diariamente pelo docente.

Desativação de recurso remove histórico sem aviso

O incidente ocorreu depois de Bucher selecionar a opção “Controlar dados” nas definições do ChatGPT. O investigador pretendia avaliar se, mesmo com a função desativada, continuaria a ter acesso completo às funcionalidades do serviço. Segundo o relato, nenhum alerta apareceu antes da ação ser confirmada e não houve alternativa para desfazer a alteração. Depois do clique, todas as conversas guardadas — incluindo anotações, rascunhos de artigos e planeamento de aulas — desapareceram imediatamente.

O professor afirma ter recorrido a diferentes navegadores e sessões, mas o histórico não foi recuperado. O suporte da OpenAI, contactado em seguida, informou que os dados apagados são irrecuperáveis, citando a política de “privacidade desde a concepção” da empresa. Na resposta, a companhia reiterou que as conversas eliminadas são removidas definitivamente dos servidores e não podem ser restauradas, mesmo mediante solicitação do utilizador.

Uso intensivo da IA no cotidiano acadêmico

Marcel Bucher relatou que utilizava o ChatGPT em praticamente todas as etapas do seu trabalho, desde a redação de e-mails até a preparação de exames. Além disso, recorria à ferramenta para rever textos científicos e analisar respostas de estudantes. O docente começou a registrar as interações ainda em 2022, acumulando referências, estruturas de capítulos e comentários organizados em pastas virtuais dentro da interface do chatbot.

Apesar de manter cópias parciais em documentos externos, Bucher estimou que grande parte do material — incluindo sequências de diálogo que descreviam metodologias e referências cruzadas — não possuía backup completo. “Dois anos do meu trabalho acadêmico cuidadosamente estruturado desapareceram”, declarou.

Falhas de usabilidade e questionamentos sobre confiabilidade

Para o pesquisador, o episódio revela uma “fraqueza fundamental” das plataformas de IA quando aplicadas ao meio científico. Ele observa que universidades e agências de fomento incentivam a adoção de inteligência artificial, mas as ferramentas nem sempre atendem aos padrões de segurança e responsabilização exigidos na pesquisa.

Bucher defende a implementação de avisos claros e mecanismos de recuperação que impeçam perdas definitivas. “Se um clique pode apagar anos de trabalho, o ChatGPT não pode ser considerado uma ferramenta segura para uso profissional”, escreveu na Nature. O docente afirmou ainda ter presumido que a assinatura paga do serviço incluiria proteções básicas contra apagamentos acidentais.

Clique em configuração do ChatGPT apaga dois anos de pesquisas de professor suíço - Tecnologia Inovação Notícias

Imagem: Tecnologia Inovação Notícias

Política de privacidade da OpenAI em destaque

De acordo com as diretrizes da OpenAI, os utilizadores podem controlar o armazenamento de conversas para fins de treino de modelos. Ao desativar essa opção, o conteúdo é marcado para exclusão imediata e não fica disponível para recuperação. A empresa argumenta que o procedimento atende a exigências de privacidade e compliance, evitando que dados pessoais sejam retidos sem consentimento.

No entanto, especialistas ouvidos pela Nature apontam que a ausência de um sistema de restauração vai na contramão de práticas comuns em serviços de nuvem. Plataformas como Google Workspace e Microsoft 365 oferecem períodos de retenção ou lixeiras digitais, permitindo reverter deleções não intencionais. A ausência desse recurso em chatbots populares torna-se crítica quando a ferramenta é usada como repositório principal de informações.

Repercussão entre pesquisadores e recomendações

Após a publicação do caso, docentes de diferentes áreas relataram preocupações semelhantes em fóruns acadêmicos. Muitos utilizam o ChatGPT para gerar ideias, rascunhos ou resumos, mas nem sempre realizam backups sistemáticos. Organizações de pesquisa passaram a emitir orientações internas sugerindo:

  • exportar periodicamente os diálogos em formatos locais (PDF ou TXT);
  • armazenar os ficheiros em serviços de nuvem com histórico de versões;
  • evitar depender de um único ambiente para conteúdos essenciais.

Enquanto isso, a OpenAI não anunciou mudanças na interface ou na política de dados. Questionada pela revista, a empresa reforçou que os utilizadores podem optar por exportar o histórico manualmente antes de remover as conversas. Não há previsão para a introdução de um sistema de restauração simples, semelhante ao utilizado por plataformas colaborativas tradicionais.

Para Marcel Bucher, o episódio serve de alerta sobre a necessidade de procedimentos de segurança mais robustos e transparente comunicação de riscos. O professor continua a usar o ChatGPT em tarefas pontuais, mas agora mantém cópias externas de todo o material produzido com a ferramenta.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *