O ChatGPT, desenvolvido pela OpenAI, é capaz de gerar textos, responder perguntas e criar imagens. No entanto, um novo levantamento mostra que o sistema continua a falhar numa tarefa aparentemente simples: indicar a hora certa. Pesquisadores analisaram o comportamento do chatbot e de outros modelos avançados e concluíram que a dificuldade está relacionada à ausência de um relógio interno e às limitações de raciocínio espacial exigidas para interpretar relógios analógicos e calendários.
Limitação de acesso em tempo real impede resposta precisa
Ao contrário de smartphones ou computadores, modelos de linguagem como o ChatGPT não contam com um sistema integrado de atualização do horário. Quando questionado sobre a hora local, o bot alterna entre admitir que não possui essa informação, arriscar palpites ou apresentar dados incorretos minutos depois de acertar. A porta-voz da OpenAI, Taya Christianson, confirma a limitação: “Os modelos que alimentam o ChatGPT não têm acesso integrado à hora atual”.
O especialista em inteligência artificial Yervant Kulbashian explica que a origem do problema é estrutural. Segundo ele, “um modelo de linguagem funciona no seu próprio espaço de palavras; ele só faz referência ao que entrou nesse espaço”. Sem um relógio interno ou API externa que forneça o horário em tempo real, o sistema depende de dados históricos registrados durante o treino ou de informações pontuais enviadas pelo utilizador. A atualização constante da hora também consumiria parte da janela de contexto do modelo, reduzindo o espaço disponível para outras informações.
Pesquisa universitária expõe dificuldades em tarefas temporais
Um estudo conduzido pela Universidade de Edimburgo avaliou o desempenho de quatro modelos de ponta — GPT-4o, Claude 3.5, Gemini 2.0 e Llama Vision — em tarefas que envolvem leitura de relógios analógicos e interpretação de calendários. Os resultados mostram que todos enfrentam dificuldades significativas. Em média, os sistemas acertaram apenas 38,7% das leituras de mostradores com ponteiros e 26,3% das questões relacionadas a calendários.
O pesquisador Rohit Saxena, responsável pela análise, aponta o raciocínio espacial como maior obstáculo. “Ler um relógio exige detectar ponteiros sobrepostos, medir ângulos e lidar com designs variados”, explica. Mesmo quando o modelo recebe a imagem de um relógio ou calendário, falta-lhe capacidade consistente para transformar elementos visuais em respostas corretas. Perguntas que envolvem contagem de dias, como “qual é o 153.º dia do ano?”, também provocam erros frequentes.
Interpretação visual e raciocínio lógico permanecem separados
As conclusões da equipa britânica reforçam que a integração de visão computacional com raciocínio lógico ainda não está totalmente resolvida. Modelos multimodais conseguem descrever cenas e identificar objetos, mas tropeçam quando a tarefa requer cálculos ou regras temporais precisas. Kulbashian compara o processo a “empilhar relógios sobre uma mesa”: quanto mais dados se adicionam, maior o risco de ultrapassar a capacidade de memória temporal do sistema, forçando a remoção de informações relevantes.
Imagem: Tecnologia e Inovação
Consequências práticas e próximos passos
A incapacidade de fornecer a hora correta pode parecer apenas um detalhe para utilizadores comuns, mas indica limitações mais abrangentes. Sistemas que auxiliam em agendamentos, gestão de fuso horário ou monitorização de processos em tempo real precisam de dados temporais exatos. Quando a IA falha nesses pontos, é necessário implementar camadas adicionais de verificação ou intervenção humana.
Os pesquisadores sugerem duas frentes de melhoria. A primeira consiste em permitir que a API que hospeda o modelo envie a hora atual no momento da consulta, preservando parte da janela de contexto para outras informações. A segunda envolve treinar redes especializadas em raciocínio espacial e temporal integradas ao modelo principal, de modo a aumentar a fiabilidade em tarefas como leitura de mostradores e cálculo de datas.
Apesar dos avanços anunciados pelas empresas, o estudo de Edimburgo reforça que sistemas baseados em linguagem ainda enfrentam desafios consideráveis quando a perceção visual precisa converter-se em respostas numéricas exatas. Como conclui Saxena, “a IA é poderosa, mas quando as tarefas misturam percepção com raciocínio preciso, ainda precisamos de testes rigorosos, lógica de contingência e, em muitos casos, um humano no processo”.





