O diretor-executivo da Nvidia, Jensen Huang, anunciou que a próxima linha de processadores gráficos e centrais da empresa já se encontra em plena produção. A declaração foi feita nesta segunda-feira, durante apresentação na Consumer Electronics Show (CES), em Las Vegas, Estados Unidos.
Capacidade computacional amplia-se em até cinco vezes
Segundo Huang, os novos componentes oferecem potência cerca de cinco vezes superior à dos modelos anteriores quando aplicados a tarefas de inteligência artificial. O avanço resulta, em grande parte, de um formato proprietário de dados criado pela Nvidia para maximizar a eficiência dos chips sem demandar aumentos proporcionais no número de transístores. Nesse sentido, a arquitetura alcança o desempenho pretendido com apenas 1,6 vez mais transístores em comparação à geração antecedente.
A plataforma batizada de Vera Rubin reúne seis chips diferentes. O módulo principal incorpora 72 unidades gráficas (GPUs) de alto desempenho e 36 processadores centrais (CPUs). Esses elementos podem ser interligados em agrupamentos — chamados pela empresa de “pods” — que ultrapassam mil chips Rubin, ampliando a escala para centros de dados que treinam e executam modelos de IA de grande porte.
Foco em aplicações de IA para milhões de utilizadores
Embora mantenha posição dominante no treino de modelos de inteligência artificial, a Nvidia enfrenta concorrência crescente na etapa de execução (inferência), na qual esses modelos são disponibilizados a utilizadores finais via chatbots ou outras aplicações. Rivais tradicionais, como AMD, e clientes que desenvolvem os próprios chips, como o Google, intensificam essa disputa.
Para atender ao volume de acessos simultâneos em serviços baseados em IA, os novos chips trazem uma camada adicional de memória, definida como “armazenamento de contexto”. A tecnologia visa reduzir a latência em diálogos longos entre chatbots e utilizadores, mantendo respostas rápidas mesmo sob grande carga de consultas.
Rede de alta velocidade com óptica co-embalada
Além dos processadores, a Nvidia apresentou uma geração renovada de switches de rede. O produto adota conexões com “co-packaged optics”, sistema que integra componentes ópticos diretamente no encapsulamento dos chips para elevar a largura de banda e reduzir consumo energético. A solução disputa mercado com ofertas de Broadcom e Cisco Systems, empresas tradicionalmente voltadas ao setor de redes de alto desempenho.
Imagem: Internet
Abertura de modelo para veículos autónomos
No segmento automotivo, Huang divulgou o modelo de IA Alpamayo, capaz de auxiliar veículos autónomos na tomada de decisões em tempo real. A companhia disponibilizará não apenas o código-fonte do software, mas também o conjunto completo de dados utilizado no treino, intenção declarada de aumentar a transparência e permitir que montadoras avaliem o processo de desenvolvimento.
Previsão de disponibilidade e iniciativas futuras
A plataforma Vera Rubin, que incorpora os novos chips, tem lançamento comercial previsto para o final deste ano. De acordo com executivos da Nvidia, unidades preliminares já estão em laboratórios da companhia e de parceiros a fim de realizar validações e otimizações finais.
Huang salientou que a empresa continua a investir em tecnologias voltadas a grandes modelos de linguagem, condução autónoma e infraestrutura de data centers. A expectativa é reforçar a posição da Nvidia num mercado em transformação acelerada pelo crescimento da IA generativa.
Com a produção em massa iniciada, os primeiros clientes corporativos devem receber lotes dos novos processadores ainda no segundo semestre. A adopção deverá definir, nos próximos trimestres, o impacto real do avanço de desempenho prometido e o nível de aceitação das inovações de memória, interconexão e processamento anunciadas pela empresa.





