A Microsoft revelou a segunda geração do seu processador de inteligência artificial, o Maia 200, e um conjunto de ferramentas de software voltadas a desenvolvedores que buscam alternativas ao ecossistema da Nvidia. O anúncio foi feito nesta segunda-feira (26) em San Francisco e marca um novo passo da empresa na estratégia de produzir soluções próprias para cargas de trabalho avançadas de IA.
Novo chip entra em operação nos Estados Unidos
O Maia 200 já está em funcionamento num centro de dados situado no Estado de Iowa, nos Estados Unidos. A Microsoft informou que planeja ativar um segundo local, no Arizona, ao longo dos próximos meses. A primeira geração desse chip chegou ao mercado em 2023 e, segundo a companhia, o novo modelo traz melhorias de desempenho e de eficiência energética.
Fabricado pela Taiwan Semiconductor Manufacturing Co. (TSMC) em processo de 3 nanômetros, o Maia 200 utiliza módulos de memória de alta largura de banda. Essa abordagem é semelhante à adotada pela linha “Vera Rubin”, que a Nvidia anunciou no início de janeiro, embora a Microsoft tenha optado por uma geração de memória anterior e menos veloz do que a prevista para os futuros chips da rival.
Além da TSMC, outras fornecedoras de componentes de memória participam do projeto, mas a Microsoft não divulgou suas identidades. A empresa também adicionou uma grande quantidade de SRAM — memória estática embutida no próprio silício — para acelerar o processamento de solicitações simultâneas, cenário frequente em chatbots e assistentes baseados em IA generativa.
Pacote de software desafia domínio da Nvidia
Junto com o novo hardware, a Microsoft disponibilizou um conjunto de ferramentas destinado a simplificar o desenvolvimento de modelos de IA no Maia 200. O destaque é o suporte oficial ao Triton, projeto de código aberto que recebeu contribuições significativas da OpenAI. O framework executa funções semelhantes às do CUDA, plataforma proprietária da Nvidia considerada por analistas como a principal vantagem competitiva da empresa no segmento de IA.
A inclusão do Triton pretende reduzir a dependência dos programadores em relação ao ecossistema da Nvidia, oferecendo rotas de migração mais diretas para quem já possui modelos ou pipelines construídos em CUDA. A Microsoft também integra o Triton ao Azure, permitindo que clientes utilizem o chip Maia 200 por meio de serviços de nuvem sem alterar radicalmente seus fluxos de trabalho.
Contexto competitivo entre gigantes da nuvem
Grandes provedores de computação em nuvem, como Microsoft, Google e Amazon Web Services, figuram entre os maiores compradores das placas de IA da Nvidia. Contudo, esses mesmos clientes intensificam os investimentos em chips próprios para reduzir custos, controlar a oferta de recursos e otimizar integrações com seus portfólios de software.
O movimento ganhou impulso nos últimos dois anos. A Google expandiu a família TPU; a Amazon desenvolveu os processadores Trainium e Inferentia; agora, a Microsoft consolida o Maia como pilar da sua estratégia de IA. Embora tais projetos não substituam completamente as GPUs da Nvidia, eles permitem diversificar fornecedores e negociar preços de maneira mais equilibrada.
Imagem: Tecnologia Inovação Notícias
Tendências de design: SRAM ganha destaque
A decisão de incorporar grandes blocos de SRAM segue uma tendência observada em empresas emergentes que buscam otimizar desempenho em inferência de IA. A Cerebras Systems, que assinou um contrato estimado em US$ 10 bilhões para abastecer a OpenAI, e a Groq, startup que licenciou tecnologia à Nvidia em acordo avaliado em US$ 20 bilhões, também utilizam esse tipo de memória para agilizar o acesso a dados críticos durante a execução de modelos de linguagem.
No Maia 200, a SRAM operará lado a lado com a memória de alta largura de banda externa, formando uma hierarquia projetada para reduzir latências em cenários de grande paralelismo. Segundo engenheiros da Microsoft, a combinação ajuda a manter a consistência de desempenho mesmo quando milhares de requisições são processadas simultaneamente.
Próximos passos e disponibilidade
A Microsoft não revelou metas de produção nem projeções sobre a participação do Maia 200 na infraestrutura global do Azure. A companhia apenas confirmou que o chip estará acessível a clientes corporativos por meio de serviços de instância dedicados e deverá ser expandido para outras regiões depois do Arizona.
Ainda não há informações sobre o custo por hora de uso nem comparativos oficiais de performance em relação às GPUs A100 ou H100, da Nvidia. No entanto, a Microsoft indicou que novas métricas serão divulgadas assim que o Maia 200 entrar em operação em escala comercial.
Com esses lançamentos, a empresa reforça a estratégia de controlar todo o stack de IA — do hardware ao serviço na nuvem — numa disputa direta com concorrentes que seguem o mesmo caminho. A adoção de padrões abertos, como o Triton, sinaliza uma tentativa de atrair a comunidade de desenvolvedores e consolidar um ecossistema capaz de enfrentar o domínio histórico da Nvidia.





