São Paulo, 26 de fevereiro de 2024. A Microsoft apresentou o Maia 200, o primeiro processador da empresa desenvolvido especificamente para aplicações de inteligência artificial. O componente, produzido em litografia de 3 nanômetros pela TSMC, faz parte da estratégia da companhia para reduzir custos internos, diminuir a dependência de fornecedores externos e disputar mercado com Nvidia e Google.
Foco em inferência e integração ao Azure
Segundo a Microsoft, o Maia 200 foi concebido para a etapa de inferência, momento em que modelos de IA processam pedidos de utilizadores para gerar textos, imagens ou vídeos. O novo hardware será disponibilizado por meio da plataforma de nuvem Azure, concorrente direta da AWS e do Google Cloud. Os primeiros lotes serão instalados em centros de dados na região central dos Estados Unidos, com expansão prevista para o Arizona.
A empresa planeia empregar o chip na sustentação do Copilot e no treino de futuros modelos de “superinteligência”. Ao incorporar aceleradores próprios à infraestrutura, a big tech pretende melhorar a economia de escala e oferecer, de acordo com seus testes, ganho de 30 % em eficiência custo-desempenho na comparação com as soluções atuais do mercado.
Capacidade de processamento e características técnicas
O Maia 200 reúne mais de 100 mil milhões de transístores e alcança 10 petaFLOPS em precisão de 4 bits (FP4). Esse resultado é três vezes superior ao Amazon Trainium de terceira geração e excede o rendimento em FP8 da sétima geração do TPU do Google.
Para lidar com cargas de trabalho de larga escala, o chip integra 216 GB de memória HBM3e e largura de banda de 7 TB/s, superando os 141 GB e 4,8 TB/s do GPU Nvidia H200. A estrutura térmica inclui um sistema de arrefecimento líquido de circuito fechado de segunda geração, projetado para dissipar o calor gerado pela elevada densidade de transístores.
Na interconexão, a Microsoft adotou rede baseada em Ethernet padrão em vez de protocolos proprietários. Com isso, a companhia busca simplificar a expansão de clusters e evitar custos adicionais em tecnologias exclusivas.
Imagem: Tecnologia & Inovação
Disputa com Nvidia e Google
O mercado de aceleradores para IA vive forte expansão desde que as GPUs da Nvidia se tornaram padrão para treino de modelos. O cenário ganhou novo capítulo quando o Google passou a oferecer suas próprias Unidades de Processamento Tensor (TPUs), utilizadas no desenvolvimento do Gemini 3 e já contratadas pela Meta para futuros treinos.
Ao revelar o Maia 200, a Microsoft entra oficialmente nesse segmento com capacidade de fabricação interna e planeia iterar rapidamente: gerações seguintes do processador já estão em fase de projeto. O movimento procura equilibrar custo, performance e disponibilidade num contexto em que a procura por GPUs tem provocado atrasos e aumento de preços.
Implantação e impacto financeiro
A implementação direta nos data centers do Azure deverá gerar economias operacionais significativas, uma vez que reduzirá a necessidade de adquirir placas Nvidia em grande volume. Além disso, a comercialização do Maia 200 como serviço dentro da nuvem permite à Microsoft oferecer soluções de IA integradas, criando atratividade para clientes corporativos que dependem de inferência rápida e estável.
De modo geral, a iniciativa reforça a tendência de verticalização de tecnologia entre as gigantes do setor, que buscam controlar todo o ciclo — do hardware ao software — para otimizar desempenho e custos. Com o Maia 200, a Microsoft acrescenta um novo competidor à lista de processadores especializados, pressionando ainda mais a dinâmica de preços e inovação nesse mercado.





