Logo TecMundo
The BRIEF

Maia 200: Microsoft anuncia novo chip acelerador de IA com mais eficiência

Com a nova geração do acelerador de inferência, usuários da plataforma Azure poderão executar modelos de IA mais rápido e com gastos reduzidos.

Avatar do(a) autor(a): André Luiz Dias Gonçalves

schedule26/01/2026, às 13:00

A Microsoft anunciou nesta segunda-feira (26) o Maia 200, novo chip acelerador de inferência projetado para “mudar drasticamente a economia da IA em larga escala”. Com ele, usuários da plataforma Azure poderão executar modelos de maneira mais rápida e sem gastos elevados.

Inicialmente previsto para estrear em 2025, o sucessor do Maia 100 é construído no processo de 3 nm da TSMC com núcleos tensores nativos FP8/FP4 e mecanismos de movimentação de dados para manter o melhor desempenho dos modelos. A novidade será implantada a partir desta semana nos data centers da big tech.

smart_display

Nossos vídeos em destaque

Desempenho avançado para superar concorrentes

Com mais de 100 bilhões de transistores, cada chip Maia 200 entrega mais de 10 petaFLOPS em precisão de 4 bits (FP4) e aproximadamente 5 petaFLOPS em precisão de 8 bits (FP8). Isso é o suficiente para executar com facilidade os maiores modelos de IA atuais, como explicou a gigante de Redmond.

  • O novo processador de IA da Microsoft também está preparado para lidar com futuros modelos maiores, sendo considerado o sistema de inferência mais eficiente desenvolvido pela marca;
  • Cada acelerador oferece 1,4 TB/s de largura de banda dedicada de escala, para operações de alto desempenho em clusters de até 6.144 aceleradores;
  • Na rede unificada, quatro processadores se conectam via links diretos e não comutados, usando o protocolo Maia AI para escalonamento contínuo, simplificando a programação e melhorando a flexibilidade de cargas de trabalho;
  • A novidade também se caracteriza pela capacidade de manter os dados localmente, reduzindo a quantidade de dispositivos necessária para executar um modelo.
chip-microsoft-maia-200
As capacidades avançadas do chip de IA Maia 200 estarão disponíveis no Azure. (Imagem: Microsoft/Divulgação)

De acordo com a empresa, a nova geração de chips de IA fornece três vezes mais desempenho em FP4 do que o acelerador Amazon Trainium da AWS, além de superar a sétima geração do TPU do Google em performance FP8. Ela entrega, ainda, desempenho por dólar 30% melhor que os sistemas atuais.

“A integração nativa com o plano de controle do Azure oferece segurança, telemetria, diagnósticos e recursos de gerenciamento tanto no nível do chip quanto do rack, maximizando confiabilidade e tempo de atividade para cargas de trabalho críticas de IA em produção”, explicou a companhia, em comunicado.

Equipe de superinteligência estreia o chip Maia 200

Integrantes da Microsoft Superintelligence, divisão de superinteligência da gigante da tecnologia, serão os primeiros a usar o processador. A plataforma vai agilizar a geração de dados sintéticos e aprendizado por reforço, aprimorando os modelos de próxima geração da empresa.

Nesses trabalhos, o chip acelera a taxa na qual dados de alta qualidade e específicos de domínio, como texto, instruções ou código, são gerados e filtrados. Assim, os especialistas conseguem realizar o treinamento com sinais mais recentes e direcionados.

Uma prévia do sistema também será disponibilizada para desenvolvedores, com softwares integrados e modelo de programação espacial, permitindo que eles contribuam com a otimização dos chips Maia 200.

Curtiu o conteúdo? Siga acompanhando o TecMundo para conferir as últimas novidades de tecnologia.