A Microsoft anunciou nesta segunda-feira (26) o Maia 200, novo chip acelerador de inferência projetado para “mudar drasticamente a economia da IA em larga escala”. Com ele, usuários da plataforma Azure poderão executar modelos de maneira mais rápida e sem gastos elevados.
Inicialmente previsto para estrear em 2025, o sucessor do Maia 100 é construído no processo de 3 nm da TSMC com núcleos tensores nativos FP8/FP4 e mecanismos de movimentação de dados para manter o melhor desempenho dos modelos. A novidade será implantada a partir desta semana nos data centers da big tech.
Nossos vídeos em destaque
Desempenho avançado para superar concorrentes
Com mais de 100 bilhões de transistores, cada chip Maia 200 entrega mais de 10 petaFLOPS em precisão de 4 bits (FP4) e aproximadamente 5 petaFLOPS em precisão de 8 bits (FP8). Isso é o suficiente para executar com facilidade os maiores modelos de IA atuais, como explicou a gigante de Redmond.
- O novo processador de IA da Microsoft também está preparado para lidar com futuros modelos maiores, sendo considerado o sistema de inferência mais eficiente desenvolvido pela marca;
- Cada acelerador oferece 1,4 TB/s de largura de banda dedicada de escala, para operações de alto desempenho em clusters de até 6.144 aceleradores;
- Na rede unificada, quatro processadores se conectam via links diretos e não comutados, usando o protocolo Maia AI para escalonamento contínuo, simplificando a programação e melhorando a flexibilidade de cargas de trabalho;
- A novidade também se caracteriza pela capacidade de manter os dados localmente, reduzindo a quantidade de dispositivos necessária para executar um modelo.
)
De acordo com a empresa, a nova geração de chips de IA fornece três vezes mais desempenho em FP4 do que o acelerador Amazon Trainium da AWS, além de superar a sétima geração do TPU do Google em performance FP8. Ela entrega, ainda, desempenho por dólar 30% melhor que os sistemas atuais.
“A integração nativa com o plano de controle do Azure oferece segurança, telemetria, diagnósticos e recursos de gerenciamento tanto no nível do chip quanto do rack, maximizando confiabilidade e tempo de atividade para cargas de trabalho críticas de IA em produção”, explicou a companhia, em comunicado.
Equipe de superinteligência estreia o chip Maia 200
Integrantes da Microsoft Superintelligence, divisão de superinteligência da gigante da tecnologia, serão os primeiros a usar o processador. A plataforma vai agilizar a geração de dados sintéticos e aprendizado por reforço, aprimorando os modelos de próxima geração da empresa.
Nesses trabalhos, o chip acelera a taxa na qual dados de alta qualidade e específicos de domínio, como texto, instruções ou código, são gerados e filtrados. Assim, os especialistas conseguem realizar o treinamento com sinais mais recentes e direcionados.
Uma prévia do sistema também será disponibilizada para desenvolvedores, com softwares integrados e modelo de programação espacial, permitindo que eles contribuam com a otimização dos chips Maia 200.
Curtiu o conteúdo? Siga acompanhando o TecMundo para conferir as últimas novidades de tecnologia.
)
)
)
)
)
)
)