Microsoft lança o Maia 200, um acelerador de IA com desempenho superior a soluções da Amazon e Google

A Microsoft anunciou o lançamento do Maia 200, o seu novo acelerador de Inteligência Artificial (IA) concebido especificamente para inferência, prometendo ganhos significativos de desempenho e eficiência de custos na execução de modelos de grande escala.

André Manuel Mendes
Janeiro 26, 2026
16:00

A Microsoft anunciou o lançamento do Maia 200, o seu novo acelerador de Inteligência Artificial (IA) concebido especificamente para inferência, prometendo ganhos significativos de desempenho e eficiência de custos na execução de modelos de grande escala.

Desenvolvido com tecnologia de 3 nanómetros da TSMC, o Maia 200 integra mais de 100 mil milhões de transístores e foi optimizado para computação de baixa precisão, essencial para workloads modernos de IA. Cada chip oferece mais de 10 petaFLOPS em precisão FP4 e cerca de 5 petaFLOPS em FP8, permitindo executar os maiores modelos actuais com margem para futuras evoluções. De acordo com a Microsoft, o Maia 200 apresenta três vezes mais desempenho em FP4 do que a terceira geração do Amazon Trainium e supera a performance FP8 da sétima geração das TPUs da Google.

Um dos principais destaques está no subsistema de memória, que combina 216 GB de HBM3e, com uma largura de banda de 7 TB/s, 272 MB de SRAM on-chip e motores dedicados de movimentação de dados. Esta arquitectura reduz a necessidade de múltiplos dispositivos para executar grandes modelos, melhorando a eficiência global do sistema. No total, a Microsoft afirma que o Maia 200 oferece uma melhoria de 30% na relação desempenho/preço face às soluções actualmente em produção, tornando-se o sistema de inferência mais eficiente alguma vez implementado pela empresa.

Ao nível da infraestrutura, o Maia 200 introduz um novo modelo de escala em dois níveis, assente em Ethernet standard, dispensando redes proprietárias. Cada acelerador disponibiliza 1,4 TB/s de largura de banda dedicada, permitindo operações colectivas previsíveis e de alto desempenho em clusters com até 6.144 aceleradores. Esta abordagem visa reduzir o consumo energético e o custo total de propriedade (TCO) nos centros de dados da Azure.

O Maia 200 será inicialmente utilizado pela equipa de Microsoft Superintelligence, nomeadamente para geração de dados sintéticos e aprendizagem por reforço aplicada a modelos internos de próxima geração. A tecnologia irá também suportar workloads no Microsoft Foundry e no Microsoft 365 Copilot, integrando-se na estratégia de infraestrutura de IA híbrida da empresa, com disponibilidade mais alargada para clientes prevista para o futuro.

Segundo Scott Guthrie, vice-presidente executivo da área de Cloud e IA da Microsoft, o Maia 200 representa um passo decisivo na optimização de modelos de IA à escala da cloud.

 

 

 

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.