A Microsoft anunciou o lançamento do Maia 200, o seu novo acelerador de Inteligência Artificial (IA) concebido especificamente para inferência, prometendo ganhos significativos de desempenho e eficiência de custos na execução de modelos de grande escala.
Desenvolvido com tecnologia de 3 nanómetros da TSMC, o Maia 200 integra mais de 100 mil milhões de transístores e foi optimizado para computação de baixa precisão, essencial para workloads modernos de IA. Cada chip oferece mais de 10 petaFLOPS em precisão FP4 e cerca de 5 petaFLOPS em FP8, permitindo executar os maiores modelos actuais com margem para futuras evoluções. De acordo com a Microsoft, o Maia 200 apresenta três vezes mais desempenho em FP4 do que a terceira geração do Amazon Trainium e supera a performance FP8 da sétima geração das TPUs da Google.
Um dos principais destaques está no subsistema de memória, que combina 216 GB de HBM3e, com uma largura de banda de 7 TB/s, 272 MB de SRAM on-chip e motores dedicados de movimentação de dados. Esta arquitectura reduz a necessidade de múltiplos dispositivos para executar grandes modelos, melhorando a eficiência global do sistema. No total, a Microsoft afirma que o Maia 200 oferece uma melhoria de 30% na relação desempenho/preço face às soluções actualmente em produção, tornando-se o sistema de inferência mais eficiente alguma vez implementado pela empresa.
Ao nível da infraestrutura, o Maia 200 introduz um novo modelo de escala em dois níveis, assente em Ethernet standard, dispensando redes proprietárias. Cada acelerador disponibiliza 1,4 TB/s de largura de banda dedicada, permitindo operações colectivas previsíveis e de alto desempenho em clusters com até 6.144 aceleradores. Esta abordagem visa reduzir o consumo energético e o custo total de propriedade (TCO) nos centros de dados da Azure.
O Maia 200 será inicialmente utilizado pela equipa de Microsoft Superintelligence, nomeadamente para geração de dados sintéticos e aprendizagem por reforço aplicada a modelos internos de próxima geração. A tecnologia irá também suportar workloads no Microsoft Foundry e no Microsoft 365 Copilot, integrando-se na estratégia de infraestrutura de IA híbrida da empresa, com disponibilidade mais alargada para clientes prevista para o futuro.
Segundo Scott Guthrie, vice-presidente executivo da área de Cloud e IA da Microsoft, o Maia 200 representa um passo decisivo na optimização de modelos de IA à escala da cloud.














