当地时间1月26日,微软正式推出第二代自研人工智能芯片Maia 200,这款以“为推理而生”为定位的AI加速器,是微软提升服务效率、降低第三方硬件依赖的核心举措。

Maia 200采用台积电3nm工艺制造,内置原生FP8/FP4张量核,单颗芯片集成超1400亿个晶体管,专为大规模AI工作负载打造,适配新一代低精度计算的大模型。单颗芯片在4位精度(FP4)下可提供超10 PetaFLOPS算力,8位精度(FP8)下算力超5 PetaFLOPS,热设计功耗控制在750W以内。存储层面,Maia 200配备216GB、带宽达7TB/s的HBM3e内存以及272MB片上SRAM;扩展端支持2.8TB/s双向专用扩展带宽,可在6144个加速器集群中实现可预测的高性能集合操作。
微软表示,Maia 200在多项测试中表现超越竞品:FP4性能为亚马逊第三代kaiyun开云Trainium的3倍有余,FP8性能超越谷歌第七代TPU,据此认为其在这些测试维度中展现出领先的性能表现。实际运行中,单块Maia 200即可流畅运行当前最大规模AI模型,同时为未来更大体量模型预留充足算力空间。
除性能优势外,Maia 200具备突出的成本效率,是微软迄今部署的最高效推理系统,每美元性能较最新一代硬件提升30%,可有效降低AI推理环节的运营成本。
部署进度方面,Maia 200已进入微软位于爱荷华州的数据中心,后续将部署至凤凰城地区。1月26日微软已邀请开发者开始使用Maia控制软件,但Azure云服务用户的正式启用时间尚未公布。此外,微软已启动后续产品Maia 300的设计工作,同时与OpenAI达成协议,可使用其新兴芯片设计方案。
当前,AI推理成本在云厂商整体运营中的占比持续提升,头部云厂商纷纷推出自研芯片,承接原本由英伟达GPU承担的计算任务,以降低硬件成本并提升服务适kaiyun开云配性。Maia 200服务器采用以太网连接4块芯片,替代英伟达InfiniBand标准,进一步减少对其相关产品的依赖。
市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。