微软发布自研AI芯片——Azure Maia100

2023-11-17

微软自研AI 芯片传闻未曾停过,在一年一度Microsoft Ignite 2023 大会上,终于发布了用于数据中心的AI 芯片Azure Maia 100 和云端运算处理器Azure Cobalt 100。
Azure Maia 是一款AI 加速器芯片,用于OpenAI 模型、ChatGPT、Bing、GitHub Copilot 等AI 工作负载,Azure Maia 100 则是该系列第一代产品,采取5 纳米制程生产。
Azure Cobalt 为Arm 架构的云端运算处理器,配备128 个运算核心,与目前几代Azure Arm 芯片相比,效能提升40%,为Microsoft Teams、Azure SQL 等服务提供支援,这2 款芯片均由台积电生产,微软已在设计第二代版本。
领导团队开发新芯片的微软AHSI(Azure Hardware Systems and Infrastructure)副总裁Rani Borkar 指出,微软已在Bing 和Office 产品测试新款AI 芯片,微软主要AI 合作伙伴、ChatGPT 开发商OpenAI 也以GPT 3.5 Turbo 进行测试。Azure Maia 和Azure Cobalt 预计明年初正式用于微软数据中心,成为Azure 云端运算服务的一部分。
Rani Borkar 接受外媒采访表示,对具规模的微软而言,优化和整合硬件的每个要素可提供最佳运算效能,同时避免供应链瓶颈,Azure Maia 和Azure Cobalt 可为客户提供基础设施新的选择。
自研芯片可获得硬件性能和价格优势,同时避免公司过度依赖任何一家供应商。目前AI 产业高度依赖NVIDIA GPU 因此凸显问题,亚马逊和Google 已有自研芯片的具体成果,亚马逊2015 年收购以色列芯片新创Annapurna Labs,为客户提供云端和AI 芯片的服务,Google 从2018 年起允许客户采用自研芯片TPU(Tensor Processing Unit),微软急起直追终于跟上脚步。
除此之外,微软称,作为定制芯片的补充,微软正在拓展与芯片供应商的合作伙伴关系,为客户提供基础设施选项。
微软表示,将在微软智能云Azure中添加AMD MI300X加速虚拟机(VMs)。ND MI300虚拟机(VMs)将采用AMD最新的GPU——AMD Instinct MI300X,旨在加速AI工作负载的处理,以实现高范围的AI模型训练和生成式推理。
为英伟达H100 Tensor Core GPU打造的全新NC H100 v5虚拟机系列开放预览,将提高大中型AI训练和生成式推理的性能、可靠性和效率。微软称还发布了ND H200 v5虚拟机系列计划,这是一款AI优化虚拟机,配备了即将推出的英伟达H200 Tensor Core GPU。
微软过去曾开发客制化芯片,包括与AMD 合作设计Xbox 处理器,以及为HoloLens 和Xbox Kinect 运动控制器开发专用芯片。随着Azure Maia 和Azure Cobalt 正式发表,微软自研芯片版图更加完整。

文章推荐

相关推荐