近日,英伟达推出了一款用于人工智能工作的顶级芯片HGX H200。新的GPU升级了需求巨大的H100,内存带宽增加了1.4倍,内存容量增加了1.8倍,提高了其处理密集生成人工智能工作的能力。
在备受瞩目的人工智能领域,英伟达提到,H200将带来进一步的性能飞跃。在Llama 2上的推理速度比H100快了一倍。未来的软件更新预计会给H200带来额外的性能领先优势和改进。
H200将在具有四路和八路配置的英伟达HGX H200服务器主板中提供,并与HGX H100系统的硬件和软件兼容。
大型计算机制造商和云服务提供商预计将于明年第二季度开始使用H200。亚马逊的AWS、Alphabet公司的谷歌云、微软Azure和甲骨文的云基础设施,都承诺从明年开始使用这款新芯片。
英伟达高性能计算产品副总裁Ian Buck在近日的视频演示中表示:“更快、更广泛的HBM内存集成有助于提高计算需求任务的性能,包括生成人工智能模型和[高性能计算]应用程序,同时优化GPU利用率和效率。”,H200还与已经支持H100的相同系统兼容。英伟达表示,云提供商在将H200添加到混合中时不需要做出任何更改。亚马逊、谷歌、微软和甲骨文的云计算部门将在明年率先提供新的GPU。
一旦推出,新芯片肯定会很贵。英伟达没有列出它们的价格,但据美国消费者新闻与商业频道报道,上一代H100的售价估计在25000至40000美元之间,其中数千台需要在最高水平上运行。并且,价格由英伟达的合作伙伴决定。
伴随着人工智能的火爆,英伟达的高端GPU需求量极大。这也令其他芯片制造商瞄准这一利润丰厚的市场,加快推出高品质的AI芯片,整个AI芯片市场竞争相当激烈。英伟达此举旨在巩固其在AI计算市场的主导地位。