浪潮机架式服务器_MLPerf Inference v2.1 结果与许多新的 AI 硬件

Admin 856 2022-09-16 12:07

虽然 MLPerf 训练主要是 NVIDIA 的基准,但 MLPperf 推理更有趣。这次的 MLPerf Inference v2.1 结果包括多项新技术,包括英特尔为下一代 AI 推理加速器设定了底线,以及来自 NVIDIA、Biren、Moffett 等公司的新加速器选项。


1.jpg

MLPerf Inference v2.1 结果预览下一代 AI 技术

我们将重点关注 MLPerf Inference v2.1 开放数据中心和封闭数据中心结果。Open 类别中有许多有趣的解决方案。


2.jpg

在最新的开放数据中心类别中,有阿里巴巴亿天710芯片。这些是我们之前介绍的新 Arm CPU。在开放类别中,这些不需要做相同的数学运算,因此无法将它们与封闭类别进行比较,但这仍然是一个有趣的结果。


另一个有趣的是 Moffett S4、S10 和 S30 PCIe 加速器。再来看看S4:


3.jpg

与许多其他解决方案一样,Moffett 在其设计中利用了稀疏性,因此这可能就是为什么它们属于开放类别而不是封闭类别的原因,因为在开放类别中如何利用它有更多的余地。


谈到封闭类别,我们看到了一些不错的结果,但也有一些有趣的结果。


4.jpg

NVIDIA 展示了新的 H100。随着时间的推移,NVIDIA 的结果往往会变得更好,因此使用 Xeon Silver 4314 和 EPYC 7252 的新结果在这一点上看起来不错。


有趣的结果之一是 Sapeon X220。这些已安装在 Supermicro 服务器上,是这次将使用 MLPerf Inference 测试的一些老一代技术。尽管如此,看到这个硬件还是很有趣的。


Biren BR100“BR104-300W PCIe”在浪潮NF5468M6服务器中出现。8x PCIe 解决方案看起来好像最终会介于 NVIDIA A100 和 H100 之间,这对于第一个 GPU 架构加速器来说是相当惊人的。这让人有点好奇,Biren 是如何与 AMD 和 Intel 等公司相比如此迅速地做到这一点的。该公司只提交了 ResNet 和 BERT 99.9 结果,但它们肯定是有希望的。


5.jpg

英特尔为下一代推理奠定了基础。Sapphire Rapids 2-socket 结果使用了 PyTorch,但它也显示了与 NVIDIA A2 或更高版本的推理性能,具体取决于基准。英特尔并未提交所有测试,但暗示随着下一代加速的发展,为了获得一些推理能力而部署具有单个 <60W PCIe 推理加速器的 1U 服务器的旧模式可能会被淘汰。虽然可以将 PCIe 和其他外形尺寸扩展到每个系统的更高性能,但在每个 CPU 中实现推理加速是一件大事。这就是我们在 2022-2023 年将 AMD Arm 和 Intel 服务器 CPU 称为更多核心更好的部分原因。


6.jpg

高通再次推出 Cloud AI 100。高通表示需求量很大。从我们所看到的情况来看,服务器供应商希望他们的服务器通过 NVIDIA 进行审查,其中一些使用 AMD GPU,但我们尚未收到测试基于 Qualcomm 的解决方案的请求。通常我们看到的是市场动能的指标。我们看到罗马一代对 EPYC 产生了浓厚的兴趣,这就是一个例子。


7.jpg

我们想要指出的一个荣誉奖是 NVIDIA Jetson AGX Orin,尤其是在封闭边缘类别中。


这是我们几个月前看到的,但在这一代中,它的每瓦性能提高了 50%。


这是 NVIDIA 软件随着时间的推移变得更好的一个例子。


最后的话

MLPerf 推理中肯定有很多有趣的硬件。这可能是训练方面不那么有趣,但推理方面越来越有趣的情况。理论上,推理市场最终会比训练市场大得多,所以这也许是有道理的。如果您确实想深入研究结果,MLCommons 会在线发布其完整结果。


【公司名称】四川旭辉星创科技有限公司

【代理级别】成都浪潮Inspur服务器总代理

【销售经理】李经理

【联系方式】座机:028-85596747    手机:13540160369

【公司地址】成都市人民南路4段 桐梓林 商鼎国际2号楼1单元1913

联系我们
您好,咨询客服了解更多促销产品
售前优惠在线咨询
QQ咨询
微信咨询
售前优惠电话咨询专线:
13438344046
售后电话咨询专线:
028-85596747

请用微信扫描二维码

0.591514s