您的位置:首页 >综合精选 >正文

英伟达Grace Hopper超级芯片在MLPerf推理基准测试中占据主导地位

摘要 NVIDIA凭借最新推出的 NVIDIA GH200 Grace Hopper 超级芯片,在人工智能 (AI) 和高性能计算领域引起了不小的轰动。最近的产品在 ML...

NVIDIA凭借最新推出的 NVIDIA GH200 Grace Hopper 超级芯片,在人工智能 (AI) 和高性能计算领域引起了不小的轰动。最近的产品在 MLPerf 基准测试中表现出出色的性能,展示了 NVIDIA 在云和边缘 AI 方面的实力。

具有意义的超级芯片

GH200 Superchip 并不是普通的芯片。它将 Hopper GPU 与 Grace CPU 独特地结合在一起,提供更高的内存、带宽以及在 CPU 和 GPU 之间自动调整功率的能力,以实现最佳性能。这种创新的集成让芯片在功耗和性能之间实现微妙的平衡,确保人工智能应用程序在需要时获得所需的资源。

出色的 MLPerf 结果

MLPerf 基准测试是一项受人尊敬的行业标准,NVIDIA 的 GH200 也没有让人失望。该超级芯片不仅运行了所有数据中心推理测试,还展示了 NVIDIA AI 平台的多功能性,将其范围从云操作扩展到网络边缘。

此外,NVIDIA 的 H100 GPU 也不甘落后。HGX H100 系统配备了 8 个 H100 GPU,在所有 MLPerf 推理测试中都展示了卓越的吞吐量。这突显了 H100 GPU 的巨大潜力和功能,特别是对于计算机视觉、语音识别、医学成像、推荐系统和大型语言模型 (LLM) 等任务。

TensorRT-LLM:增强推理性能

NVIDIA 始终走在持续创新的最前沿,TensorRT-LLM证明了这一传统。这款生成式人工智能软件可增强推理能力,并作为开源库提供。尽管它没有及时提交给 MLPerf 进行 8 月份的评估,但它还是有希望的,允许用户增强 H100 GPU 的性能,而不会产生额外的成本。Meta、Cohere 和 Grammarly 等合作伙伴从 NVIDIA 在增强 LLM 推理方面的努力中受益,重申了此类软件开发在 AI 领域的重要性。

根据最新的 MLPerf 基准测试,L4 GPU 在大量工作负载中表现出了值得称赞的性能。当这些 GPU 放置在紧凑型加速器中时,其性能指标比具有更高额定功率的 CPU 的效率高出六倍。专用媒体引擎的引入,与 CUDA 软件的配合,赋予了 L4 GPU 优势,尤其是在计算机视觉任务中。

突破界限:边缘计算等

这些进步不仅仅局限于云计算。NVIDIA 对边缘计算的重视在 Jetson Orin 模块系统中得到了体现,与之前的版本相比,其在对象检测方面的性能提升了高达 84%。

MLPerf:透明的基准测试标准

MLPerf 仍然是全球用户做出购买决策所依赖的客观基准。Microsoft Azure 和 Oracle Cloud Infrastructure 等云服务巨头,以及戴尔、联想和 Supermicro 等知名系统制造商的加入,凸显了 MLPerf 在行业中的重要性。

总之,NVIDIA 最近在 MLPerf 基准测试中的表现巩固了其在 AI 领域的领导地位。凭借广泛的生态系统、持续的软件创新以及对提供高质量性能的承诺,NVIDIA 确实正在塑造人工智能的未来。

如需更深入地了解 NVIDIA 成就的技术信息,请参阅链接的技术博客。那些热衷于复制 NVIDIA 基准测试成功的人可以从MLPerf 存储库和NVIDIA NGC 软件中心访问该软件。

版权声明:本文由用户上传,如有侵权请联系删除!