冷静运行,极速扩展
借助 NVIDIA HGX™ Rubin 8-GPU AI 服务器

在下一代 AI 基础设施的激烈竞争中,效率、密度和可靠性已成为必不可少的要素。华硕通过搭载 HGX™ Rubin 的 XA NR1I-E12L 系列,提供经过优化的 NVIDIA HGX™ 架构——该系列专为大规模推理和生成式 AI 而打造。无论是液冷还是混合散热方案,它都能确保大规模生产、准时交付、更低的总体拥有成本(TCO)以及始终如一的性能。探索华硕与 NVIDIA 如何将 AI 愿景变为现实。
The ASUS AI POD, featuring the NVIDIA Rubin 8-GPU NVL8, set against a seamless sea and sky background

灵活且强劲的散热方案
混合散热 / 全液冷散热,随心选择

为满足现代数据中心严苛的需求,华硕隆重推出基于 NVIDIA HGX™ Rubin 平台打造的 XA NR1I-E12L 服务器系列。为了确保向液冷系统的无缝且经济高效的过渡,华硕提供了两套针对您的基础设施需求量身定制的解决方案。

XA NR1I-E12L

混合散热

该创新设计将高性能 NVIDIA HGX™ Rubin 8-GPU 底板的直接芯片液冷(D2C)技术,与双 Intel® Xeon® 6 处理器的高效风冷技术相结合,在性能与易用性之间实现上佳平衡。

XA NR1I-E12LR

全液冷

该系统采用全液冷设计,旨在实现更高的热效率和密度,是处理高密度环境下严苛的人工智能工作负载的解决方案。
A product shot of the 3U ASUS XA NR1I-E12L series server.
了解更多 右箭头

AI 创新引擎, NVIDIA HGX™ Rubin NVL8

ASUS XA NR1I-E12L 系列专为大规模 AI 模型训练而设计,在训练和推理性能方面实现了质的飞跃。
A close-up view of the NVIDIA Rubin 8-GPU NVL8.

2.3kW

强劲的 GPU 性能

800G

疾速 GPU 带宽

模块化 GPU 托架

专为易于维护而设计

通过模块化架构和快速维护能力更大限度地提高设备运行时间

ASUS XA NR1I-E12L 系列采用模块化设计理念,旨在更大限度地减少停机时间。CPU 托架和 NVIDIA Rubin GPU 托架等组件均采用免工具拆装设计,从而加快维护和升级速度。这种对快速可维护性的重视,有效减少了运营中断,并降低了总体拥有成本。
An illustration color-coding the modular CPU and GPU sleds within the ASUS XA NR1I-E12LR.

模块化 CPU 组件

独立 GPU 托架

基于 NVIDIA HGX™ Rubin 平台的机架级参考架构

借助华硕 AI 工厂参考架构,可从单台服务器无缝扩展至完全集成的 AI 强力平台。该预验证配置确保在机架级别实现快速部署和性能优化。

开拓 AI 全新疆域

无论是单台系统还是整机架,华硕都能为您实现AI愿景提供基础构建模块。我们基于 NVIDIA HGX™ Rubin 平台的下一代散热解决方案,不仅能降低部署难度,更能助您构建值得信赖、性能强劲且可扩展的未来AI基础设施。
A cluster of ASUS AI infrastructure racks set against an expansive blue background.

FAQ

  • 混合液冷和全液冷 HGX™ Rubin 服务器之间有什么区别?
    混合液冷和全液冷 HGX™ Rubin 服务器之间有什么区别?XA NR1I-E12L (混合散热): 该方案将NVIDIA HGX™ 8-GPU主板的液冷系统与CPU的风冷系统相结合,是实现向液冷系统平稳过渡的理想选择。
    XA NR1I-E12LR (全液冷散热): 为要求严苛的数据中心提供全液体散热方案,以实现上佳的散热性能和密度。