>
  • AI 颠覆您的想象力
    • AI 颠覆你的想象力
    • ASUS ESC AI POD
      NVIDIA® GB200 NVL72
      • 36 个 NVIDIA Grace CPU 超级芯片
      • 72 个 NVIDIA Blackwell Tensor Core GPU
      • 第5代 NVIDIA NVLink 技术
      • 支持 NVIDIA 万亿参数 LLM 训练和推理
      • 支持大规模生态圈
      • 华硕基础设施部署管理软件
      • 端对端服务
  • NVIDIA Blackwell GPU 性能飙升

    ASUS AI POD 拥有 72 个 NVIDIA Blackwell GPU,每个 GPU 拥有 2080 亿个晶体管。NVIDIA Blackwell GPU 采用两个接近光罩极限的芯片,由 10 TB/s 的芯片间互联,形成统一的单 GPU。

    • 30倍
      大型语言模型 (LLM) 推理
      VS.

      NVIDIA H100 Tensor Core GPU

    • 4倍
      大型语言模型 (LLM) 训练
      VS.

      H100

    • 25倍
      节能
      VS.

      H100

    • 18倍
      数据处理
      VS.

      CPU

    • 大型语言模型 (LLM) 推理和能效: 实时延迟 (TTL) = 50 毫秒 (ms), 故障转移时间 (FTL) = 5 秒, 32,768 输入/1,024 输出, NVIDIA HGX™ H100 scaled over InfiniBand (IB) vs. GB200 NVL72, 训练 1.8T MOE 4096x HGX H100 scaled over IB vs. 456x GB200 NVL72 scaled over IB. 集群规模: 32,768
    • 数据库连接和聚合工作负载,使用来自 TPC-H Q4 查询的 Snappy/Deflate 压缩。 自定义查询执行 x86, H100 单个 GPU 和单个 GPU 由 GB200 NLV72 vs. Intel Xeon 8480+
    • 此为预计性能,之后将有可能更新。
  • 超越硬件
    华硕软件驱动的解决方案

    华硕致力于打造量身定制的数据中心解决方案,提供从混合服务器到边缘计算部署的全方位服务,助您在竞争中脱颖而出。我们不仅提供硬件设备,还提供全套软件解决方案。我们的软件驱动方式涵盖系统验证和远程部署,确保系统的稳定运行并加速 AI 开发。

  • 解锁单机架的 AI 新突破
  • 快速流畅地通讯
    第5代 NVLink 技术 NVIDIA GB200 NVL72

    NVIDIA NVLink 交换机搭载 144 个接口,拥有每秒 14.4 TB 的 Switch 容量,可让 9 个交换机与单个 NVLink 网域内 72 个 NVIDIA Blackwell GPU 的 NVLink 接口进行互连。

    • 单个计算单元中的 NVLink 连接旨在确保与所有 GPU 直连

    • 单机架内 NVLink 连接

  • 优化效率,减少热量
    液冷架构
    • ASUS AI POD 单个计算托盘的冷/热水流。

    • 我们的解决方案是从单柜式 ASUS AI POD,到整个数据中心,再延伸至冷却塔,进行优化散热效率,进而完成水循环。我们提供液冷或液对液散热解决方案,以确保高效的散热。

  • 降低能源浪费,优化总体拥有成本
    华硕电源配电板
    电源配电板 将 48V DC转换为 NVIDIA Blackwell GPU 所需的 12V DC
    • $1000

      每年每个机架可节省高达 1,000 美元的电费,以实现优化投资并降低维护成本

    • 35°C

      温度降低约 35°C

    • 11.3倍

      提升 11.3 倍 PDB 使用寿命