从数据到 Token

ASUS AI 工厂提供大规模智能

ASUS AI 基础架构数据中心信息图的等距插图,包括三座战机塔、两排 GPU 服务器、带有大型显示屏的中央控制中心、云服务和存储设备的图标,以及与技术协作和互动的人群--传达出高科技和动态的环境。
  • ASUS AI 工厂将原始数据转化为可操作的智能,并将想法扩展为现实世界的AI解决方案,从而将创新变为现实。华硕提供全面的AI解决方案,推动持续创新并保持优势。作为一家AI公司,华硕致力于通过设计思维将AI融入我们业务的方方面面,打造智能和可持续发展的未来。我们的跨产品组合正在帮助引领AI的普及,确保用户能从AI带来的可能性中受益。

    迎向智能未来、开创无限可能

    华硕展示了超越PC的整体AI生态系统,为不同细分市场的用户赋能。这一生态系统由强大的AI基础设施提供支持,包括可扩展的云计算和功能强大的本地部署解决方案,可集成硬件、软件和服务,为各种企业AI工作负载的AI开发和部署提供支持。我们多样化的产品组合包括智能解决方案,为开发人员、AI研究人员、数据科学家、生物技术、关键任务应用、制造业、5G 和网络以及可提供服务的供应商等关键领域量身打造。

  • 华硕与 NVIDIA 深度合作,为生成式 Token AI 工厂提供全栈解决方案

    全面的 ASUS AI 工厂的方法整合了硬件、软件平台和服务,以支持我们的客户成功部署AI。从边缘AI到AI超算,我们的可扩展基础设施旨在满足各种工作负载的需求。更重要的是,我们帮助企业加快采用AI,同时优化总体拥有成本(TCO)。

    华硕拥有超过 2,200 个服务中心的全球网络,提供 SLA 驱动的定制解决方案,涵盖从设计、制造到持续支持的整个产品生命周期。我们强大的AI和数据管理框架可确保数据质量、合规性和信任度,保障AI成果的完整性和准确性。

    ASUS AI 解决方案示意图,重点介绍咨询、软件服务和基础设施。具有 NVIDIA 技术、华硕平台和部署协调功能。
    一幅数字插图,显示一名数据科学家正在分析图形,左边是服务器,右边是通过箭头连接的大型服务器堆栈。

    了解 ASUS AI 工厂如何为各行各业的应用带来变革。

  • 适用于所有工作负载的基础设施架构

    在 All-in-AI 服务器战略的推动下,我们与战略合作伙伴密切合作,共同推进AI生态系统的发展。从工业制造原理中获得启发,华硕 AI 工厂方法将 AI 开发视为精简、可重复的流程,将数据高效转化为有价值的 AI 驱动型洞察力和行动。

    ASUS AI POD 的 AI 工厂经 NVIDIA 验证,为在 NVIDIA Blackwell 内部平台上开发、部署和管理代理 AI、物理 AI 和 HPC 工作负载提供了指导。专为企业 IT 而设计,可提供加速计算、网络、存储和软件,帮助加快AI 工厂的部署速度,同时降低部署风险。

    以下是参考架构设计,可帮助客户使用经认可的实践,作为知识库和标准化框架,适用于各种应用。

    大型和大规模计算

    先进的 ASUS AI POD, 由 NVIDIA GB200/GB300 NVL72 机架加速,并集成 NVIDIA Quantum InfiniBandNVIDIA Spectrum-X Ethernet 网络平台,采用液冷技术,可在八个机架上实现无阻塞的 576 GPU 集群,或采用风冷解决方案,支持一个机架的 72 GPU。这种超密集、超高效的架构重新定义AI推理计算的性能和效率。

    面向AI训练和推理的超大规模 GPU 计算

    经华硕优化的 NVIDIA HGX™ 参考架构可为加速AI微调、LLM 推理和训练提供超高的效率、散热管理和 GPU 密度。该集中式机架解决方案基于配备 NVIDIA HGX™ B300 华硕 XA NB3I-E12 或嵌入 NVIDIA HGX™ B200 的 ESC NB8-E11,可为液冷或风冷机架系统提供强大的制造能力,确保及时交付、降低总体拥有成本 (TCO),并提供稳定的性能。

    • ASUS AI POD 搭载 NVIDIA HGX™ B300

      采用 NVIDIA HGX B300 和液冷解决方案的华硕 AI POD 参考架构
      B300LC 量子 光谱
      支持GPU B300 NVL8 图标 B300 NVL8 图标
      外形尺寸 5RU 5RU
      机架/节点 每个机架 8 个节点/9 个机架 每个机架 8 个节点/4 个机架
      1 SU 9x 机架/72x 节点 4x 机架/32x 节点
      开关(N/S) 8x SN5610(Leaf)/ 4x SN5610(Spine) 2x SN5610(Leaf)
      开关(E/W) 8x Q3400-RA(Leaf)/ 4x Q3400-RA(Spine) 8x SN5610(Leaf)/ 4x SN5610(Spine)
      服务器 XA NB3I-E12L XA NB3I-E12L
      高效存储 RS501A-E12-RS12U RS501A-E12-RS12U
      MGMT RS700-E12-RS4U RS700-E12-RS4U
    • 配备 NVIDIA HGX™ B300 AC 的华硕 AI POD

      采用 NVIDIA HGX B300 风冷解决方案的华硕 AI POD 参考架构
      B300AC 量子 光谱
      图形处理器支持 B300 NVL8 图标 B300 NVL8 图标
      外形尺寸 9RU 9RU
      机架/节点 每个机架 4 个节点/18 个机架 每个机架 4 个节点/8 个机架
      1 SU 18 个机架/72 个节点 8x 机架/32x 节点
      开关(N/S) 8x SN5610(Leaf)/ 4x SN5610(Spine) 2x SN5610(Leaf)
      开关(E/W) 8x Q3400-RA(Leaf)/ 4x Q3400-RA(Spine) 8x SN5610(Leaf)/ 4x SN5610(Spine)
      服务器 XA NB3I-E12 XA NB3I-E12
      高效存储 RS501A-E12-RS12U RS501A-E12-RS12U
      MGMT RS700-E12-RS4U RS700-E12-RS4U
    • 配备 NVIDIA HGX™ B200 的华硕 AI POD

      采用 NVIDIA HGX B200 风冷解决方案的华硕 AI POD 参考架构
      B200AC 量子 光谱
      图形处理器支持 B200 NVL8 图标 B200 NVL8 图标
      外形尺寸 10RU 10RU
      机架/节点 每个机架 4 个节点/8 个机架 每个机架 4 个节点/8 个机架
      1 SU 8x 机架/32x 节点 8x 机架/32x 节点
      开关(N/S) 2x SN5610(Leaf) 2x SN5610(Leaf)
      开关(E/W) 8x QM9700(Leaf)/ 4x QM9700(Spine) 4x SN5610(Leaf)/ 2x SN5610(Spine)
      服务器 ESC N8B-E11 ESC N8B-E11
      高效存储 RS501A-E12-RS12U RS501A-E12-RS12U
      MGMT RS700-E12-RS4U RS700-E12-RS4U

    可扩展计算的通用用途
    LLM 和沉浸式工作负载的可扩展供电

    ASUS 推出符合 NVIDIA MGX 机架设计的 ASUS ESC8000 系列,采用双英特尔® 至强® 6 处理器和 RTX PRO™ 6000 Blackwell 服务器版搭载最新NVIDIA ConnectX-8 SuperNIC,支持高达 800Gb/s 的速度或其他可扩展的配置,为先进的AI工作负载提供出色的可扩展性和性能。与NVIDIA AI Enterprise 软件平台整合,提供高度可扩展的全栈服务器解决方案,满足现代计算的苛刻要求。

    ASUS AI POD 搭载 MGX 4U 平台

    采用 MGX 4U 平台的华硕 AI POD 参考架构
    MGX CX8 量子 光谱
    支持 GPU H200 NVL、L40S、RTX Pro 6000 BSE H200 NVL、L40S、RTX Pro 6000 BSE
    外形尺寸 4RU 4RU
    机架/节点 每个机架 8 个节点/共 4 个机架

    每个机架 4 个节点/共 8 个机架
    每个机架 8 个节点/共 4 个机架

    每个机架 4 个节点/共 8 个机架
    1 SU 8x 机架/4x 或 8x 机架/32x 节点 8x 机架/4x 或 8x 机架/32x 节点
    开关(N/S) 2x SN5610(Leaf) 2x SN5610(Leaf)
    开关(E/W) 4x QM9700(Leaf)/ 2x QM9700(Spine) 2x SN5610(Leaf)
    服务器 ESC8000-E12P
    ESC8000A-E13P
    ESC8000-E12P
    ESC8000A-E13P
    高效存储 RS501A-E12-RS12U RS501A-E12-RS12U
    MGMT RS700-E12-RS4U RS700-E12-RS4U
  • Al 服务和平台开发

    华硕不仅致力于实现数据中心的快速部署,还致力于确保其平稳可靠的运行。这就是为什么我们提供一整套软件工具和平台,实现一键部署和自定义界面及服务(如计费),以满足您的特定业务需求。

    • 部署和管理平台

      • AIDC

        自动化大规模部署和调配

        屏幕截图显示了数据中心的监控状态和配置情况。
      • 日志与监控

        全栈可视性和主动提示

        截图显示数据中心日志和警报
      • ACC

        集中式服务器管理

        截图显示了数据中心的集中控制仪表板
      • UFM 和 NMX

        智能结构监控和网络优化

        截图显示了数据中心的结构和网络图
    • 服务平台

      • AI平台

        可扩展的AI训练和推理平台

        截图显示了人工智能训练和推理平台
      • HPC 调度

        高效的计算资源和工作协调

        截图显示了计算资源的安排。
    从计算实施到散热设计和专业服务的华硕整体基础设施解决方案
  • ASUS AI 工厂推动各行业 AI 转型

    更多成功案例 〉。
    • NVIDIA 驱动的精度:华硕服务器推动AI转型

      由 3 个机械臂组成的自动化工厂场景。
      华硕与制造业客户合作,利用 NVIDIA Omniverse 和大规模AI实现富有远见的概念。基于 NVIDIA HGX 和 AGX 平台由 ASUS AI 服务器提供动力,智能体可在现实世界环境中运行,实时收集数据、在边缘处理见解并与 Omniverse 模拟同步。华硕构建的数据中心处理核心计算,而客户的机器人系统则在 NVIDIA AGX 平台运行,融合传感器提要、边缘推理和云协调,以提供可靠的AI性能。
      • ESC8000A-E13P

        ESC8000A-E13P

        • AMD Turin CPU
        • NVIDIA RTX PRO 6000 x 8
        • DIMM 64GB x 8
        • 9个 OCP3.0 CX7 x 3
        • 1TB OS 硬盘 x 2
      • VSD320D-RS12

        VS320D-RS12

        • 英特尔至强 CPU
        • 自动分层
        • DIMM 32GB x 4
        • 网卡 25G 以太网 4
        • SAS 硬盘 20TB x 12
    • 华硕赋能 National Biomedical AI 超级计算机,助力生命科学变革

      两名研究人员正在讨论屏幕上的医学影像。
      华硕与 NHRI 合作,基于强大的 AIHPC 平台和 NVIDIA SDK(软件开发工具包)打造一台生物医学 AI 超级计算机。这种合作关系推动了生物医学研究和精准医疗的突破,使医疗机构能够利用先进技术推进生命科学研究。华硕负责模型开发、基础设施维护和优化,以确保无缝的AI计算性能。与传统 CPU 相比,超级计算机的运行速度大幅提升:基因组数据分析速度提高了 87 倍,分子动力学模拟速度提高了 9 倍,AI图像注释和自然语言处理速度提高了 180-250 倍。
      • ESC NB8-E11

        ESC NB8-E11

        • 第4代/第5代英特尔® 至强® 可扩展处理器 x2
        • NVIDIA Blackwell HGX™ B200 x 8
        • DIMM x 32,DDR5 5600 RDIMM/ 3DS RDIMM
        • 通过 NVIDIA NVLink™ 实现 GPU-to-GPU 的直接互连
      • VSD320D-RS12

        VS320D-RS12

        • 英特尔至强 CPU
        • 自动分层
        • DIMM 32GB x 4
        • NIC 25G 网卡 4
        • SAS 硬盘 20TB x 12
    • 借助智慧城市 AI 平台实现公共安全和治理转型

      道路检测显示屏上用黄色方框标出了许多汽车。
      华硕提供关键的 AI 基础设施和计算能力,帮助推动台湾首个智慧城市动态图像AI平台的发展。该平台利用先进的华硕 GPU/CPU 服务器、存储解决方案和服务管理,为当地市政府提供统一的数据聚合和AI驱动的洞察力。基本信息全部显示在无缝智能城市仪表板上,包括交通流量分析、热图和社交距离口罩检测。通过基于 KVM 的服务平台和 CNCF 认证的 Kubernetes,华硕可确保高效的培训、推理和容器服务。这种合作可加强公共安全、优化交通、促进数据驱动的治理,并在提高成本效率的同时促进创新。   
      • ESC8000A-E13P

        ESC8000A-E13P

        • AMD Turin CPU
        • NVIDIA RTX PRO 6000 x 8
        • DIMM 64GB x 8
        • 9个 OCP3.0 CX7 x 3
        • 1TB OS 硬盘 x 2
      • VSD320D-RS26

        VSD320D-RS26

        • 英特尔至强 CPU
        • 自动分层
        • DIMM 32GB x 4
        • NIC 25G 网卡 4
        • SAS SSD 15.36TB x 26
  • 华硕的优势和服务

    作为您值得信赖的 NVIDIA®® Omniverse 集成供应商,华硕提供从战略咨询到部署支持的完整解决方案,协助您释放工业数字化的全部潜能。

    整合咨询
    定制的数字化转型蓝图
    技术教育
    全方位专业技能培训
    部署支持
    无缝系统集成和实施
    定制解决方案
    针对特定需求的应用程序开发
    一名工程师站在数据中心,手持一台手持式计算机。 两名工程师站在数据中心的控制中心,正在讨论实时监控显示屏。 一名工程师站在数据中心,手持一台手持式计算机。 两名工程师站在数据中心的控制中心,正在讨论实时监控显示屏。
  • 常见问题

  • GB200 NVL72 图标 量子
    量子 量子 光谱
    支持 GPU GB200 GB300 GB300
    外形尺寸 48RU 48RU 48RU
    机架/节点 18 个计算托盘/9 个交换机托盘 18 个计算托盘/9 个交换机托盘 18 个计算托盘/9 个交换机托盘
    1 SU 16 个机架/288 个节点 16 个机架/288 个节点 16 个机架/288 个节点
    交换机(N/S) 8x SN5610(Leaf)/ 4x SN5610(Spine)/ 4x SN5610(核心) 8x SN5610(Leaf)/ 4x SN5610(Spine) 8x SN5610(Leaf)/ 4x SN5610(Spine)
    交换机(E/W) 16x Q9700(Leaf)/ 18x Q9700(Spine) 16x Q3400-RA(Leaf)/ 9x Q3400-RA(Spine) 16x Q3400-RA(Leaf)/ 9x Q3400-RA(Spine)
    服务器 ESC NM2N721-E1 XA GB721-E2 XA GB721-E2
    高效存储 RS501A-E12-RS12U RS501A-E12-RS12U RS501A-E12-RS12U
    MGMT RS700-E12-RS4U RS700-E12-RS4U RS700-E12-RS4U
  • >ASUS AI WEKA 存储参考

    带有多层驱动器的存储服务器

    管理节点规范(WMS)

    • 服务器或虚拟机必须满足以下要求 :
    • 启动驱动程序:系统有两个相同的启动硬盘,操作系统安装在镜像分区(LVM)上,可用容量至少为 141GB。
    • 核心和内存:至少 4 个核心和 16GB 内存
    • 网络接口:最低 1 Gbps
    GB 系列 B 系列 MGX/HGX 系列
    服务器型号 ASUS RS501A-E12-RS12U
    CPU 和内存 AMD 64C(9005 系列)和 768G 内存
    网络 400G(200x2) IB 网卡 x 2
    高效存储 启动盘 :2 x 960G NVMe M.2
    存储磁盘 :16 x 30.72 TLC NVMe U.2
    服务器节点 27 19 8
    可用容量 10PB 7PB 2.2PB
    读取速度 2284 GB 1607 GB 676 GB
    写入速度 691 GB 486 GB 164 GB
    读取 IOPS 4 950 万 3 480 万 1 460 万
    写入 IOPS 1 240 万 870 万 360 万
    Stripe 宽度 16+2+1 16+2+1 5+2+1

    通过 WEKA 数据平台认证

  • 网络拓扑

    高效、高带宽的网络连接对 NVIDIA GB200 NVL72 性能至关重要。以下是连接多个 NVL72 系统并将其集成到更大的网络基础设施中所用的典型外部网络架构和技术概要。 

    数据中心交换机

    NVIDIA Quantum-2 QM9700 系列 InfiniBand 交换机

    ODs 1 1 2 4
    机架 1 2 4 8 6 32 64
    计算托盘 18 36 72 144 288 576 1152
    Blackwell GPU 72 144 288 576 1152 2304 4608
    Bluefield-3(DPU) 32 72 144 288 576 1152 2304
    交换机
    # Spine 交换机数量 0 2 4 8 16 32
    # Leaf 交换机数量 2 4 8 16 32 64
  • 液体散热方案

    配备 NVIDIA GB200 NVL72 的华硕 AI POD

    华硕携手合作伙伴提供全面的机柜级液体散热解决方案。这些设备包括 CPU/GPU 冷板、冷却分配单元和冷却塔,其设计目的都是为了更大限度地降低功耗,优化数据中心的能耗效率(PUE)。

    液冷至风冷解决方案

    适合于紧凑型设施的小型数据中心。
    专为满足现有风冷数据中心需求而设计,与现有基础设施轻松集成。
    非常适合需要立即实施和部署的企业

    液冷至液冷解决方案

    适用于大规模、广泛的基础设施和高工作负载。
    提供长期、低 PUE 值,长期保持能源效率。
    降低总体拥有成本,创造更大价值和经济高效的运营。

    华硕风冷解决方案一个机架旁边有两个 CDU。
    华硕液冷解决方案采用两排 GB200 NVL72 单元,下面有两个 CDU 和一个集成管道系统。