The infrastructure solution text features a designed visual effect.

基础设施解决方案

  • 借助华硕 AI 基础设施解决方案释放每个数据的潜力

    人工智能(AI)正以前所未有的速度重塑我们的世界和生活。为了保持竞争力,主动管理至关重要,而华硕的人工智能基础设施解决方案是驾驭这一不断变化的格局的关键。华硕提供全面的AI解决方案,从AI 服务器到集成机架,用于大规模计算的 ESC AI POD,以及最重要的先进软件平台,定制化处理处各种AI工作负载,助力您在AI竞赛中保持领先地位。

    This graphic highlights ASUS's comprehensive AI server solution on a data center scenario. The foreground showcases services such as consulting, infrastructure architecture design, software platforms, server installation and validation, and after-sales support.
    This graphic highlights ASUS's comprehensive AI server solution on a data center scenario. The foreground showcases services such as consulting, infrastructure architecture design, software platforms, server installation and validation, and after-sales support.
    This graphic highlights ASUS's comprehensive AI server solution on a data center scenario. The foreground showcases services such as consulting, infrastructure architecture design, software platforms, server installation and validation, and after-sales support.
  • AI 服务器: 为什么选择华硕?

    华硕致力于为客户提供全方位的解决方案,结合先进的硬件和软件,赋能客户加速其研究和创新。将前沿的技术与实用的解决方案深度融合,华硕推动其在重新定义 AI 驱动领域及日常体验方面的进步。

    • 产品供应
    • 设计能力
    • 软件生态系统
    • 完善的售后服务
    • 华硕
    • 华硕设计提供从软件到硬件的完整 AI 服务器解决方案,涵盖英特尔®、NVIDIA® 和 AMD® 解决方案以及 x86 或 Arm® 架构。
    • 华硕提供丰富的资源,以高端组件、强大的生态系统合作伙伴关系、功能丰富的设计及优越的内部专业知识,能够快速响应客户需求。
    • 华硕涉足广泛而复杂的 AI 领域,通过内部软件专业知识,与软件和云供应商建立合作伙伴关系,提供完整的解决方案。
    • 华硕提供具有定制支持的咨询和服务、通过华硕远程控制中心进行远程管理等软件服务,直观的云服务用户门户的建立,优先考虑客户满意度。
    • 友商
    • 仅限于服务器硬件。
    • 对定制解决方案的支持有限,特别是软件方面。
    • 缺乏自主软件开发资源。
    • 仅提供产品销售服务。
  • 华硕 AI 解决方案强大阵营
    从裸机到以集成软件为中心的方法
    This is a graphic showcase ai server full lineup to support different level of AI development from edge ai, generative ai, ai supercomputing with single server and full rack options
    This is a graphic showcase ai server full lineup to support different level of AI development from edge ai, generative ai, ai supercomputing with single server and full rack options
    This is a graphic showcase ai server full lineup to support different level of AI development from edge ai, generative ai, ai supercomputing with single server and full rack options
  • 挑选符合您实际需求与预算规划的 AI 服务器

    您认为 AI 可以作为面对当前挑战的潜在解决方案吗?希望利用 AI 来开发企业 AI,但又担心成本和维护?华硕为各种工作负载和您特定需求提供全面的 AI 基础架构解决方案。我们先进的 AI 服务器和软件解决方案专为处理复杂的任务而设计,例如深度学习、机器学习、预测 AI、生成式 AI (Gen AI)、大型语言模型 (LLM)、AI 训练和推理以及 AI 超算。选择华硕,高效处理海量数据集并执行复杂的计算。

    • 边缘 Al

      随着制造业进入工业 4.0 时代,需要复杂的控制系统来结合边缘 AI 来全面增强流程。华硕边缘 AI 服务器解决方案可在设备级别提供实时处理,从而提高效率、减少延迟并增强物联网应用的安全性。

      EG500-E11-RS4-R

      疾速的存储、图形和网络功能

      • 采用第5代英特尔® 至强® 可扩展处理器,每瓦平均性能提升约 21%,显著提高 AI 推理和训练能力
      • 短深度机箱和后部接入设计,适用于空间有限的边缘环境
      • 可扩展扩展,支持三张 FHHL GPU 卡、两个后置短 PSU 内置 SATA**、两个前置外置 SATA/NVMe 以及可选两个 E1.S SSD
      • 适用于数据中心或服务器机房环境的冗余 AC 电源

      **两个内部 SATA 托架仅适用于 650W/短电源模式

      The ai server image of ASUS EG500-E11-RS4-R

      EG520-E11-RS6-R

      提高效率、优化 GPU 和网络功能

      • 搭载第5代英特尔® 至强® 可扩展处理器,每瓦平均性能提升约 21%,显著提高 AI 推理和训练能力
      • 短深度机箱和后部接入设计,适用于空间有限的边缘环境
      • 可扩展,支持 1 个 FHHL 卡,2个 适于 GPU 的 FHFL 卡,2个 SATA/NVMe (前) 和 4个 SATA (后)
      • 专为工作温度范围为 0–55°C** 的环境而设计
      • 适用于数据中心或服务器机房环境的冗余 AC 电源

      ** 非 GPU SKU 专为 0–55°C 环境而设计,0–35°C 适于配备 GPU 的 SKU

      The ai server image of EG520-E11-RS6-R
    • Al 推理

      精心训练的机器学习模型面临着解释新数据、未知数据的挑战,这项任务涉及管理大规模数据和克服硬件限制。华硕 AI 服务器拥有强大的数据传输功能,可高效地通过训练模型运行实时数据,从而做出准确预测。

      RS720-E11-RS24U

      扩展灵活性和可扩展性,覆盖全方位的应用

      • 搭载第5代英特尔® 至强® 可扩展处理器,每瓦平均性能提升约 21%,显著提高 AI 推理和训练能力
      • 扩展灵活性和可扩展性,覆盖全方位的应用
      • 前面板最高支持 24 个全闪 NVMe 硬盘和4个 PCIe 5.0 插槽以提供更高的带宽和系统升级
      • 兼容于 PCIe LAN 卡或 OCP 3.0 模块,适用于超大规模数据中心连接
      The ai server image of RS720-E11-RS24U

      RS720A-E12-RS24U

      提升多任务处理的性能、效率和可管理性

      • 采用 AMD® EPYC 9004 处理器搭配 128 Zen 4c 核心, 12通道, 最高可达 4800 MHz DDR5,每插槽最高支持 400W TDP
      • 前面板最高支持 24 个全闪 NVMe 硬盘和 9 个PCIe 5.0,以提供更高的带宽和系统升级
      • 选配 2个 10 Gbps 或 4个 1 Gbps 板载 LAN 模块, 以及 OCP 3.0 模块及后侧 PCIe 5.0 插槽,实现更快的连接性能
      • 采用增强型卷风冷却(EVAC) 散热器支持更高的 TDP
      • 高达3个双插槽 GPU, 包括 NVIDIA A100 和 A40, AMD Instinct 和 Xilinx
      The ai server image of RS720A-E12-RS24U
    • AI 微调

      许多工程师和开发人员都致力于通过微调大型语言模型 (LLM) 来提高性能,实现高度定制化。然而,他们经常会遇到部署失败等挑战。为了克服这些问题,强大的 AI 服务器解决方案对于确保无缝、高效的模型部署和运行至关重要。

      ESC NM1-E1

      搭载 NVIDIA Grace-Hopper 超级芯片和 NVIDIA NVLink-C2C 技术的 2U 高性能服务器

      • 72 核心 NVIDIA® Grace GH200 Grace Hopper 超级芯片 CPU,采用 NVIDIA NVLink-C2C 技术,带宽高达 900 GB/s
      • 缩短上市时间
      • 优化的机制可有效移除多余的热量
      • 包括 NVIDIA AI Enterprise 及其丰富的框架和工具
      • 简化维护,实现高效率并更大限度地减少停机时间
      • 为 AI 驱动的数据中心、HPC、数据分析和 Omniverse™ 中的各种应用而准备就绪
      The ai server image of ESC NM1-E1

      ESC NM2-E1

      2U NVIDIA MGX GB200 NVL2 服务器专为 AI 和 HPC 而设计

      • 模块化 Arm® MGX 服务器,适用于企业客户
      • 模块化架构,由 NVIDIA 定义,可缩短开发时间并加快产品上市时间
      • 双 NVIDIA® Grace Blackwell GB200 NVL2 超级芯片 (2个 CPU 和两个 GPU)
      • CPU 和 GPU 可通过 NVLINK 和 C2C 节点连接,以提高 AI 计算性能
      The ai server image of ESC NM2-E1
    • AI 训练

      无论您参与 AI 研究、数据分析或部署 AI 应用程序,华硕 AI 服务器都以其出色的性能和可扩展性来处理复杂的神经网络训练,显著加快训练过程 - 充分释放 AI 应用程序的功能。

      ESC8000-E11

      加速生成式 AI 和 LLM 工作负载

      • 搭载第5代英特尔® 至强® 可扩展处理器,每瓦平均性能提升约 21%,显著提高 AI 推理和训练能力
      • 高达8个双插槽主动式和被动式GPU,支持 NVIDIA® NVLink bridge, 和 NVIDIA Bluefield DPU 以提升性能
      • 优化的散热设计,具备独立的 CPU 和 GPU 风道,支持高达4个 3000W Titanium 冗余电源提供不间断的运行保障
      • 前面板共有 8 个组合 Tri-Mode NVMe/SATA/SAS 驱动器和11个 PCIe 5.0 插槽,以提供更高的带宽和系统升级
      • 选购 OCP 3.0 模块及后面板 PCIe 5.0 插槽,实现更快的连接性能
      The ai server image of ESC8000-E11

      ESC8000A-E12

      加速生成式 AI 和 LLM 工作负载

      • 采用 AMD® EPYC™ 9004 处理器配备 128 Zen 4c 核心, 12 通道, 最高可达 4800 MHz DDR5,每插槽最高支持 400W TDP
      • 高达8个双插槽主动式和被动式GPU,支持 NVIDIA NVLink® bridge, 和 NVIDIA Bluefield DPU 以提升性能
      • 优化的散热设计,具备独立的 CPU 和 GPU 风道,支持高达4个 3000W Titanium 冗余电源提供不间断的运行保障
      • 前面板共有 8 个组合三模式 NVMe/SATA/SAS 驱动器和 11个 PCIe 5.0 插槽,以提供更高的带宽和系统升级
      • O选购 OCP 3.0 模块及后面板 PCIe 5.0 插槽,实现更快的连接性能
      The ai server image of ESC8000A-E12
    • 生成式 AI

      配备八个 GPU 的华硕 AI 服务器在密集 AI 模型训练、管理大型数据集和复杂计算方面表现出色。这些服务器专为 AI、机器学习和高性能计算 (HPC) 设计,提供强大的性能和可靠性。

      ESC I8-E11

      专用的深度学习训练和推理

      • 采用英特尔® 至强® 可扩展处理器
      • 可容纳8张英特尔® Gaudi® 3 AI OCP 加速器模块 (OAM) 夹层卡
      • 每个 Gaudi®3 集成 24 个符合行业标准 RoCE 的 200GbE RDMA NIC
      • 模块化设计减少了电缆使用量,缩短了装配时间并提高了热优化
      • 高电源效率,冗余 3000W 80 PLUS® PSU
      The ai server image of ESC I8-E11

      ESC A8A-E13

      以强大的性能赋能 AI 与 HPC

      • 7U AMD® 八 GPU 服务器配备新一代双 AMD 平台的,专为生成式 AI 和 HPC 而设计
      • 先进的 192 GB HBM 容量和 5.2 TB/s 带宽,适用于大型 AI 模型和 HPC 工作负载
      • GPU 到 GPU 的直接互连可提供 896 GB/s 的带宽,实现高效扩展
      • 专用的一对一 NIC 拓扑支持最多八个 NIC,以在计算密集型工作负载期间实现最高吞吐量
      • 模块化设计,减少线材使用:缩短组装时间并提升散热优化
      The ai server image of ESC A8A-E13

      ESC N8-E11 搭载 NVIDIA HGX H200

      • 采用 NVIDIA® HGX™ 架构及第5代英特尔® 至强® 可扩展处理器,适用于繁重的 AI 负载
      • 通过 NVLink 直接 GPU 到 GPU 互连提供 900GB/s 的带宽以实现高效扩展
      • 专用 1 GPU 对 1 NIC 拓扑结构:支持最多 8 个 NIC,在计算密集型工作负载期间实现高吞吐量
      • 模块化设计,减少线材使用:缩短组装时间并提升散热优化
      • 先进的 NVIDIA® 技术提供 NVIDIA® GPUs, BlueField-3, NVLink, NVSwitch 和网络的全部功能
      The ai server image of ESC N8-E11 with NVIDIA HGX H200
    • AI 超算

      AI 超算由经过精心调校的硬件打造而成,拥有多个处理器、专用网络和海量存储空间。华硕提供完整的解决方案,专业处理超级计算机构建的各个方面,从数据中心设置和机柜安装到全面测试和装配。其严格的测试保证了强大的性能。

      ASUS ESC AI POD
      NVIDIA GB200 NVL72

      AI 颠覆您的想象力

      • 基于 Arm® 华硕机架级产品,采用强大的 NVIDIA® GB200 超级芯片和第5代 NVLink 技术。
      • 在单个机架内连接 36 个 Grace CPU 和 72 个 Blackwell GPU,提供高达 30 倍更快的实时 LLM 推理。
      • 支持大规模生态圈
      The ai server image of ASUS ESC AI POD, NVIDIA GB200 NVL72
  • 华硕八周加速 AI 软件解决方案

    您购置了 AI 服务器,但缺乏易用的 AI 软件来管理和提升性能?ASUS 和 TWSC 整合了先进的 AI 软件工具和 AI Foundry 服务,以加速 AI 应用的开发、部署和管理。华硕团队仅需短短八周*即可完成标准数据中心软件解决方案,包括集群部署、计费系统、生成式 AI 工具,以及新的操作系统验证、安全更新、服务补丁等。

    此外,华碩提供关键的验证和验收服务,涵盖软件堆栈的各个层面,以确保服务器在真实环境中稳定运行。此阶段验证是否符合所有指定要求,并确保在每个客户特定的 IT 设置中实现无缝通信。该过程从对电源、网络、GPU 卡、电压和温度的严格检查开始,以确保顺利启动和运行。彻底的测试能够在交付前识别并解决问题,保证数据中心在满载情况下可靠运行。

    华硕 AI 基础设施解决方案采用严谨细致的方法,提供可扩展性以适应增长的 AI 需求,确保基础设施的灵活性并面向未来。

    This is a line graph that helps people understand the ASUS 8weeks ai software services
    This is a line graph that helps people understand the ASUS 8weeks ai software services
    This is a line graph that helps people understand the ASUS 8weeks ai software services

    *请注意,软件解决方案的交付时间可能会根据定制需求和项目工作范围而有所不同。

    为您量身定制的 AI 服务器

    选择华硕 AI 服务器解决方案,大幅节省时间,部署时间比手动设置缩短高达 50%,同时实现无缝整合和提升性能。华硕专业团队具备的丰富知识与高超技能,更大程度减少错误和停机时间,防止错误配置,确保服务器稳定可靠运行。凭借直观的界面和强大的自动化功能,华硕简化服务器管理,轻松处理复杂任务。

    借助华硕整套软件,打造更好的使用体验

    超越竞争对手,华硕提供先进的计算和人工智能软件服务,包括高性能计算服务、GPU虚拟化管理、与外部系统整合以管理模型、私有云服务部署、生成式AI训练以及数据中心一体化软硬件解决方案。

    • 主要服务*
    • 云服务提供商
    • 资源池管理技术
      GPU host 和 VM
      GPU 容器
      无服务器 GPU 服务
      为不同的池重新分配资源
    • 运行平台
      租赁、容器、排程及存储管理
      深度学习和生成式 AI 模型管理
      基于使用情况的计费管理
      用户场景稳定性监控
    • 作业调度和编排
      Kubernets/Docker
      HPC (Slurm)
    • 集成开发工具
      TensorFlow, PyTorch, Keras, 以及 Nvidia 官方工具等
    • 资源管理的可扩展性
      支持多云计算
      支持多核心(ARM, ASIC)
    • 友商
    • N/A
    • N/A
    • N/A
    • N/A
    • N/A
    • N/A
    • N/A
    • N/A

    *上述服务的供应可能因国家/地区而异。

  • 华硕AI基础架构解决方案全面提升您的业务

    人工智能的未来正迅速重塑商业应用和消费者生活方式。华硕实现将硬件与软件相结合,赋能客户加速其研究和创新进程。

  • 常见问题解答!
    • 什么是 AI 服务器?
      想象为一个专为驱动人工智能未来而设计的计算机系统。这就是 AI 服务器!但这些并非普通的办公服务器;它们是魔法背后的动力源泉,能够处理那些为 AI 进步提供强大动力的复杂运算。
      什么是 AI 服务器? | 华硕新闻中心
    • 为何 AI 服务器格外重要?
      生成式 AI 以及 ChatGPT 之类的工具蓬勃兴起,推动了 AI 应用的大幅增长,促使企业重新考虑 AI 服务器的必要性。尽管如此,AI 服务器依旧不可或缺,其专门用以管理 AI 和机器学习模型的密集计算需求。华硕不但提供先进的 AI 服务器系统,还推出定制的软件解决方案,在促进 AI 开发过程开展至关重要,相较竞争对手更胜一筹。
    • AI 服务器 vs. 普通服务器
      • 目的
      • 处理器
      • 内存
      • 数据传输
      • 成本和功耗
      • 维护及扩展性要求
      • AI 服务器
      • 专为处理机器学习和深度学习工作负载中的复杂 AI 算法而设计。
      • 配备针对AI计算任务优化的高性能GPU或TPU。
      • 利用大量高速内存快速处理大规模数据集。
      • 高速 I/O 功能支持快速数据读/写和流式传输以及高速网络连接。
      • 由于是专为高性能计算而设计,因此成本相对较高。而更高性能的硬件设备往往会带来更高的功耗。
      • 可能需要更专业的维护以实现可扩展性和软件优化,从而保持峰值性能。
      • 普通服务器
      • 设计用于一般的数据处理和存储任务,例如网页托管、应用程序服务器和文件存储。
      • 适用于各种一般计算任务的标准 CPU。
      • 内存配置根据特定需求而有较大差异。
      • 适用于一般网络和存储需求的标准 I/O 能力。
      • 相对较低的功耗和较低的成本,面向一般商用市场和应用。
      • 通常具有较低的维护需求,市场上有丰富的支持和服务选项。
    • 如何确保在短短八周内交付完整的软件服务?
      华硕与其子公司台湾网页服务公司(TWSC)合作,专为客户设计定制的软件解决方案。根据过去的项目,八周的项目管理时间表是可以实现的,但具体的交付时间显然会依据具体需求以及项目范围的不同而有差异。

      TWSC 在为英伟达合作伙伴网络云合作伙伴(NCP)部署和共同维护大规模 AIHPC 基础设施方面积累了丰富经验,例如 NCHC 的 TAIWANIA-2(2018 年 11 月位列 Green 500 第 10 名)和 FORERUNNER 1(2023 年 11 月位列 Green 500 第 92 名)超级计算机系列。此外,TWSC 的 AFS POD 解决方案能够实现 AI 超级计算的快速部署以及灵活的模型优化,以适应 AI 2.0 应用,使用户能够依据自身需求定制 AI 需求。

      TWSC 的 AFS POD 解决方案提供企业级的 AI 基础设施,具有快速部署和全面的端到端服务,确保高可用性和网络安全标准。我们的解决方案在学术界、研究机构和医疗机构取得了成功的案例。全面的成本管理能力优化了功耗并简化了运营支出(OpEx),使 TWSC 技术成为寻求可靠和可持续的生成式 AI 平台的组织的引人注目的选择。

      关于 TWSC
      TWSC 是华硕的子公司,专注于提供 AI 和云计算解决方案,包括 AI 驱动的高性能计算(HPC)能力和全面的云平台工具和解决方案,利用 AI 超级计算器快速执行大规模应用程序。凭借其优异的专业知识,TWSC 提供专业的企业级生成式 AI 平台和服务,整合值得信赖的开源大语言模型(LLM)和专为繁体中文增强的 Formosa 基础模型(FFM)。TWSC 技术支持本地企业应用程序,并持续推动 AI 的民主化和商业化,操作简单,无需编码。从云端到地面,我们的产品有效地帮助企业降低成本、时间、人力资源和网络安全方面的考虑,提供全面、上佳的解决方案。

    • 您准备搭建用于 AI 工作负载的服务器吗?
      欢迎给我们留言,定制属于您的解决方案。无论是寻求报价、样品、设计协助还是其他问题,我们竭诚为您提供优质的服务!https://servers.asus.com.cn/support/contact