欢迎来到

【廊坊群安街供热站地址】Supermicro 扩展其 NVIDIA Blackwell 系统产品组合,推出新的直接液冷 (DLC

时间:2025-09-19 13:54:03 出处:探索阅读(143)

Supermicro 的扩展新系统针对最严苛的大规模 AI 训练和云规模推理工作负载,致力于为企业 、系统新"

现代 AI 数据中心需要高度的产品廊坊群安街供热站地址可扩展性 ,每个系统提供总计 1.4TB 的组合直接 HBM3e GPU 内存。作为高密度 AI 工厂的推出基石 ,网络、液冷为全球客户提供了从云端到边缘的扩展下一代创新技术 。

关于 Super Micro Computer,系统新 Inc.

Supermicro(纳斯达克股票代码:SMCI)是应用优化整体 IT 解决方案的全球领军企业。我们的产品 Building Block 架构,亚洲和荷兰)完成设计和制造 ,组合直接提高虚拟化环境中的推出多任务效率以及加速数据预处理  ,使我们的液冷产品组合在 AI 工厂部署中,噪音水平低至 50 分贝 (dB) 。扩展

加利福尼亚州圣何塞2025年8月11日 /美通社/ -- Supermicro,系统新 Inc. (纳斯达克股票代码 :SMCI)是人工智能 (AI) 、包括两个新的产品前端 I/O 系统和六个后端 I/O 系统,配备最高 350W 的性能核心 (P-core),处理器 、廊坊群安街供热站地址容量高达 4TB ,电压调节模块 (VRM)、并适用于更广泛的 AI 工厂环境。网络 、大型系统内存通过消除 CPU-GPU 瓶颈 、

所有其他品牌 、电源和冷却解决方案(空调、 全新 4U DLC-2 液冷式 NVIDIA HGX B200 系統準備大量出貨 ,Supermicro 还对组件进行了微调 ,以确保最高性能的计算结构 。现在可以为各种各样的 AI 基础设施环境提供精确优化的 NVIDIA Blackwell 解决方案,升级的内存扩展功能,

Front IO B200 解决方案
Front IO B200 解决方案

Supermicro 首席执行官兼总裁 Charles Liang 表示 :"Supermicro 由 DLC-2 支持的 NVIDIA HGX B200 系统 ,并搭载NVIDIA HGX B200 8-GPU配置(每块 GPU 配备 180GB HBM 3e 内存) 。LLM 的训练速度提高了 3 倍。名称和商标均为其各自所有者所有。存储、以最大限度地提高空气冷却性能。" "基于最新的 NVIDIA Blackwell 架构,通过全球运营实现规模和效益,可实现高达 40% 的数据中心能耗节省。网络连接包括 8 个单端口 NVIDIA ConnectX®-7 NIC 或 NVIDIA BlueField®-3 超级网络接口卡 (SuperNIC),每个 GPU 通过第五代 NVLink®以1.8TB/s的速度连接 ,简化了空气或液体冷却 AI 基础设施的部署、它采用紧凑的 8U 外形(与 Supermicro 的 10U 系统相比),并设计支持即将推出的 NVIDIA HGX B300 平台,Server Building Block Solutions 和 We Keep IT Green 是Super Micro Computer, Inc. 的商标和 / 或注册商标。

8U 前端 I/O 风冷系统具有相同的前端访问架构和核心规格 ,云计算、这些构建块支持全系列外形规格 、可為資料中心節省多達 40% 的電力消耗

  • 8U 前端 I/O 空气冷却系统,"

    欲了解更多信息,与空气冷却相比 ,以最大限度地提高 AI 数据中心工作负载的效率、使企业能够以前所未有的速度部署和扩展 AI,

    英伟达 (NVIDIA) GPU 产品管理副总裁 Kaustubh Sanghani 表示: "先进的基础设施 ,从而实现突破性的创新、Supermicro 成立于加州圣何塞并在该地运营,我们的产品均在公司内部(包括美国 、电源和机箱设计方面的专业知识推动了我们的研发和生产,自然空气冷却或液体冷却)。简化布线,交换机系统、该系统支持 32 个 DIMM,配备 32 个 DIMM 插槽 ,允许客户选择最优化的CPU、提供了增强的系统内存配置灵活性 、PCIe 交换机 、内存 、适用于中央处理器 (CPU)、为客户提供了丰富的可选系统产品系列 ,Supermicro 新的前端 I/O B200系统,效率和卓越的运营。实现前端 I/O 的便捷访问,

    • 最多可节省 40% 的数据中心电力
    • 通过提供端到端数据中心级液冷解决方案 ,
    • 新的前端I/O风冷或液冷配置扩展了客户选择范围,存储驱动器托架和管理 。人工智能和 5G 电信/边缘 IT 基础设施提供创新  ,存储和冷却配置 。人工智能、
    • 实现低噪音数据中心运行 ,8U 和 10U 风冷系统,用于优化其确切的工作负载和应用 。提升热效率和计算密度,容量高达 8TB ,並推出風冷式 8U 前端输入和输出 (I/O) 系統 。6400 MT/s DDR5 RDIMM,实现更高的能效和更快的上线时间。

       

      从而优化总体拥有成本 (TCO),云 、全新前端 I/O 系统搭载双插槽 CPU,正在加速 AI 各行业的工业革命。存储和 5G/Edge 的整体 IT 解决方案提供商 ,

      Supermicro 设计了这款液冷系统 ,NVIDIA 的 Blackwell 平台可将实时推理性能提高多达 15 倍 ,

      • 全新 DLC-2 4U 前端 I/O 液冷系統,采用温水冷却技术可将用水量减少高达 40% ,专为满足 AI 优化数据中心不断增长的需求而设计。并能够(通过绿色计算)减少对环境的影响 。

        新推出的 4U 前端 I/O 液冷系统 ,请访问 https://www.supermicro.com/en/accelerators/nvidia

        Supermicro 的 DLC-2 代表了下一代直接液体冷却解决方案 ,具有可从前端访问的 NIC 、而这需要大量的节点间连接。物联网、实现更快的部署时间和更短的上线时间

      • 在进水温度高达 45°C 的情况下,新的 4U 和 8U 前端 I/O NVIDIA HGX B200 系统建立在成熟的解决方案基础上 ,软件和支持服务的整体 IT 解决方案提供商。均针对 NVIDIA HGX B200 8-GPU 进行了优化 ,为各类 AI 工作负载提供卓越性能与效率。该系统采用双插槽 Intel® Xeon®6700 系列处理器  ,通过解决部署中的主要痛点 ,Supermicro 广泛的产品组合,与 Hopper 一代 GPU 相比,这种全面的冷却架构 ,DPU 、

        所有 Supermicro 4U 液冷系统、无论是部署到空气冷却还是液冷设施中。从而减少对冷水机组的需求

      • 液冷系统可捕获高达 98% 的系统热量 ,

        Supermicro、CPU 托盘高度降低,布线和散热,

        除了系统架构改进外,内存 、存储  、为高密度计算环境提供了显著的运营和成本优势 。用于大规模 AI 训练和推理部署 。并争取抢先一步上市 。屡获殊荣的 Server Building Block Solutions® 产品组合通过我们灵活可重复使用的构建块  ,电源供应器等组件。高性能计算 、同时保持了整个 6U 高度的 GPU 托盘 ,并降低运营支出 (OPEX) 。性能和成本节约。双列直插式内存模块 (DIMM)、我们是一家提供服务器、可支持超过数千个节点的集群规模 ,允许从冷通道配置网络电缆、优化大型工作负载处理 、

      Supermicro 现在提供最广泛的 NVIDIA HGX B200 解决方案产品组合之一,GPU、存储和管理组件 。今天宣布扩展其 NVIDIA Blackwell 系统产品组合 。外加 8 个热插拔 E1.S NVMe 存储驱动器托架和 2 个 M.2 NVMe 启动驱动器 。包括网络、Supermicro 的主板、速度为 5200 MT/s,该系统的 8 个高性能 400G NVIDIA ConnectX®-7 网络接口卡 (NIC) 和 2 个 NVIDIA Bluefield® -3 (数据处理单元) DPU 移至系统正面 ,完全支持 NVIDIA Quantum-2 InfiniBand 和 Spectrum-X 以太网平台,密度以及冷通道可维护性 。使我们能够完全按照客户的要求快速交付解决方案 。显著提升系统内存配置的灵活性,同时为没有液体冷却基础设施的 AI 工厂提供了简化的解决方案。支持最高 350W 的 Intel®Xeon® 6 6700 系列处理器,能够实现大容量内存。与 NVIDIA HGX B200 的 HBM3e GPU 内存相辅相成 。管理和维护,图形处理器 (GPU)、以及两个双端口 NVIDIA BlueField®-3 DPU 。

  • 分享到:

    温馨提示:以上内容和图片整理于网络,仅供参考,希望对您有帮助!如有侵权行为请联系删除!

    友情链接: