液冷 GPU 服务器
多种应用液冷 GPU 服务器是提供 GPU 算力高性能计算,服务于深度学习、科学计算、图形可视化、仿真测试BI场景
液冷 GPU 服务器
产品特点 -搭载 NVIDIA 4 × A100 / 3090 / P6000 / RTX6000 -使用 NVLink + NVSwitch 的最高GPU通信 -4个用于 GPU Direct RDMA 的 NIC(1:1 GPU比率) -最高4 x NVMe 用于 GPU 系统盘,带有 AIOM -双电源冗余供电系统、防雷击、防浪涌保护
应用场景 -深度学习、数据挖掘、大数据分析 -图像处理、仿真测试、BIM |
|
液冷 GPU 服务器(9卡)
适用于人工智能、深度学习、 HPC、数据挖掘、大数据分析、高性能计算等场景,搭建于搭载NVIDIA 9 × V100 A100 40GB或80GB, 支持的灵活I / O
|
液冷GPU服务器(9卡)
产品特点 -搭载 NVIDIA 9 × V100 / A100 40GB或80GB -使用 NVLink + NVSwitch的最高GPU通信 -8个用于 GPU Direct RDMA的NIC(1:1 GPU比率) -最高8 x NVMe用于GPU直接存储(PLX默认4x NVMe)带有 AIOM -支持的灵活I / O
设计特点 -适用于 NVIDIA HGX A100 8-GPU的高密度 -4U系统使用 NVIDIA NVLINK + NVIDIA NVSwitch 的最高 GPU通信 -9个用于 GPU Direct RDMA的NIC(1:1 GPU比率) 高达8倍的 NVMe用于GPU直接存储和具有AIOM支持的灵活I / O
应用场景 -人工智能、深度学习、 HPC、数据挖掘、大数据分析 -高性能计算(HPC) |