目前最新款服务器是什么?

这是一个非常好的问题,但答案有些复杂,因为“最新款服务器”不是一个单一的产品,而是一个涵盖多种形态、针对不同工作负载的庞大产品体系,不同的厂商(如Dell、HPE、联想、超微等)和不同的芯片供应商(如Intel、AMD、NVIDIA、Ampere等)都在不断推出自己的最新产品。

目前最新款服务器是什么

我将从核心趋势、主要厂商的最新平台和不同工作负载的明星产品这几个角度为您解析。

一、 当前服务器领域的核心趋势(2024年中期)

1、CPU:双雄争霸,核心数飙升

Intel最新一代是Intel® Xeon® 6 处理器(代号Sierra Forest和Granite Rapids),这代产品分为两类:

能效核心(E-core)型号专注于高密度和能效,核心数极高(首批发售的Sierra Forest最高达144核/288线程),专为云服务、虚拟化和容器化等横向扩展工作负载设计。

目前最新款服务器是什么

性能核心(P-core)型号专注于高性能和单线程能力,为AI、数据分析、高性能计算(HPC)和大型数据库等关键任务负载设计。

AMD最新一代是AMD EPYC™ 9005 系列处理器(代号“Turin”,尚未完全发布,但已公布路线图),其前代EPYC 9004 系列(Genoa、Bergamo)仍然是市场主流高性能选择,最高达128核(Genoa)和128核/256线程(Bergamo,专为云原生设计),AMD凭借先进的Chiplet设计和更高的核心数持续给Intel施加巨大压力。

2、AI的全面融入:GPU服务器成为明星

* 几乎所有新款服务器都强调对AI工作负载的支持。

AI训练普遍配备NVIDIA HGX H100/H200 8-GPU平台,最新的NVIDIA Blackwell架构(B100/B200)平台也已发布,将成为下一代AI服务器的核心。

目前最新款服务器是什么

AI推理和训练也广泛采用AMD Instinct™ MI300X加速卡,为市场提供了另一个高性能选择。

3、内存和存储

内存普遍支持DDR5,提供更高的带宽和能效。

存储NVMe SSD成为标准配置,PCIe 5.0接口提供翻倍的带宽,计算存储分离(Computational Storage)和CXL(Compute Express Link)技术开始在新平台上应用,用于扩展内存池和加速数据访问。

4、液冷散热

随着CPU和GPU功耗持续攀升(单个GPU功耗可达700W甚至更高),直接芯片液冷(Direct-to-Chip Liquid Cooling) 不再是HPC的专属,正迅速成为高端密度服务器的标准散热方案,能显著降低数据中心PUE。

二、 主要厂商的最新服务器系列(举例)

以下是一些主流OEM厂商基于最新技术推出的代表性产品系列:

1、Dell PowerEdge

主流计算PowerEdge XR8000(针对边缘和密集计算)、PowerEdge R760(双路通用主力机型)。

AI优化PowerEdge XE9680(8x GPU服务器,支持H100/H200)、PowerEdge R760xa(针对AI推理和VDI优化)。

2、HPE

主流计算HPE ProLiant Gen11 系列(如DL380 Gen11)。

AI与HPCHPE Cray XD2000(超级计算架构,支持液冷和大量GPU)、HPE Apollo 2000(针对AI训练和推理的高密度系统)。

3、联想 ThinkSystem

主流计算ThinkSystem SR650 V3 / SR670 V3(双路主流机架式)。

AI优化ThinkSystem SR675 V3(3x GPU服务器)、SR685a V3(8x GPU服务器)。

4、超微 (Supermicro)

* 以提供种类繁多、高度可定化的解决方案著称,其产品线几乎覆盖所有最新Intel和AMD平台,并有丰富的GPU服务器(如X13系列搭载H100/H200的系统)和多节点服务器(如BigTwin®)。

5、浪潮信息

* 作为全球重要的服务器供应商,其NF5280G7是主力的双路通用机型,而NF5688G7则是面向AI训练的8-GPU旗舰服务器。

6、华为

FusionServer Pro 系列最新型号(如2288H V6)也支持最新的Intel和AMD处理器,并提供AI相关的解决方案。

三、 按工作负载划分的“最新款”代表

通用计算/云服务

代表搭载Intel Xeon 6 E-core(如Sierra Forest)或AMD EPYC Bergamo处理器的双路服务器(如Dell R760、HPE DL385 Gen11)。

特点核心数极高,追求每瓦性能和多租户密度。

高性能计算 (HPC) / AI 训练

代表搭载NVIDIA HGX H100/H200AMD Instinct MI300X 的8-GPU服务器(如Dell XE9680、Supermicro AS -8125GS-TNHR)。

特点巨大的计算能力、高速NVLink/NVSwitch互连、普遍支持液冷。

边缘计算

代表加固设计的短深、耐环境服务器(如Dell PowerEdge XR系列、HPE Edgeline)。

特点尺寸紧凑,能在恶劣环境(宽温、振动、粉尘)下运行,常带有多个I/O接口。

不存在唯一的“最新款服务器”,您需要根据具体的工作负载(是跑虚拟化、数据库还是AI训练)、预算、功耗和空间限制来选择。

如果追求极致的核心密度和能效,应关注基于Intel Xeon 6 E-coreAMD EPYC 处理器的服务器。

如果需要进行大规模AI模型训练,那么配备NVIDIA H100/H200/B100AMD MI300XGPU服务器是唯一的选择。

对于大多数企业通用应用,基于Intel Xeon 6 P-coreAMD EPYC(如9004系列)的双路机架式服务器(如Dell R760)是可靠且性能强劲的选择。

建议您在采购前,直接访问Dell、HPE、联想等厂商的官网,使用其服务器配置工具,根据需求来选择最新平台的型号。

文章摘自:https://idc.huochengrm.cn/js/14477.html

评论