01-正文
本章节下载: 01-正文 (9.49 MB)
操作服务器之前,请仔细了解以下安全信息。
· H3C授权人员或专业的服务器工程师才能运行该服务器。
· 请将服务器放在干净、平稳的工作台或地面上进行维护。
· 运行服务器前,请确保所有线缆均连接正确。
· 为确保服务器充分散热,请遵循如下操作准则:
¡ 请勿阻塞服务器的通风孔。
¡ 服务器的空闲槽位必须安装假面板,比如硬盘、风扇、PCIe卡、电源模块的槽位。
¡ 机箱盖、导风罩、空闲槽位假面板不在位的情况下,请不要运行服务器。
¡ 维护热插拔部件时,请最大限度地减少机箱盖打开的时间。
· 为避免组件表面过热造成人身伤害,请确保设备和内部系统组件冷却后再操作。
· 当服务器与其他设备上下叠加安装在机柜中时,请确保两个设备之间留出垂直方向2mm以上的空隙。
前面板上的“开机/待机”按钮不能彻底切断系统电源,此时部分电源和内部电路仍在工作,为避免人身伤害、触电或设备损坏,请将服务器完全断电,即先按下“开机/待机”按钮,当系统电源指示灯变为橙色常亮时,将服务器上的所有电源线拔出。
· 为避免人身伤害或服务器损坏,请使用随机附带的电源线缆。
· 电源线缆只能用于配套的服务器,请勿在其他设备上使用。
· 为避免触电风险,在安装或拆卸任何非热插拔部件时,请先将设备下电。
服务器管理模块上配置有系统电池,一般情况下,电池寿命为3~5年。
当服务器不再自动显示正确的日期和时间时,需更换电池。更换电池时,请注意以下安全措施:
· 请勿尝试给电池充电。
· 请勿将电池置于60°C以上的环境中。
· 请勿拆卸/碾压/刺穿电池、使电池外部触点短路或将其投入火中/水中。
· 请将电池弃于专门的电池处理点,勿随垃圾一起丢弃。
为避免电源波动或临时断电对服务器造成影响,建议使用UPS为服务器供电。这种电源可防止服务器硬件因电涌和电压峰值的影响而受损,并且可在电源故障时确保服务器正常运行。
· 服务器必须安装在标准19英寸机柜中。
· 机柜的支撑脚要完全触地,且机柜的全部重量应由支撑脚承担。
· 当有多个机柜时,请将机柜连接在一起。
· 请做好机柜安装的部署工作,将最重的设备安装在机柜底部。安装顺序为从机柜底部到顶部,即优先安装最重的设备。
· 将服务器安装到机柜或从机柜中拉出时(尤其当服务器脱离滑道时),要求四个人协同工作,以平稳抬起服务器。当安装位置高于胸部时,则可能需要第五个人帮助调整服务器的方位。
· 每次只能从机柜中拉出一台设备,否则会导致机柜不稳固。
· 将服务器从机柜中拉出或推入前,请确保机柜稳固。
· 为确保充分散热,请在未使用的机柜位置安装假面板。
人体或其它导体释放的静电可能会损坏对静电敏感的部件,由静电造成的损坏会缩短部件的使用寿命。
为避免静电损害,请注意以下事项:
· 在运输和存储设备时,请将部件装入防静电包装中。
· 将静电敏感部件送达不受静电影响的工作区前,请将它们放在防静电包装中保管。
· 先将部件放置在防静电工作台上,然后再将其从防静电包装中取出。
· 在没有防静电措施的情况下,请勿触摸组件上的插针、线缆和电路元器件等静电敏感元件。
在取放或安装部件时,用户可采取以下一种或多种接地方法以防止静电释放。
· 佩戴防静电腕带,并将腕带的另一端良好接地。请将腕带紧贴皮肤,且确保其能够灵活伸缩。
· 在工作区内,请穿上防静电服和防静电鞋,并佩戴防静电手套。
· 请使用导电的现场维修工具。
· 请使用防静电的可折叠工具垫和便携式现场维修工具包。
为避免维护服务器过程中可能造成的任何伤害,请熟悉服务器上可能出现的安全标识。
图示 |
说明 |
警告 |
该标识表示存在危险电路或触电危险。所有维修工作应由H3C授权人员或专业的服务器工程师完成。 |
为避免电击造成人身伤害,请勿打开符号标识部件。所有维护、升级和维修工作都应由H3C授权人员或专业的服务器工程师完成。 |
|
该标识表示存在触电危险。不允许用户现场维修此部件。用户任何情况下都不能打开此部位。 |
为避免电击造成人身伤害,请勿打开符号标识部件。 |
|
该标识表示存在高温表面或组件。如果触摸该表面或组件,可能会造成人身伤害。 |
为避免组件表面过热造成人身伤害,请确保服务器和内部系统组件冷却后再操作。 |
|
该标识表示组件过重,已超出单人安全取放的正常重量。 |
为避免人身伤害或设备损坏,请遵守当地关于职业健康与安全的要求,以及手动处理材料的指导。 |
|
电源或系统上的这些标识表示服务器由多个电源模块供电。 |
为避免电击造成人身伤害,请先断开所有电源线缆,并确保服务器已完全断电。 |
· 本手册为产品通用资料。对于定制化产品,请用户以产品实际情况为准。
· 本手册中,所有部件的型号都做了简化(比如删除前缀和后缀)。比如内存型号DDR4-2666-8G-1Rx8-R,代表用户可能看到的以下型号:UN-DDR4-2666-8G-1Rx8-R、UN-DDR4-2666-8G-1Rx8-R-F、UN-DDR4-2666-8G-1Rx8-R-S。
· 图片仅供参考,具体请以实物为准。
H3C UniServer R5300 G3服务器(简称R5300 G3或服务器)是一款公司自主研发、基于Intel Purley CPU、澜起Jintide C系列平台的4U 2路异构服务器,具有计算性能强大、内置高性能大容量存储、易维护易部署等特点。该服务器支持企业和公有云部署。
服务器的外观如图2-1所示。
介绍服务器的产品规格和技术参数。
产品规格的计算,以产品支持的所有部件为基准。比如单颗CPU最大支持功耗,是以所有CPU中功耗最大的为准进行计算的。对于定制化产品,请用户以产品实际情况为准。
功能特性 |
说明 |
GPU |
· 16GPU计算模块: ¡ 最多支持20张NVIDIA Telsa T4 GPU卡 · 8GPU计算模块: ¡ 最多支持8张NVIDIA Telsa T4 GPU卡 ¡ 最多支持8张NVIDIA Telsa P40 GPU卡 ¡ 最多支持8张NVIDIA Telsa V100 GPU卡 ¡ 最多支持8张NVIDIA Telsa V100S GPU卡 ¡ 最多支持8张NVIDIA A100 GPU卡 ¡ 最多支持8张NVIDIA RTX6000 GPU卡 ¡ 最多支持8张NVIDIA A10 GPU卡 ¡ 最多支持8张NVIDIA A30 GPU卡 ¡ 最多支持8张NVIDIA A40 GPU卡 ¡ 最多支持8张HUAWEI Atlas 910 B GPU卡 |
处理器 |
最多支持2路Intel Purley CPU、澜起Jintide C系列CPU · 单颗CPU最大支持功耗205W · 最高主频支持3.6GHz · 单颗CPU三级缓存最高支持38.5MB · 单颗CPU最高支持28个计算核心 |
内存 |
最多可支持24根DDR4内存,支持DDR4和DCPMM内存,单根内存最大支持的频率为2933MHz |
存储控制卡 |
l 支持板载RSTe阵列控制器 l 高性能存储控制卡 l NVMe VROC模块 |
芯片组 |
Intel C621 Lewisburg芯片组 |
网络接口 |
l 板载1个1Gbit/s HDM专用网络接口 l 1个OCP网卡插槽,可以选配OCP3.0网卡 |
集成显卡 |
显卡芯片集成在BMC管理芯片中,芯片型号为AST2500,提供16MB显存,支持的最大分辨率是1920 x 1200@60Hz (32bpp)。 其中: · 关于分辨率: ¡ 1920 x 1200:表示横向有1920个像素列;纵向有1200个像素列 ¡ 60Hz:表示刷新率,每秒60次屏幕刷新 ¡ 32bpp:表示色彩位数。色彩位数越高,表现的色彩越丰富 · 前后VGA接口同时连接显示器时,仅连接前面板VGA接口的显示器会显示 |
I/O端口 |
· 最多支持5个USB 3.0接口(前面板1个,后面板2个,主板2个)和2个USB 2.0接口(前面板) · 内置1个x4 Mini-SAS-HD接口、3个x8 SlimSAS接口、4个x16 LP SlimSAS接口 · 1个RJ45 HDM专用网络接口(后面板) · 最多支持2个VGA接口(前面板1个,后面板1个) · 支持1个BIOS串口(后面板) |
扩展插槽 |
· 主板:支持1个Mezz存储控制卡专用插槽和1个OCP3.0网卡专用插槽 · 8GPU节点板:最多支持12个PCIe可用插槽,其中最多可以支持10个PCIe4.0插槽和2个PCIe3.0插槽 · 16GPU节点板:最多支持20个PCIe3.0可用插槽 |
4个热插拔电源模块,支持N+N冗余 |
|
认证 |
通过CQC、SEPA、CE EMC、CE RoHS、FCC EMC、ICES、VCCI等认证 |
表2-2 技术参数
类别 |
项目 |
说明 |
物理参数 |
尺寸(高x宽x深) |
不含安全面板与挂耳:174.8mm X 447.0mm X 807mm 含安全面板:174.8mm X 447.0mm X 829mm |
最大重量 |
63kg |
|
环境参数 |
温度 |
工作环境温度:5°C~40°C 某些配置下,服务器支持的最高工作环境温度会降低,具体请参见附录中的“工作环境温度规格”章节。 |
贮存环境温度:-40°C~70°C |
||
· 工作环境湿度:8%~90%(无冷凝) · 贮存环境湿度:5%~95%(无冷凝) |
||
· 工作环境高度:-60m~3000m(海拔高于900m时,每升高100m,规格最高温度降低0.33°C) · 贮存环境高度:-60m~5000m |
服务器包括3种GPU配置方案,以满足不同应用场景的需求,GPU模块的详细信息请参见2.7 GPU计算模块:
· 8GPU-AI
适合深度学习应用,特别适用于能够轻易、有效地在GPU卡上直接产生代码的应用。该GPU配置方案最多支持8张全高全长双宽GPU卡,8张GPU卡从属于1个CPU。该GPU配置方案线缆连接方式请参见7.3.1 连接8GPU-AI线缆。
· 8GPU-HPC
适合大多数的HPC应用,适用于CPU和GPU卡频繁通信的场景。该GPU配置方案最多支持8张全高全长双宽GPU卡,8张GPU卡从属于2个CPU。该GPU配置方案线缆连接方式请参见7.3.2 连接8GPU-HPC线缆。
· 16GPU
适合推理场景。该GPU配置方案支持16张半高半长单宽GPU卡和4个PCIe3.0插槽,最多支持20张半高半长单宽GPU卡,20张GPU卡从属于2个CPU。该GPU配置方案线缆连接方式请参见7.3.3 连接16GPU线缆。
图2-2 服务器部件
表2-3 服务器部件说明
序号 |
名称 |
说明 |
1 |
GPU扩展笼 |
用于安装GPU节点板,安装了GPU节点板的扩展笼统称GPU计算模块。 |
2 |
16GPU节点板 |
最多支持安装20张半高半长单宽GPU卡,其中4个槽位可选标准半长单宽PCIe卡。GPU节点板经过GPU电源转接板进行供电,当GPU计算模块被抽出时,GPU节点板将断电。 |
3 |
8GPU节点板 |
最多支持安装8张全高全长双宽GPU卡和4张标准半长单宽PCIe卡。GPU节点板经过GPU电源转接板进行供电,当GPU计算模块被抽出时,GPU节点板将断电。 |
4 |
主板 |
服务器最重要的部件之一,用于安装CPU、内存和风扇等,集成了服务器的基础元器件,包括BIOS芯片、PCIe插槽等。 |
5 |
风扇笼 |
用于安装风扇模块。 |
6 |
安全面板 |
- |
7 |
导风罩 |
为CPU散热器和内存提供散热风道,同时为超级电容提供安装位置。 |
8 |
24LFF硬盘背板 |
为24LFF硬盘供电并提供数据传输通道。 |
9 |
GPU稳定架 |
帮助固定在位的GPU,提升GPU的稳定性。 |
10 |
12LFF硬盘背板 |
为12LFF硬盘供电并提供数据传输通道。 |
11 |
机箱 |
机箱将所有部件集中到一起。 |
12 |
机箱盖 |
- |
13 |
CPU夹持片 |
用于将CPU固定到散热器。 |
14 |
CPU |
集成内存控制器和PCIe控制器,为服务器提供强大的数据处理功能。 |
15 |
CPU散热器 |
用于为CPU散热。 |
16 |
风扇模块 |
为服务器散热提供动力,支持热插拔,支持7+1冗余。 |
17 |
硬盘 |
为服务器提供数据存储介质,支持热插拔。 |
18 |
OCP转接模块 |
用于安装OCP网卡。 |
19 |
OCP网卡 |
一种网卡,安装在机箱后部,可以在不打开机箱盖的情况下进行安装和更换。 |
20 |
左挂耳(含开箱检测模块) |
用于将服务器固定到机柜,其中左侧挂耳集成了开箱检测模块,同时带VGA和USB 2.0接口。 开箱检测模块用于检测机箱盖是否被打开,检测结果通过HDM界面显示。 |
21 |
右挂耳 |
用于将服务器固定到机柜,其中右侧挂耳中集成了前面板I/O组件。 |
22 |
超级电容 |
用于在系统意外掉电时为存储控制卡上的Flash卡供电,实现存储控制卡上数据的掉电保护。 |
23 |
坦克链 |
用于包裹GPU数据线缆和AUX信号线缆,确保在抽拉GPU计算模块时,机箱内的线缆保持整齐有序。 |
24 |
电源模块 |
为服务器运行提供电力转换功能。电源模块支持热插拔,支持N+N冗余。 |
25 |
GPU |
为服务器提供图像处理和人工智能等计算服务。 |
26 |
Mezz存储控制卡 |
一种存储控制卡,仅支持安装到主板上的Mezz存储控制卡插槽。 |
27 |
GPU电源转接板 |
安装在主板的通流铜柱上,为GPU计算模块供电。 |
28 |
加密模块 |
用于为服务器提供加密服务,提高服务器数据安全性。 |
29 |
NVMe VROC模块 |
NVMe VROC模块用于激活NVMe硬盘阵列特性,配合VMD技术实现NVMe硬盘阵列功能。 |
30 |
系统电池 |
为系统时钟供电,确保系统日期和时间正确。 |
31 |
SATA M.2 SSD卡 |
为服务器提供数据存储介质。 |
32 |
内存 |
用于暂时存放CPU中的运算数据,以及与硬盘等外部存储设备交换的数据。 |
介绍计算模块前面板上的组件和服务器前面板上的组件、指示灯含义和接口用途。
表2-4 前面板-24LFF硬盘组件说明
编号 |
说明 |
1 |
VGA接口 |
2 |
USB 2.0接口(2个) |
3 |
抽拉式资产标签 |
4 |
24LFF SAS/SATA硬盘 |
5 |
可选NVMe硬盘 |
6 |
USB 3.0接口 |
表2-5 前面板-12LFF硬盘组件说明
编号 |
说明 |
1 |
VGA接口 |
2 |
USB 2.0接口(2个) |
3 |
抽拉式资产标签 |
4 |
8LFF SAS/SATA硬盘 |
5 |
4LFF NVMe硬盘 |
6 |
USB 3.0接口 |
编号 |
说明 |
状态 |
1 |
开机/待机按钮和系统电源指示灯 |
· 绿灯常亮:系统已启动 · 绿灯闪烁(1Hz):系统正在开机 · 橙灯常亮:系统处于待机状态 · 灯灭:未通电 |
2 |
UID按钮/指示灯 |
· 蓝灯常亮:UID指示灯被激活。UID指示灯可通过以下任意方法被激活: ¡ UID按钮被按下 ¡ 通过HDM开启UID指示灯 · 蓝灯闪烁: ¡ 1Hz:系统正在被HDM远程管理或正在通过HDM带外方式升级固件,请勿下电 ¡ 4Hz:HDM正在重启(长按UID按钮/指示灯10秒可重启HDM) · 灯灭:UID指示灯未激活 |
3 |
Health指示灯 |
· 绿灯常亮:系统状态正常或有轻微告警 · 橙灯闪烁(1Hz):系统出现严重错误告警 · 红灯闪烁(1Hz):系统出现紧急错误告警 |
4 |
OCP网卡以太网接口指示灯 |
· 绿灯常亮:网口链路已经连通 · 绿灯闪烁(1Hz):网口正在接收或发送数据 · 灯灭:网口链路没有连通 |
· 如果Health指示灯显示系统出现问题,请通过HDM查看系统运行状态。 |
表2-7 前面板接口
接口名称 |
类型 |
用途 |
USB接口 |
USB 3.0/2.0 |
用于连接USB设备,以下情况下需要使用该接口: · 连接U盘 · 连接USB键盘或鼠标 · 安装操作系统时,连接USB光驱 |
VGA接口 |
DB15 |
用于连接显示终端,如显示器或KVM设备 |
介绍服务器后面板上的组件、指示灯含义和接口用途。
图2-6 后面板组件-8GPU计算模块
图2-7 后面板组件-16GPU计算模块
表2-8 后面板组件说明
编号 |
说明 |
1 |
GPU计算模块 |
2 |
抽拉式资产标签 |
3 |
电源模块1 |
4 |
电源模块2 |
5 |
BIOS串口 |
6 |
USB 3.0接口(2个) |
7 |
HDM专用网络接口(1Gb/s,RJ45,缺省IP地址:192.168.1.2/24) |
8 |
可选OCP3.0网卡(暂不支持热插槽) |
9 |
VGA接口 |
10 |
电源模块3 |
11 |
电源模块4 |
表2-9 后面板指示灯说明
编号 |
说明 |
状态 |
1、2、6、7 |
电源模块状态指示灯 |
· 绿灯常亮:电源模块工作正常 · 绿灯闪烁(1Hz):电源模块输入正常,系统处于待机状态未上电 · 绿灯闪烁(0.33Hz):电源模块处于备用电源模式,无功率输出 · 绿灯闪烁(2Hz):电源模块处于固件更新状态 · 橙灯常亮: ¡ 电源模块出现严重故障 ¡ 该电源模块无输入,其他电源模块最少有1块输入正常 · 橙灯闪烁(1Hz):电源模块出现告警 · 灯灭:电源模块无输入,存在以下一种或两种情况: ¡ 电源线缆连接故障 ¡ 外部供电系统断电 |
3 |
UID指示灯 |
· 蓝灯常亮:UID指示灯被激活。UID指示灯可通过以下任意方法被激活: ¡ UID按钮被按下 ¡ 通过HDM开启UID指示灯 · 蓝灯闪烁: ¡ 1Hz:系统正在被HDM远程管理或固件升级 ¡ 4Hz:HDM正在重启(长按UID按钮/指示灯10秒可重启HDM) · 灯灭:UID指示灯未激活 |
4 |
以太网接口连接状态指示灯 |
· 绿色常亮:网口链路已经连通 · 灯灭:网口链路没有连通 |
5 |
以太网接口数据传输状态指示灯 |
· 绿色闪烁(1Hz):网口正在接收或发送数据 · 灯灭:网口没有接收或发送数据 |
接口名称 |
类型 |
用途 |
HDM专用网络接口 |
用于登录HDM管理界面,进行服务器管理 |
|
USB接口 |
USB 3.0 |
用于连接USB设备,以下情况下需要使用该接口: · 连接U盘 · 连接USB键盘或鼠标 · 安装操作系统时,连接USB光驱 |
VGA接口 |
DB15 |
用于连接显示终端,如显示器或KVM设备 |
BIOS串口 |
RJ45 |
· 服务器网络故障,远程连接服务器失败时,可通过连接服务器的BIOS串口,登录服务器进行故障定位 · 用于加密狗、短信猫等应用 |
电源接口 |
标准单相电源接头 |
用于连接电源模块和外部供电系统,为设备供电 |
介绍如下内容:
· 服务器支持的GPU计算模块类型。
· 每种GPU计算模块节点板布局(简称GPU节点板)。
服务器支持2种类型的GPU计算模块:8GPU计算模块和16GPU计算模块。
· 8GPU计算模块:最多支持安装8张全高全长双宽GPU卡和4张标准半长单宽PCIe卡。
· 16GPU计算模块:最多支持安装20张半高半长单宽GPU卡,其中4个槽位可选标准半长单宽PCIe卡。
介绍2种GPU节点板布局。
图2-9 16GPU节点板布局
表2-11 16GPU节点板布局说明
编号 |
说明 |
1 |
PCIe3.0 x16(16,8,4,2,1) slot 4 |
2 |
PCIe3.0 x16(16,8,4,2,1) slot 3 |
3 |
从右到左依次为PCIe3.0 x16(16,8,4,2,1) slot 7~22(用户位于服务器前方) |
4 |
PCIe3.0 x16(16,8,4,2,1) slot 2 |
5 |
PCIe3.0 x16(16,8,4,2,1) slot 1 |
6 |
x16 LP SlimSAS接口N1(PCIe3.0 x16) |
7 |
x16 LP SlimSAS接口N3(PCIe3.0 x16) |
8 |
x16 LP SlimSAS接口N5(PCIe3.0 x16) |
9 |
x16 LP SlimSAS接口N6(PCIe3.0 x16) |
10 |
GPU节点AUX接口 |
· PCIe4.0 x16(16,8,4,2,1)含义如下: ¡ PCIe4.0:第四代信号速率。 ¡ x16:连接器宽度。 ¡ (16,8,4,2,1):兼容的总线带宽,包括x16,x8,x4,x2和x1。 · PCIe3.0 x16含义如下: ¡ PCIe3.0:第三代信号速率。 ¡ x16:总线带宽。 |
表2-12 16GPU节点板的槽位CPU从属关系
槽位号 |
从属CPU |
slot 1 |
CPU1 |
slot 2 |
CPU1 |
slot 3 |
CPU2 |
slot 4 |
CPU2 |
slot 7 |
CPU1 |
slot 8 |
CPU1 |
slot 9 |
CPU1 |
slot 10 |
CPU1 |
slot 11 |
CPU1 |
slot 12 |
CPU1 |
slot 13 |
CPU1 |
slot 14 |
CPU1 |
slot 15 |
CPU2 |
slot 16 |
CPU2 |
slot 17 |
CPU2 |
slot 18 |
CPU2 |
slot 19 |
CPU2 |
slot 20 |
CPU2 |
slot 21 |
CPU2 |
slot 22 |
CPU2 |
图2-10 8GPU节点板布局
表2-13 8GPU节点板布局说明
编号 |
说明 |
1 |
PCIe4.0 x16(16,8,4,2,1) slot 4 |
2 |
PCIe3.0 x16(16,8,4,2,1) slot 3 |
3 |
从右到左依次为PCIe4.0 x16(16,8,4,2,1) slot 7~14(用户位于服务器前方) |
4 |
PCIe4.0 x16(16,8,4,2,1) slot 2* |
5 |
PCIe3.0 x16(16,8,4,2,1) slot 1 |
6 |
GPU电源接口(8个) |
7 |
x16 LP SlimSAS接口N1(PCIe4.0 x16) |
8 |
x16 LP SlimSAS接口N3(PCIe4.0 x16) |
9 |
x16 LP SlimSAS接口N2(PCIe4.0 x16) |
10 |
x16 LP SlimSAS接口N4(PCIe4.0 x16) |
11 |
x16 LP SlimSAS接口N5(PCIe4.0 x16) |
12 |
x16 LP SlimSAS接口N6(PCIe4.0 x16) |
13 |
GPU节点AUX接口 |
*:当GPU采用HPC配置方案时,插槽支持PCIe 4.0;当GPU采用AI配置方案时,插槽仅支持PCIe 3.0。 · PCIe4.0 x16(16,8,4,2,1)含义如下: ¡ PCIe4.0:第四代信号速率。 ¡ x16:连接器宽度。 ¡ (16,8,4,2,1):兼容的总线带宽,包括x16,x8,x4,x2和x1。 · PCIe4.0 x16含义如下: ¡ PCIe4.0:第四代信号速率。 ¡ x16:总线带宽。 |
表2-14 8GPU节点板的槽位CPU从属关系
槽位号 |
8GPU-AI方案从属CPU |
8GPU-HPC方案从属CPU |
slot 1 |
CPU1 |
CPU1 |
slot 2 |
CPU2 |
CPU1 |
slot 3 |
CPU2 |
CPU2 |
slot 4 |
CPU1 |
CPU2 |
slot 7 |
CPU1 |
CPU1 |
slot 8 |
CPU1 |
CPU1 |
slot 9 |
CPU1 |
CPU1 |
slot 10 |
CPU1 |
CPU1 |
slot 11 |
CPU1 |
CPU2 |
slot 12 |
CPU1 |
CPU2 |
slot 13 |
CPU1 |
CPU2 |
slot 14 |
CPU1 |
CPU2 |
介绍服务器主板布局和主板上的组件含义。
表2-15 主板布局说明
序号 |
含义 |
1 |
OCP转接模块插槽 |
2 |
内置USB 3.0接口(2个) |
3 |
SATA M.2 SSD卡接口(2个) |
4 |
SlimSAS接口(x8 SATA接口) |
5 |
Mini-SAS-HD接口(x4 SATA接口) |
6 |
通流铜柱1 |
7 |
NVMe AUX接口 |
8 |
x16 LP SlimSAS接口M1或A1/A2/A3/A4 NVMe接口*(PCIe4.0 x16,从属CPU 1) |
9 |
x16 LP SlimSAS接口M3(PCIe4.0 x16,从属CPU 1) |
10 |
前面板I/O接口 |
11 |
前部硬盘背板电源接口3 |
12 |
前部硬盘背板电源接口2 |
13 |
x8 SlimSAS接口B1/B2(PCIe4.0 x8,从属CPU 2) |
14 |
x8 SlimSAS接口B3/B4(PCIe4.0 x8,从属CPU 2) |
15 |
前部硬盘背板电源接口1 |
16 |
前部硬盘背板AUX接口 |
17 |
开箱检测模块、前部VGA和2个USB 2.0接口 |
18 |
x16 LP SlimSAS接口M5(PCIe4.0 x16,从属CPU 2) |
19 |
x16 LP SlimSAS接口M6(PCIe4.0 x16,从属CPU 2) |
20 |
GPU计算模块AUX接口 |
21 |
通流铜柱2 |
22 |
系统电池 |
23 |
NVMe VROC模块接口 |
24 |
Mezz存储控制卡插槽 |
25 |
TPM/TCM插槽 |
X1 |
系统维护开关1 |
X2 |
系统维护开关2 |
X3 |
系统维护开关3 |
*:表示复用接口,即该接口支持连接线缆到硬盘背板(仅配置8GPU节点板时支持连接线缆到24LFF硬盘背板),或连接线缆到GPU节点板。 · 当该接口支持连接线缆到硬盘背板(仅配置8GPU节点板时支持连接线缆到24LFF硬盘背板)时,服务器支持8个NVMe硬盘,支持NVMe硬盘的槽位如图2-3所示;但不支持PCIe slot 1,PCIe slot编号如图2-6所示。 · 当该接口连接线缆到GPU节点板时,服务器不支持8个NVMe硬盘,但是支持PCIe slot 1,PCIe slot编号请参见2.6.1 后面板组件。 · PCIe4.0 x16含义如下: ¡ PCIe4.0:第四代信号速率。 ¡ X16:总线带宽。 |
系统维护开关的具体位置请参见2.8.1 主板布局。系统维护开关说明如表2-1所示。通过系统维护开关,可解决以下问题:
· 忘记HDM登录用户名或密码,无法登录HDM。
· 忘记BIOS密码,无法进入BIOS。
· 需要恢复BIOS缺省设置。
名称 |
系统维护开关 |
注意事项 |
系统维护开关1 |
· 跳针1、2短接(缺省) = 登录HDM时,输入用户名和密码 · 跳针2、3短接 = 登录HDM时,输入缺省用户名和缺省密码 |
跳针2、3短接后,可永久通过缺省用户名和缺省密码登录HDM。建议完成操作后,重新将跳针1、2短接。 |
系统维护开关2 |
· 跳针1、2短接(缺省) = 正常启动服务器 · 跳针2、3短接 = 恢复BIOS缺省设置 |
跳针2、3短接30秒以上,BIOS即可恢复为缺省设置。此时请重新将跳针1、2短接,正常启动服务器。 |
系统维护开关3 |
· 跳针1、2短接(缺省) = 正常启动服务器 · 跳针2、3短接 = 启动服务器时清除BIOS的所有密码 |
跳针2、3短接后,服务器开机过程中BIOS密码被清除。此时请根据BIOS界面提示,关机并重新将跳针1、2短接后,再开机,即可无BIOS密码启动服务器。 |
内存插槽布局如图2-12所示,A1、A2…A12,B1、B2…B12表示内存插槽号。内存的具体安装准则请参见2.11.11 内存。
介绍如下内容:
· 服务器支持的典型硬盘配置。
· 每种硬盘配置所需的存储控制卡配置和线缆连接方法。
· 所有硬盘配置对应的硬盘编号。
· 硬盘指示灯的含义。
服务器支持多种不同的硬盘配置,可供用户灵活选择,具体硬盘配置如表2-17。
硬盘配置 |
硬盘具体配置 |
存储控制卡配置和主板SlimSAS接口连线方式 |
线缆连接方法 |
12LFF |
8LFF SATA硬盘+ 4LFF NVMe硬盘 |
RSTe板载软RAID,同时,硬盘背板上的SlimSAS接口需要连接到主板上的SlimSAS接口 |
|
8LFF SAS/SATA硬盘 + 4LFF NVMe硬盘 |
Mezz存储控制卡或标准存储控制卡,同时,硬盘背板上的SlimSAS接口需要连接到主板上的SlimSAS接口 |
||
24LFF |
16LFF SAS/SATA硬盘 + 8LFF UniBay硬盘 |
Mezz存储控制卡或标准存储控制卡,同时,硬盘背板上的SlimSAS接口需要连接到主板上的SlimSAS接口和LP SlimSAS M1接口 |
|
20LFF SAS/SATA硬盘 + 4LFF UniBay硬盘 |
Mezz存储控制卡或标准存储控制卡,同时,硬盘背板上的SlimSAS接口需要连接到主板上的SlimSAS接口 |
||
· 硬盘配置不同,SAS/SATA硬盘和NVMe硬盘的安装位置也不同,详细信息请参见2.5.1 服务器前面板组件。 · UniBay硬盘:SAS/SATA HDD/SSD硬盘或NVMe硬盘。 |
硬盘编号用于指示硬盘位置,与服务器前后面板上的丝印完全一致。
图2-13 12LFF硬盘编号
图2-14 24LFF硬盘编号
服务器支持SAS/SATA硬盘和NVMe硬盘,SAS/SATA硬盘支持热插拔。硬盘指示灯指示硬盘状态,硬盘指示灯位置如图2-15所示。
(1):硬盘Fault/UID指示灯 |
(2):硬盘Present/Active指示灯 |
SAS/SATA硬盘指示灯含义请参见表2-18,NVMe硬盘指示灯含义请参见表2-19。
表2-18 SAS/SATA硬盘指示灯说明
硬盘Fault/UID指示灯(橙色/蓝色) |
硬盘Present/Active指示灯(绿色) |
说明 |
常亮/闪烁(4Hz) |
硬盘预告性故障报警,请及时更换硬盘 |
|
橙色常亮 |
常亮/闪烁(4Hz) |
硬盘出现故障,请立即更换硬盘 |
蓝色常亮 |
常亮/闪烁(4Hz) |
硬盘状态正常,且被阵列管理工具选中 |
灯灭 |
闪烁(4Hz) |
硬盘在位,有数据读写操作或正在进行阵列迁移/重建 |
灯灭 |
常亮 |
硬盘在位,但没有数据读写操作 |
灯灭 |
灯灭 |
硬盘未安装到位 |
表2-19 NVMe硬盘指示灯说明
硬盘Fault/UID指示灯(橙色/蓝色) |
硬盘Present/Active指示灯(绿色) |
说明 |
橙色闪烁(0.5Hz) |
灯灭 |
硬盘已完成预知性热拔出流程,允许拔出硬盘 |
橙色闪烁(4Hz) |
灯灭 |
硬盘处于热插入过程 |
橙色灯常亮 |
常亮/闪烁(4Hz) |
硬盘出现故障,请立即更换硬盘 |
蓝色灯常亮 |
常亮/闪烁(4Hz) |
硬盘状态正常,且被阵列管理工具选中 |
灯灭 |
闪烁(4Hz) |
硬盘在位,有数据读写操作或正在进行阵列迁移/重建 |
灯灭 |
常亮 |
硬盘在位,但无数据读写操作 |
灯灭 |
灯灭 |
硬盘未安装到位 |
服务器最多支持4组热插拔风扇模块,每组风扇模块由2个风扇组成,风扇模块布局如图2-16所示。服务器支持N+1风扇冗余,即支持单个风扇失效。
服务器支持可变的风扇速度,即风扇会根据系统实际温度调整转速。转速策略上兼顾了系统散热和系统噪音,使系统的散热和噪音达到最优。
POST期间和操作系统运行过程中,如果系统检测到监控点温度达到紧急阈值,HDM会将服务器系统正常关机。如果系统检测到CPU等关键模块温度超过最高门限值时,服务器将直接关机。监控点的实际温度和紧急阈值可通过HDM Web界面查看,具体方法请参见HDM联机帮助。
本章节介绍各个模块的安装准则。
· 一个硬盘属于多个RAID的情况会使后期维护变得复杂,并影响RAID的性能。
· HDD硬盘如果被频繁插拔,且插拔时间间隔小于30秒,可能会导致该硬盘无法被系统识别。
· SAS/SATA硬盘在如下情况支持热插拔:
¡ 通过存储控制卡控制的SAS/SATA硬盘,在进入BIOS或操作系统后,支持热插拔操作。
¡ 通过板载VROC阵列控制器控制的SATA硬盘,只有在进入操作系统后,才支持热插拔操作。
· 建议用户安装没有RAID信息的硬盘。
· 请确保组建同一RAID的所有硬盘类型相同,否则会因硬盘性能不同而造成RAID性能下降或者无法创建RAID。即同时满足如下两点。
¡ 所有硬盘均为SAS或SATA硬盘。
¡ 所有硬盘均为HDD或SSD硬盘。
· 建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。
· NVMe硬盘支持热插。
· 部分操作系统下NVMe硬盘支持热拔和预知性热拔。两者的兼容关系,可通过OS兼容性查询工具查询。
· 建议用户安装没有RAID信息的硬盘。
· 建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。对于容量较大的硬盘,其多余容量无法用于配置当前RAID,也无法用于配置其他RAID。
· NVMe硬盘支持热插。插入硬盘时要匀速插入,过程中不能出现停顿,否则容易导致操作系统卡死或重启。
· NVMe硬盘是否支持热拔和预知性热拔,与操作系统有关。
· 不支持多个NVMe硬盘同时热插拔,建议间隔30秒以上,待操作系统识别到第一个硬盘信息后,再开始操作下一个硬盘。同时插入多个NVMe硬盘,容易导致操作系统无法识别硬盘。
· 当配置16GPU计算模块时,最多支持4个NVMe硬盘。
¡ 当服务器前部配置12LFF硬盘时,支持NVMe硬盘的槽位为编号8~11,硬盘编号如图2-13所示。
¡ 当服务器前部配置24LFF硬盘时,支持NVMe硬盘的槽位为编号20~23,硬盘编号如图2-14所示。
· 当配置8GPU计算模块,且PCIe slot 1安装部件时,最多支持4个NVMe硬盘。
¡ 当服务器前部配置12LFF硬盘时,支持NVMe硬盘的槽位为编号8~11,硬盘编号如图2-13所示。
¡ 当服务器前部配置24LFF硬盘时,支持NVMe硬盘的槽位为编号20~23,硬盘编号如图2-14所示。
· 当配置8GPU计算模块,且PCIe slot 1未安装部件时,若需要支持8个NVMe硬盘,应配置24LFF硬盘背板,支持NVMe硬盘的槽位如图2-3所示。
当配置8GPU计算模块且支持8个NVMe硬盘时,主板上的PCIe slot 1不可用,PCIe slot编号请参见2.6.1 后面板组件。PCIe slot 1不可用原因:主板上的LP SlimSAS接口M1为复用接口,当该接口连接线缆到硬盘背板支持8个NVMe硬盘时,就无法连接线缆到GPU节点板,即PCIe slot 1不可用。
· 请确保服务器上安装的所有电源模块型号相同。HDM会对电源模块型号匹配性进行检查,如果型号不匹配将提示严重告警错误。
· 电源模块支持热插拔。
· 服务器支持N+N电源模块冗余。
· 请勿使用第三方电源模块,否则可能会导致硬件损坏。
· 当配置不同数量的电源模块时,请按表2-20顺序依次安装电源模块到服务器。
电源模块配置数量 |
电源模块1 |
电源模块2 |
电源模块3 |
电源模块4 |
1 |
√ |
× |
× |
× |
2 |
√ |
× |
× |
√ |
3 |
√ |
√ |
√ |
× |
4 |
√ |
√ |
√ |
√ |
· 当电源模块温度超过正常工作温度,电源将自动关闭,当温度恢复到正常范围后,电源将会自动开启。电源模块正常工作温度范围请参见表2-21。
项目 |
2000W白金电源模块 |
2000W交流电源模块(GW-R1-白金) |
|
型号 |
DPS-2000AB-2 G |
GW-CRPS2000 |
|
额定输入电压范围@对应的输出功率 |
· 100V AC~127V AC 50/60Hz @ 1000W · 200V AC~219V AC 50/60Hz @ 1800W · 220V AC~240V AC 50/60Hz @ 2000W |
· 100V AC~127V AC 50/60Hz @ 1000W · 200V AC~230V AC 50/60Hz @ 1800W · 230V AC~240V AC 50/60Hz @ 2000W |
|
· 192V DC~210V DC @ 1600W · 210V DC~240V DC @ 1800W · 240V DC~288V DC @ 2000W |
· 192V DC~230V DC @ 1800W · 230V DC~288V DC @ 2000W |
||
额定输入电流 |
· 12.0A Max @ 100V AC~127V AC · 10.0A Max @ 200V AC~240V AC |
· 12.0A Max @ 100V AC~127V AC · 10.0A Max @ 200V AC~240V AC |
|
10.0A Max @ 240VDC |
10.0A Max @ 240VDC |
||
最大额定输出功率 |
2000W |
2000W |
|
效率@50%负载 |
94% |
94% |
|
环境温度要求 |
工作温度 |
0°C~50°C |
0°C~50°C |
贮藏温度 |
-40°C~70°C |
-40°C~70°C |
|
工作湿度 |
5%~90% |
5%~85% |
|
最高海拔 |
5000m |
5000m |
|
是否冗余 |
N+N冗余 |
N+N冗余 |
|
热插拔 |
支持 |
支持 |
|
是否支持冷备份 |
是 |
是 |
|
型号为DPS-2000AB-2 G和GW-CRPS2000的电源模块,采用快熔型16A保险丝(I2t=384A²sec),为避免电源模块故障导致前级空开跳闸,使用时请注意电源模块与空开的适配关系(空开与电源模块保险丝配合必然存在同时断开的概率,空开规格越大误触发概率越低)。 |
根据存储控制卡在服务器中的安装位置,将其分为三类,详细信息如表2-22所示。
表2-22 存储控制卡说明
类型 |
存储控制卡型号 |
安装位置 |
是否支持掉电保护功能 |
安装方法 |
板载软RAID |
RSTe板载软RAID |
缺省内嵌于服务器主板PCH中,无需用户安装 |
不支持 |
不涉及 |
Mezz存储控制卡 |
RAID-P460-M4 |
直接安装到主板的Mezz存储控制卡插槽 |
支持,内置Flash,需选配BAT-PMC-R5300-G3超级电容 |
|
标准存储控制卡 |
HBA-LSI-9300-8i-A1-X |
安装到GPU节点板上的PCIe插槽 |
不支持 |
|
RAID-LSI-9361-8i(1G)-A1-X |
支持,独立Flash,需选配BAT-LSI-R5300-G3掉电保护模块 |
|||
RAID-LSI-9361-8i(2G)-1-X |
支持,独立Flash,需选配BAT-LSI-R5300-G3掉电保护模块 |
|||
RAID-LSI-9460-8i(4G) |
支持,内置Flash,需选配BAT-LSI-G3超级电容 |
|||
· 支持掉电保护的存储控制卡必须与对应的掉电保护模块或超级电容配合使用。 |
RSTe板载软RAID规格信息如表2-23所示。
表2-23 RSTe板载软RAID规格
项目 |
RSTe板载软RAID |
端口数 |
8个内置SATA接口 |
连接器类型 |
主板上提供1个x8 SlimSAS连接器 |
端口特性 |
支持6.0Gb/s SATA 3.0接口,支持对应硬盘热插拔 |
PCIe接口 |
PCIe3.0 x4位宽 |
RAID级别 |
RAID 0/1/5 |
位置 |
内嵌在主板的PCH上 |
缓存 |
无 |
掉电保护模块 |
不支持 |
超级电容接口 |
无 |
固件升级 |
随BIOS升级 |
Mezz存储控制卡和标准存储控制卡的具体规格信息请参见官网服务器兼容的部件查询工具。
掉电保护模块是一个总称,包含Flash卡和超级电容。Flash卡有两种,一种需要安装到存储控制卡上;另一种内嵌在存储控制卡上,无需用户安装。
服务器系统意外掉电时,超级电容可为Flash卡供电20秒以上,在此期间,缓存数据会从存储控制卡的DDR存储器传输到Flash卡中。由于Flash卡是非易失性存储介质,故可实现缓存数据的永久保存或者保存到服务器系统上电,存储控制卡检索到这些数据为止。
安装超级电容后,可能会出现电量不足,此时无需采取任何措施,服务器上电后,内部电路会自动为超级电容充电并启用超级电容。关于超级电容的状态,通过HDM或BIOS可以查看。
超级电容寿命到期注意事项:
· 超级电容的寿命通常为3年~5年。
· 超级电容寿命到期时,可能导致超级电容异常,系统通过如下方式告警:
¡ 对于PMC超级电容,HDM界面中的Flash卡状态会显示为“异常”+“状态码”,可通过解析状态码了解超级电容异常的原因,具体请参见HDM联机帮助。
¡ 对于LSI超级电容,HDM界面中的Flash卡状态会显示为“异常”。
¡ HDM会生成SDS日志记录,SDS日志的查看方法请参见HDM联机帮助。
· 超级电容寿命到期时,需要及时更换,否则会导致存储控制卡的数据掉电保护功能失效。
更换寿命到期的超级电容后,请检查存储控制卡的逻辑盘缓存状态,若存储控制卡的逻辑盘缓存被关闭,则需要重新开启逻辑盘缓存的相关配置以启用掉电保护功能,具体配置方法请参见HDM联机帮助。
· 服务器配置标准存储控制卡时,建议安装到PCIe slot 3,slot编号详见2.6.1 后面板组件。
· 支持掉电保护功能的存储控制卡必须与对应的掉电保护模块或超级电容配合使用。
服务器支持的GPU卡如表2-24所示。
表2-24 GPU卡说明
GPU卡型号 |
适配的GPU计算模块类型 |
电源线缆 |
GPU-T4 |
16GPU计算模块 |
无 |
GPU-T4 |
8GPU计算模块 |
无 |
GPU-P40-X |
1根,线缆编码0404A0UC |
|
GPU-V100 |
||
GPU-V100-32G |
||
GPU-V100S-32G-M |
||
GPU-A100-40G |
||
GPU-A30-24G |
||
GPU-A40-48G-DW* |
||
GPU-RTX6000 |
||
GPU-Atlas 910 B-32G |
||
GPU-A10-24G-MP |
1根,线缆编码0404A1DT |
|
*:A40 GPU仅支持安装在12LFF硬盘配置下使用,24LFF硬盘配置下不可使用。 · 为避免造成GPU卡损坏,请务必使用GPU卡自带的或相同编码的电源线缆。 · GPU线缆连接方法请参见7.4 连接GPU卡电源线缆。 |
· 配置8GPU计算模块时,最多支持安装8个GPU,GPU的安装顺序依次为:slot7、slot8、slot9、slot10、slot11、slot12、slot13、slot14。
· 配置16GPU计算模块时,最多支持安装16个GPU,GPU的安装顺序依次为:slot7、slot8、slot9、slot10、slot11、slot12、slot13、slot14、slot15、slot16、slot17、slot18、slot19、slot20、slot21、slot22。
NVLink是世界首项高速GPU互连技术,与传统的PCIe系统解决方案相比,能为多GPU系统提供更快速的带宽性能。两张GPU-A100-40G GPU卡通过NVLink Bridge模块连接后,可以不经过CPU而直接通信,不仅获得了高速带宽,而且释放了CPU的压力。NVLink技术能够为服务器提供更高效的性能扩展,从而满足更大的视觉计算工作负载需求。
图2-17 NVLink GPU互连技术
相邻的两张GPU-A100-40G GPU卡上,支持选配三个NVLink Bridge模块,以提升这两张GPU卡的性能。建议按照slot7-slot8、slot9-slot10、slot11-slot12、slot13-slot14槽位顺序安装且相邻槽位间必须同时选配三个NVLink Bridge模块,否则无法提升GPU卡性能。
服务器支持OCP3.0网卡和标准PCIe网卡。
· OCP网卡通过OCP转接模块安装到服务器,OCP转接模块必须安装到主板上的OCP转接模块插槽,插槽的具体位置请参见图2-11。
· OCP网卡暂不支持热插拔。
· 标准PCIe网卡必须安装在GPU计算模块上的PCIe slot 1~4,各slot的具体位置请参见2.6.1 后面板组件。
· 当配置不同的GPU计算模块时,标准PCIe网卡的安装准则也不同,详细信息请参见表2-25和表2-26。
表2-25 8GPU计算模块上标准PCIe网卡的安装准则
标准PCIe网卡配置数量(张) |
slot 1 |
slot 2 |
slot 3 |
slot 4 |
1 |
× |
× |
× |
√ |
2 |
× |
√ |
× |
√ |
3 |
× |
√ |
√ |
√ |
4 |
√ |
√ |
√ |
√ |
· √表示建议安装标准PCIe网卡的槽位。 · ×表示不建议安装标准PCIe网卡的槽位。 · 如需使GPU计算模块上对应的slot可用,需要连接对应的线缆,不同应用场景线缆连接方法不同,详细信息请参见7.3.1 连接8GPU-AI线缆和7.3.2 连接8GPU-HPC线缆。 |
表2-26 16GPU计算模块上标准PCIe网卡的安装准则
标准PCIe网卡配置数量(张) |
slot 1 |
slot 2 |
slot 3 |
slot 4 |
1 |
× |
× |
× |
√ |
2 |
× |
√ |
× |
√ |
3 |
× |
√ |
√ |
√ |
4 |
√ |
√ |
√ |
√ |
· √表示建议安装标准PCIe网卡的槽位。 · ×表示不建议安装标准PCIe网卡的槽位。 · 当PCIe slot 1~4已安装GPU卡时,则可以安装标准PCIe网卡的slot编号按表格中的准则顺延。若全部slot均已安装GPU卡时,则服务器不再支持标准PCIe网卡。 |
为确保SATA M.2 SSD卡配置RAID时的可靠性,建议安装2张相同型号的SATA M.2 SSD卡。
4个风扇模块必须全部在位。
· 服务器上的CPU必须满配。
· 为避免损坏CPU或主板,只限H3C授权人员或专业的服务器工程师安装CPU。
· 请确保同一服务器上安装的CPU型号相同。
· CPU产品型号后缀为U,代表此CPU仅支持单路运行。CPU产品型号后缀请参见2. CPU产品型号后缀的含义。
· 为避免CPU底座中针脚损坏,请确保在未安装CPU的底座中安装了CPU盖片。
· 为防止人体静电损坏电子组件,请在操作前佩戴防静电手腕,并将防静电手腕的另一端良好接地。
若CPU产品型号是:UN-CPU-INTEL-8360Y-S,那么它的后缀为“Y”(简称CPU产品型号后缀)。服务器支持的CPU产品型号可通过服务器兼容的部件查询工具查询。
Intel Cascade/Skylake CPU产品型号后缀含义如表2-27。
表2-27 Intel Cascade/Skylake CPU产品型号后缀说明
CPU产品型号后缀 |
后缀含义 |
后缀说明 |
N |
NFV Optimized |
NFV场景优化 |
S |
Search Optimized |
搜索场景优化 |
T |
High Tcase |
支持高温度规格的CPU型号 |
U |
Single Socket |
仅支持单路运行 |
V |
VM Density Optimized |
虚拟机密度优化 |
Y |
Speed Select |
支持英特尔SST技术,可配置内核数量和内核频率 |
M |
2TB/Socket memory tier |
支持高内存容量,单颗CPU最高可支持2TB的内存容量 |
L |
4.5TB/Socket memory tier |
支持高内存容量,单颗CPU最高可支持4.5TB的内存容量 |
本表提供的信息仅供参考,具体内容以Intel官网资料为准。 |
内存,又称DIMM,DIMM包括DDR4和DCPMM两类内存,其中DDR4又包括LRDIMM和RDIMM。
(1) DDR4和DCPMM
· DDR4是最为常见的内存类型。服务器系统意外掉电时,DDR4中的数据会丢失。
· DCPMM具有如下两个特点。
¡ 相比于DDR4,DCPMM具有更大的单根内存容量。
¡ DCPMM(如Apache Pass)具有数据掉电保护功能。服务器系统意外掉电时,DCPMM中的数据不会丢失。
(2) RDIMM和LRDIMM
· RDIMM提供了地址奇偶校验保护功能。
· LRDIMM可为系统提供更大的容量和带宽。
(3) Rank
内存的RANK数量通常为1、2、4、8,一般简写为1R/SR、2R、4R、8R,或者Single-Rank、Dual-Rank、Quad-Rank、8-Rank。
· 1R DIMM具有一组内存芯片,在DIMM中写入或读取数据时,将会访问这些芯片。
· 2R DIMM相当于一个模块中包含两个1R DIMM,但每次只能访问一个Rank。
· 4R DIMM相当于一个模块中包含两个2R DIMM,但每次只能访问一个Rank。
· 8R DIMM相当于一个模块中包含两个4R DIMM,但每次只能访问一个Rank。
在DIMM中写入或读取数据时,服务器内存控制子系统将在DIMM中选择正确的Rank。
(4) 内存规格
可通过内存上的标签确定内存的规格。
图2-18 内存标识
表2-28 内存标识说明
编号 |
说明 |
定义 |
1 |
容量 |
· 8GB · 16GB · 32GB |
2 |
Rank数量 |
· 1R = Rank数量为1 · 2R = Rank数量为2 · 4R = Rank数量为4 · 8R = Rank数量为8 |
3 |
数据宽度 |
· x4 = 4位 · x8 = 8位 |
4 |
DIMM代数 |
DDR4 |
5 |
DIMM等效速度 |
· 2133P:2133MHz · 2400T:2400MHz · 2666V:2666MHz · 2933Y:2933MHz |
6 |
DIMM类型 |
· R = RDIMM · L = LRDIMM |
服务器支持通过以下内存模式来保护DIMM中的数据。缺省情况下,服务器的内存模式为Independent Mode,用户可根据需要修改内存模式。内存模式的含义和修改方法请参见产品的BIOS用户指南。
· Independent Mode
· Mirror Mode
· Memory Rank Sparing Mode
服务器支持2路CPU,每路CPU支持6个通道,每个通道支持2根DIMM,服务器支持24根DIMM。不同CPU平台,支持的内存类型不同,详细信息请参见如表2-29。
表2-29 不同CPU平台的DIMM支持情况
CPU平台 |
DIMM支持情况 |
SkyLake |
· 支持仅配置DDR4 · 不支持16Gbit颗粒的内存 |
Cascade Lake |
· 支持仅配置DDR4 · 支持混配DCPMM和DDR4 |
澜起Jintide C系列(仅包括C1系列) |
支持仅配置DDR4 |
· 仅配置DDR4时,DIMM安装准则请参见仅配置DDR4时的内存安装准则。 · 混配DCPMM和DDR4时,DIMM安装准则请参见混配DCPMM和DDR4时的内存安装准则。 · DDR4内存颗粒容量计算方法:内存颗粒容量=内存条容量/内存颗粒数=内存条容量/((64/颗粒位宽)*Rank数);其中64代表CPU接口位宽。 ¡ 以UN-DDR4-2933P-16G-1Rx4-R为例:内存条容量为16GB,即16*8Gbit;颗粒位宽为4,Rank数为1;则内存颗粒容量=(16*8)/((64/4)*1)=8Gbit。 ¡ 以UN-DDR4-3200AA-64G-2Rx4-R为例:内存条容量为64GB,即64*8Gbit;颗粒位宽为4,Rank数为2;则内存颗粒容量=(64*8)/((64/4)*2)=16Gbit。 |
仅当同时满足以下条件时,DIMM的工作频率可达到2933MHz:
· 使用支持的最高内存频率为2933MHz的Cascade Lake CPU。
· 使用最高频率为2933MHz的DIMM。
· 配置DIMM的通道均仅配置一根DIMM。
内存和CPU的兼容性,如表2-30所示。
表2-30 内存和CPU的兼容性
CPU类型 |
CPU兼容的内存类型@频率 |
说明 |
· Intel Skylake · 澜起Jintide C1 |
· DRAM @2933MHz · DRAM @2666MHz |
CPU兼容的DRAM @2933MH,仅包括如下编码: 0231ABE2、0231AC4S、0231AC4R、0231ABDT、0231AC4V、0231AC4Q、0231ABDU、0231AC4T、0231AC4U |
Intel Cascade Lake |
· DRAM @2933MHz · DCPMM @2666MHz |
如下CPU不兼容DCPMM: · 32XX系列 · 42XX系列(除4215、4215R) |
内存频率、CPU支持的最高内存频率,均可以通过服务器兼容的部件查询工具查询。在查询工具中,内存频率通过“内存条”部件名称进行查询;CPU支持的最高内存频率通过“处理器”部件名称进行查询。
内存在服务器上的运行频率,与内存频率、CPU支持的最高内存频率有关,确认流程如图2-19所示,具体细则如下:
· CPU支持的最高内存频率<内存频率时,内存运行频率为CPU支持的最高内存频率。
· CPU支持的最高内存频率>内存频率时,内存运行频率为内存频率。
· CPU支持的最高内存频率=内存频率时,服务器的DPC(DIMM Per Channel,每个通道中配置的内存数量)配置不同,内存运行频率也不同:
¡ CPU支持最高频率和内存频率=2933 MHz时:
- 所有内存通道均为1 DPC配置时,内存运行频率为2933 MHz。
- 存在2 DPC配置(含DDR4和DCPMM混配)时,服务器上的所有内存均会降频,内存运行频率为2666 MHz。
¡ CPU支持最高频率和内存频率<2933 MHz时,1 DPC和2 DPC内存运行频率均为内存频率。
· 确保相应的CPU已安装到位。
· 在同一台服务器上优先配置相同编码相同规格(类型、容量、Rank、频率等)的DDR4内存,产品编码信息请通过官网服务器兼容的部件查询工具进行查询。如涉及部件扩容或故障需替换成其他规格的内存时,请联系技术支持确认。
· 每个通道最多支持8个Rank。
· 一般的内存安装准则,如图2-20所示。
· 除上述准则外,不同DIMM模式还有各自特定的准则,具体请参见表2-31。需要注意的是,当实际DIMM安装不满足这些特定准则时,无论用户配置了何种DIMM模式,系列均会自动降级并使用缺省的Independent Mode。
内存模式 |
特定安装准则 |
Independent Mode(缺省) |
· 遵循一般的内存安装准则,如图2-20所示。 |
Mirror Mode |
· 确保每个CPU至少安装2根内存。 · 遵循一般的内存安装准则,如图2-20所示。需要注意的是,该模式不支持一般内存安装准则中不推荐的内存配置。 |
Memory Rank Sparing |
· 确保安装了内存的通道,每个通道的内存Rank总数大于等于2。 · 遵循一般的内存安装准则,如图2-20所示。 |
· 确保相应的CPU已安装到位。
· 不同规格(类型、容量、Rank、数据宽度、速率)的DDR4不支持混插,即服务器上配置的所有DDR4产品编码必须相同;不同规格的DCPMM不支持混插,即服务器上配置的所有DCPMM产品编码必须相同。
· DCPMM内存和DDR4尽量分布在不同的通道上,以提升内存访问带宽。
· 每个通道最多支持1根DCPMM,同一服务器上所有DCPMM容量必须相同。
· 对于每个CPU,DCPMM内存尽量在两个内存控制器对称分布。
· 一个通道内,如果同时安装DCPMM和DDR4,DCPMM安装在黑色插槽,DDR4安装在白色插槽;一个通道内,如果仅安装一根DCPMM,则DCPMM安装在白色槽位。
介绍服务器支持的NVMe VROC模块及规格信息,如表2-32所示。
表2-32 NVMe VROC模块规格
型号 |
说明 |
支持的RAID级别 |
NVMe-VROC-Key-S |
NVMe VROC模块标准版,支持任意品牌的NVMe硬盘 |
RAID 0/1/10 |
NVMe-VROC-Key-P |
NVMe VROC模块高级版,支持任意品牌的NVMe硬盘 |
RAID 0/1/5/10 |
NVMe-VROC-Key-i |
NVMe VROC模块Intel版,仅支持Intel NVMe硬盘 |
RAID 0/1/5/10 |
8GPU-HPC配置方案的B/D/F信息如表2-33所示。
表2-33 8GPU-HPC配置方案的B/D/F信息
安装位置 |
部件所在槽位号 |
从属CPU |
端口号 |
Rootport(B/D/F) |
Endpoint(B/D/F) |
GPU计算模块 |
slot 1 |
CPU 1 |
Port 3A |
6a:00.0 |
6b:00.0 |
slot 2 |
CPU 1 |
Port 2A |
32:00.0 |
3c:00.0 |
|
slot 3 |
CPU 2 |
Port 2A |
c0:00.0 |
c1:00.0 |
|
slot 4 |
CPU 2 |
Port 1A |
a0:00.0 |
aa:00.0 |
|
OCP网卡插槽 |
slot 5 |
CPU 1 |
Port 1A |
1c:00.0 |
1d:00.0 |
Mezz存储控制卡插槽 |
slot 6 |
CPU 1 |
Port 1C |
1c:00.0 |
1e:00.0 |
GPU计算模块 |
slot 7 |
CPU 1 |
Port 2A |
32:00.0 |
3f:00.0 |
slot 8 |
CPU 1 |
Port 2A |
32:00.0 |
3b:00.0 |
|
slot 9 |
CPU 1 |
Port 2A |
32:00.0 |
38:00.0 |
|
slot 10 |
CPU 1 |
Port 2A |
32:00.0 |
37:00.0 |
|
slot 11 |
CPU 2 |
Port 1A |
a0:00.0 |
ad:00.0 |
|
slot 12 |
CPU 2 |
Port 1A |
a0:00.0 |
a9:00.0 |
|
slot 13 |
CPU 2 |
Port 1A |
a0:00.0 |
a6:00.0 |
|
slot 14 |
CPU 2 |
Port 1A |
a0:00.0 |
a5:00.0 |
|
· slot 5(OCP网卡插槽)、slot 6(Mezz存储控制卡插槽)具体位置请参见2.8 主板。 · B/D/F,即Bus/Device/Function Number。 · Rootport(B/D/F)是CPU内部PCIe根节点的Bus总线号,Endpoint(B/D/F)是在OS系统下的PCIe卡的Bus总线号。 · 本表B/D/F值为满足以下全部配置时的默认值: ¡ CPU满配 ¡ 所有GPU计算模块上满配GPU卡/PCIe卡、slot 5配置OCP网卡、slot 6配置Mezz存储控制卡 ¡ 满配4个NVMe硬盘 当以上任意条件不满足或配置了带PCI bridge的PCIe卡时,B/D/F可能会改变。 · 服务器的B/D/F获取方式请参见2.12.4 服务器B/D/F信息获取方式。 |
8GPU-AI配置方案的B/D/F信息如表2-33所示。
表2-34 8GPU-AI配置方案的B/D/F信息
安装位置 |
部件所在槽位号 |
从属CPU |
端口号 |
Rootport(B/D/F) |
Endpoint(B/D/F) |
GPU计算模块 |
slot 1 |
CPU 1 |
Port 3A |
6a:00.0 |
6b:00.0 |
slot 2 |
CPU 2 |
Port 1A |
a0:00.0 |
a1:00.0 |
|
slot 3 |
CPU 2 |
Port 2A |
c0:00.0 |
c1:00.0 |
|
slot 4 |
CPU 1 |
Port 1A |
32:00.0 |
45:00.0 |
|
OCP网卡插槽 |
slot 5 |
CPU 1 |
Port 1A |
1c:00.0 |
1d:00.0 |
Mezz存储控制卡插槽 |
slot 6 |
CPU 1 |
Port 1C |
1c:00.0 |
1e:00.0 |
GPU计算模块 |
slot 7 |
CPU 1 |
Port 2A |
32:00.0 |
50:00.0 |
slot 8 |
CPU 1 |
Port 2A |
32:00.0 |
3b:00.0 |
|
slot 9 |
CPU 1 |
Port 2A |
32:00.0 |
38:00.0 |
|
slot 10 |
CPU 1 |
Port 2A |
32:00.0 |
37:00.0 |
|
slot 11 |
CPU 1 |
Port 2A |
32:00.0 |
48:00.0 |
|
slot 12 |
CPU 1 |
Port 2A |
32:00.0 |
44:00.0 |
|
slot 13 |
CPU 1 |
Port 2A |
32:00.0 |
41:00.0 |
|
slot 14 |
CPU 1 |
Port 2A |
32:00.0 |
40:00.0 |
|
· slot 5(OCP网卡插槽)、slot 6(Mezz存储控制卡插槽)具体位置请参见2.8 主板。 · B/D/F,即Bus/Device/Function Number。 · Rootport(B/D/F)是CPU内部PCIe根节点的Bus总线号,Endpoint(B/D/F)是在OS系统下的PCIe卡的Bus总线号。 · 本表B/D/F值为满足以下全部配置时的默认值: ¡ CPU满配 ¡ 所有GPU计算模块上满配GPU卡/PCIe卡、slot 5配置OCP网卡、slot 6配置Mezz存储控制卡 ¡ 满配4个NVMe硬盘 当以上任意条件不满足或配置了带PCI bridge的PCIe卡时,B/D/F可能会改变。 · 服务器的B/D/F获取方式请参见2.12.4 服务器B/D/F信息获取方式。 |
16GPU配置方案的B/D/F信息如表2-33所示。
表2-35 16GPU配置方案的B/D/F信息
安装位置 |
部件所在槽位号 |
从属CPU |
端口号 |
Rootport(B/D/F) |
Endpoint(B/D/F) |
GPU计算模块 |
slot 1 |
CPU1 |
Port 2A |
3a:00.0 |
40:00.0 |
slot 2 |
CPU1 |
Port 3A |
5d:00.0 |
63:00.0 |
|
slot 3 |
CPU2 |
Port 2A |
ae:00.0 |
b1:00.0 |
|
slot 4 |
CPU2 |
Port 1A |
85:00.0 |
89:00.0 |
|
OCP网卡插槽 |
slot 5 |
CPU1 |
Port 1A |
17:00.0 |
18:00.0 |
Mezz存储控制卡插槽 |
slot 6 |
CPU1 |
Port 1C |
17:00.0 |
19:00.0 |
GPU计算模块 |
slot 7 |
CPU1 |
Port 3A |
5d:00.0 |
64:00.0 |
slot 8 |
CPU1 |
Port 3A |
5d:00.0 |
62:00.0 |
|
slot 9 |
CPU1 |
Port 3A |
5d:00.0 |
60:00.0 |
|
slot 10 |
CPU1 |
Port 3A |
5d:00.0 |
61:00.0 |
|
slot 11 |
CPU1 |
Port 2A |
3a:00.0 |
41:00.0 |
|
slot 12 |
CPU1 |
Port 2A |
3a:00.0 |
3f:00.0 |
|
slot 13 |
CPU1 |
Port 2A |
3a:00.0 |
3d:00.0 |
|
slot 14 |
CPU1 |
Port 2A |
3a:00.0 |
3e:00.0 |
|
slot 15 |
CPU2 |
Port 1A |
85:00.0 |
8b:00.0 |
|
slot 16 |
CPU2 |
Port 1A |
85:00.0 |
8c:00.0 |
|
slot 17 |
CPU2 |
Port 1A |
85:00.0 |
8a:00.0 |
|
slot 18 |
CPU2 |
Port 1A |
85:00.0 |
88:00.0 |
|
slot 19 |
CPU2 |
Port 2A |
ae:00.0 |
b2:00.0 |
|
slot 20 |
CPU2 |
Port 2A |
ae:00.0 |
b4:00.0 |
|
slot 21 |
CPU2 |
Port 2A |
ae:00.0 |
b5:00.0 |
|
slot 22 |
CPU2 |
Port 2A |
ae:00.0 |
b3:00.0 |
|
· slot 5(OCP网卡插槽)、slot 6(Mezz存储控制卡插槽)具体位置请参见2.8 主板。 · B/D/F,即Bus/Device/Function Number。 · Rootport(B/D/F)是CPU内部PCIe根节点的Bus总线号,Endpoint(B/D/F)是在OS系统下的PCIe卡的Bus总线号。 · 本表B/D/F值为满足以下全部配置时的默认值: ¡ CPU满配 ¡ 所有GPU计算模块上满配GPU卡/PCIe卡、slot 5配置OCP网卡、slot 6配置Mezz存储控制卡 ¡ 满配4个NVMe硬盘 当以上任意条件不满足或配置了带PCI bridge的PCIe卡时,B/D/F可能会改变。 · 服务器的B/D/F获取方式请参见2.12.4 服务器B/D/F信息获取方式。 |
服务器的B/D/F信息随着PCIe卡配置的变化可能会发生改变,用户可通过如下途径获取服务器的B/D/F信息:
· BIOS串口日志:如已收集串口日志,可通过搜索关键词“dumpiio”,查询到服务器的B/D/F信息。
· UEFI Shell:用户可通过pci命令获取服务器的B/D/F,pci命令具体使用方法可通过help pci命令获取。
· 操作系统下获取,不同操作系统下,获取方式会有所不同,具体方法如下:
¡ Linux操作系统下:可通过"lspci -vvv"命令获取服务器的B/D/F信息。
如果操作系统没有默认支持"lspci -vvv"命令,可通过yum源获取、安装pci-utils软件包后支持。
¡ Windows操作系统下:安装pciutils软件包后,使用"lspci"命令获取服务器的B/D/F信息。
¡ Vmware操作系统下:Vmware操作系统默认支持"lspci"命令,用户可直接通过"lspci"命令获取。
介绍安装和拆卸服务器的操作方法。
服务器安装流程如图3-1所示。
在安装服务器前,请先规划和准备满足设备正常运行的物理环境,包括空间和通风、温度、湿度、洁净度、高度和接地等。
机箱高4U,深度800mm,对机柜的要求如下:
· 标准19英寸机柜。
· 建议机柜深度1200mm及以上。不同深度机柜的安装限制如表3-1所示,建议技术支持人员现场工勘,排除潜在问题。
机柜深度 |
安装限制 |
1000mm |
· 不支持安装H3C CMA。 · 如配置H3C滑道,可能存在滑道与PDU相互干涉的风险,需工勘确认是否可调整PDU的安装位置或配置合适尺寸的PDU。如不能满足,则建议使用托盘等其他的固定方式。 · 机箱后部需预留60mm走线空间。 |
1100mm |
如安装H3C CMA,需确认CMA不会与机柜后部PDU干涉,否则请更换更大深度尺寸的机柜或者调整PDU的安装位置。 |
1200mm |
需确认H3C CMA不会与机柜后部PDU、线缆等相互干涉,否则请调整PDU的安装位置。 |
· 机柜前方孔条距离机柜前门大于50mm。
· 服务器在1200mm机柜中的安装建议,请参考图3-2。
图3-2 服务器在1200mm机柜中的安装建议(机柜俯视图)
机柜尺寸建议与要求 |
|
(1):机柜深度,建议1200mm |
(2):机柜前方孔条与机柜前门间距,大于50mm |
· 建议PDU采用向后直出线的方式,以免与机箱之间产生干涉。 · 若PDU采用侧向出线的方式,建议技术支持人员现场工勘,确认PDU是否会与机箱后部相互干涉。 |
|
服务器相关尺寸参数 |
|
(3):机柜前方孔条与机箱后端(含电源后部拉手,图中未展示)间距,为830mm |
(4):机箱深度(含挂耳),为830mm |
(5):机柜前方孔条与CMA后端间距,为970mm |
(6):机柜前方孔条与滑道后端间距,为880mm |
为方便服务器维护和正常通风,在确定机柜位置时,应满足以下空间和通风要求。
· 搬运服务器的通道,净宽不应小于1.5m。
· 面对面布置的机柜,正面之间的距离不宜小于1.2m。
· 背对背布置的机柜,背面之间的距离不宜小于0.8m。
· 机柜与墙之间的距离不宜小于1m。
· 为避免散热不充分而损坏服务器,请勿阻塞服务器的通风口。
· 确保服务器前后部通风良好,以便周围的空气进入机柜,并将热气从机柜中排出。
· 服务器所在位置的空调送风量应足够提供服务器所需的风量,保证服务器内部各组件散热。
服务器的空气流动方向如图3-3所示。
(1)~(11):机箱进风方向 |
(12)~(13):机箱出风方向 |
为确保服务器正常工作,机房内需维持一定的温度和湿度。关于服务器环境温度和湿度要求,请参见2.2.2 技术参数。
为确保服务器正常工作,对机房的高度有一定要求,详细信息请参2.2.2 技术参数。
腐蚀性气体可与设备内部的金属材料发生化学反应,不仅会腐蚀金属部件,加速设备老化,还容易导致设备故障。常见腐蚀性气体种类及来源如表3-2所示。
种类 |
主要来源 |
H2S(硫化氢) |
地热排出物、微生物活动、石油制造业、木材腐蚀和污水处理等 |
SO2(二氧化硫)、SO3(三氧化硫) |
煤燃烧、石油产品、汽车废气、熔炼矿石、硫酸制造业和烟草燃烧等 |
S(硫磺) |
铸工车间和硫磺制造业等 |
HF(氟化氢) |
化肥制造业、铝制造业、陶瓷制造业、钢铁制造业、电子设备制造业和矿物燃烧等 |
NOx(氮氧化物) |
汽车尾气、石油燃烧、微生物活动和化学工业等 |
NH3(氨气) |
微生物活动、污水、肥料制造业和地热排出物等 |
CO(一氧化碳) |
燃烧、汽车尾气、微生物活动和树木腐烂等 |
Cl2(氯气)、ClO2(二氧化氯) |
氯制造业、铝制造业、锌制造业和废物分解等 |
HCl(氯化氢酸) |
汽车尾气、燃烧、森林火灾和海洋的过程聚合物燃烧等 |
HBr(氢溴酸)、HI(氢碘酸) |
汽车尾气等 |
O3(臭氧) |
大气光化学过程(大部分包括一氧化氮和过氧氢化合物)等 |
CnHn(烷烃) |
汽车尾气、烟草燃烧、动物排泄物、污水和树木腐烂等 |
数据中心机房内腐蚀性气体浓度限值建议满足ANSI/ISA 71.4标准中的腐蚀性气体G1等级要求,对应的铜测试片腐蚀产物厚度增长速率应低于300 Å/月,银测试片腐蚀产物厚度增长速率应低于200 Å/月。
Å(埃)是表示长度的单位符号,1 Å等于100亿分之1米。
为满足G1等级的铜/银测试片腐蚀速率要求,数据中心机房内腐蚀性气体浓度建议值如表3-3所示。
气体 |
浓度(ppb) |
H2S(硫化氢) |
<3 |
SO2(二氧化硫),SO3(三氧化硫) |
<10 |
Cl2(氯气) |
<1 |
NOx(氮氧化物) |
<50 |
HF(氟化氢) |
<1 |
NH3(氨) |
<500 |
O3(臭氧) |
<2 |
· 表3-3中的ppb(part per billion)是表示浓度的单位符号,1ppb表示10亿分之1的体积比。
· 表3-3中腐蚀性气体浓度限值是基于数据中心机房相对湿度<50%及组内气体交互反应的结果。如果数据中心机房相对湿度每增加10%,则气体腐蚀等级相应增加1级。
由于产品受机房腐蚀性气体影响存在一定的差异性,各产品对机房腐蚀性气体浓度的具体要求请参见该产品的安装指导。
非数据中心机房内腐蚀性气体浓度限值建议满足IEC 60721-3-3:2002化学活性物质3C2等级的要求,如表3-4所示。
腐蚀性气体类别 |
平均值(mg/m3) |
最大值(mg/m3) |
SO2(二氧化硫) |
0.3 |
1.0 |
H2S(硫化氢) |
0.1 |
0.5 |
Cl2(氯气) |
0.1 |
0.3 |
HCI(氯化氢) |
0.1 |
0.5 |
HF(氟化氢) |
0.01 |
0.03 |
NH3(氨气) |
1.0 |
3.0 |
O3(臭氧) |
0.05 |
0.1 |
NOx(氮氧化物) |
0.5 |
1.0 |
表3-4中的平均值为机房环境中腐蚀性气体的典型控制限值,一般情况下不建议超过该值要求。最大值是限值或峰值,每天达到限值的时间不超过30min。
由于产品受机房腐蚀性气体影响存在一定的差异性,各产品对机房腐蚀性气体浓度的具体要求请参见该产品的安装指导。
为达到上述要求,可对机房采取如下措施:
· 机房尽量避免建在腐蚀性气体浓度较高的地方。
· 机房不得与下水、排污、竖井、化粪池等管道相通,机房外部也应远离此类管道,机房入风口应背对这类污染源。
· 机房装修使用环保材料,应避免使用含硫、含氯的保温棉、橡胶垫、隔音棉等有机材料,同时含硫较多的石膏板也应避免使用。
· 柴油、汽油机应单独放置,禁止与设备同处一个机房内;燃油机位于机房外部时,排风方向应在机房下风处,并远离空调进风口。
· 蓄电池应单独隔离放置,禁止和电子信息设备放在同一个房间;
· 定期请专业公司进行监测和维护。
室内灰尘落在机体上,可能造成静电吸附,使金属接插件或金属接点接触不良,不但会影响设备使用寿命,而且容易引起通信故障。
数据中心机房内灰尘含量建议满足ISO 14644-1 8等级洁净度要求,具体要求见表3-5。
灰尘粒子直径 |
含量 |
备注 |
≥5μm |
≤29300粒/m3 |
机房不应产生锌晶须粒子 |
≥1μm |
≤832000粒/m3 |
|
≥0.5μm |
≤3520000粒/m3 |
由于产品受灰尘粒子影响存在一定的差异性,各产品对灰尘粒子含量的具体要求请参见该产品的安装指导。
非数据中心机房内灰尘粒子(直径≥0.5μm)的含量建议满足GB 50174-2017标准要求,即小于等于17600000粒/m3。
由于产品受灰尘粒子影响存在一定的差异性,各产品对灰尘粒子含量的具体要求请参见该产品的安装指导。
为达到上述要求,可对机房采取如下措施:
· 机房远离污染源,工作人员禁止在机房内吸烟、饮食。
· 建议门、窗加防尘橡胶条密封,窗户建议装双层玻璃并严格密封。
· 地面、墙面、顶面采用不起尘的材料,应刷无光涂料,不要刷易粉化的涂料,避免粉尘脱落。
· 经常打扫机房,保持机房整洁,并每月定期清洗机柜防尘网。
· 相关人员进入机房前应穿好防静电工作服、戴好鞋套,保持鞋套、防静电工作服清洁,经常更换。
良好的接地系统是服务器稳定可靠运行的基础,是服务器防雷击、抗干扰、防静电及安全的重要保障。服务器通过供电系统的接地线缆接地,用户无需额外连接接地线缆。
· HDD硬盘断电存放时间建议小于6个月。
· SSD、M.2卡、SD卡等存储介质,断电存放时间建议小于3个月,长期断电可能存在数据丢失的风险。
· 当服务器整机、HDD/SSD/M.2卡/SD卡等存储介质需要断电存放3个月及以上时,建议每3个月至少上电运行一次,每次上电运行时间不少于2小时。服务器上电和下电的操作方法请参见4 上电和下电。
图示 |
名称 |
说明 |
T25 Torx星型螺丝刀 |
用于智能挂耳上的松不脱螺钉 |
|
T30 Torx星型螺丝刀 |
用于CPU散热器上的松不脱螺钉 |
|
T15 Torx星型螺丝刀(随服务器发货) |
用于PCIe卡的固定螺钉、机箱运输螺钉与机箱内的松不脱螺钉等 |
|
T10 Torx星型螺丝刀(随服务器发货) |
用于智能挂耳的固定螺钉等 |
|
一字螺丝刀 |
用于更换CPU等 |
|
十字螺丝刀 |
用于通流铜柱的固定螺钉等 |
|
|
浮动螺母安装条 |
用于牵引浮动螺母,使其安装在机柜的固定导槽孔位上 |
斜口钳 |
用于剪切绝缘套管等 |
|
卷尺 |
用于测量距离 |
|
万用表 |
用于测量电阻、电压,检查电路 |
|
防静电腕带 |
用于操作服务器时使用 |
|
防静电手套 |
||
防静电服 |
||
梯子 |
用于高处作业 |
|
接口线缆(如网线、光纤) |
用于服务器与外接网络互连 |
|
显示终端(如PC) |
用于服务器显示 |
介绍安装服务器的操作方法。
将滑道的外导轨安装到机柜上,内导轨安装到服务器上,具体方法请参见安装标准、滚珠、短距滑道。
· 机箱两侧各有一颗运输螺钉,用于固定GPU计算模块,防止运输过程中GPU计算模块松脱。
· 安装服务器或要拉出GPU计算模块维护机箱内部部件时,需拆除运输螺钉后才能通过内部滑轨滑动并拉出GPU计算模块。
安装服务器的操作方法如下,具体方法请参见服务器安装到机柜。
(1) 拆卸机箱两侧的运输螺钉,请根据机箱上的标识确认运输螺钉的具体位置,如图3-4所示。
图3-4 拆卸机箱两侧运输螺钉
(2) 四人合力,利用机箱两侧的抬手,水平抬起服务器,并将服务器沿滑道缓缓推入机柜。推入过程中,服务器会被滑道锁定,根据滑道的型号不同,有以下两种解锁方式:
¡ 方式一:按住内轨上的解锁弹片,同时将服务器推入机柜。
¡ 方式二:推动内轨上的蓝色解锁按钮,同时将服务器推入机柜。
为了减少人身伤害的危险,一定要小心将服务器滑入机柜。滑动的导轨可能会挤压到您的手指。
(3) 固定服务器。将服务器两侧挂耳紧贴机柜方孔条,打开智能挂耳的锁扣,用螺丝刀拧紧里面的松不脱螺钉。
如果已配置理线架,请安装。具体方法请参见理线架附带的文档。
介绍服务器外部线缆的连接方法。
在对服务器进行BIOS、HDM、iFIST、RAID以及进入操作系统等操作和配置时,可能需要连接鼠标、键盘和显示终端。
服务器前、后面板最多可提供2个DB15 VGA接口,用来连接显示终端;但未提供标准的PS2鼠标、键盘接口,用户可通过前面板和后面板的USB接口,连接鼠标和键盘。
前后面板上的2个VGA接口不支持同时使用。
根据鼠标、键盘的接口类型不同,连接方法有两种:
· 直接连接USB鼠标和键盘,连接方法与一般的USB线缆相同。
· 通过USB转PS2线缆连接PS2鼠标和键盘。
(1) 如图3-5所示,将视频线缆的一端插入服务器的VGA接口,并通过插头两侧的螺钉固定。
(2) 将视频线缆的另一端插入显示终端的VGA接口,并通过插头两侧的螺钉固定。
(3) 如图3-6所示,将USB转PS2线缆的USB接口一端插入服务器的USB接口,另一端的PS2接口分别连接到鼠标和键盘。
图3-6 连接USB转PS2线缆
· 通过以太网搭建服务器的网络环境。
· 通过HDM专用网络接口,登录HDM管理界面进行服务器管理。
· 网络不通或网线长度不适合时,更换网线。
(1) 确定服务器上的网络接口。
· 通过网卡上的以太网接口将服务器接入网络。
服务器缺省未安装网卡,请先选配并安装网卡。
· 通过服务器上的HDM专用网络接口或OCP3.0网卡的共享网络接口,登录HDM进行设备管理。HDM专用网络接口的具体位置请参见2.6.1 后面板组件。
(2) 确定网线型号。
请确保网线导通(使用网线测试仪),网线型号与旧网线的型号一致或兼容。
(3) 为网线编号。
· 网线编号应与旧网线相同。
· 建议使用统一规格的标签。在标签上分别填写本端设备和对端设备的名称、编号。
(4) 连接网线。如图3-7所示,将网线一端连接到服务器的以太网接口,另一端连接对端设备。
(5) 检查网线连通性。
服务器上电后,可使用ping命令检查网络通信是否正常。如果通信不正常,请交叉测试网线或检查网线接头是否插紧。
服务器最多提供7个USB接口:
· 5个位于前、后面板,用于连接经常插拔的USB设备。
· 2个位于内部,用于连接不经常插拔的USB设备。
以下情况需要连接USB接口:
· 服务器上电后,需要键盘和鼠标进行系统操作和设置。
· 通过连接USB设备传输数据或安装操作系统。
· 确保USB设备功能正常。
· 确保已将需要的数据拷贝到USB设备中。
· USB接口支持热插拔。
· 建议用户使用H3C认证的USB设备。对于其他品牌的USB设备,不保证一定兼容。
(1) (可选)如果用户要连接内部USB接口,请拆卸机箱盖,具体请参见6.8.3 1. 中的步骤(2)
(2) 连接USB设备。内部USB接口所在位置请参见2.8.1 主板布局。
(3) (可选)如果已拆卸机箱盖,请安装,具体请参见6.8.3 2. 中的步骤(4)。
(4) 检查服务器能否识别USB设备。如果无法识别,请下载并安装USB设备的驱动程序;安装后如果仍然无法识别,请更换其他USB设备。
· 为避免人身伤害或设备损坏,请使用配套的电源线缆。
· 连接电源线缆前,请确保服务器和各个部件已安装完毕。
(1) 将电源线缆一端插入服务器后面板上的电源模块插口,并使用电源模块拉环上的魔术贴固定电源线缆。
(2) 将电源线缆另一端插入外部供电系统,如机柜的交流插线板。
(3) 为防止电源线缆意外断开,请固定电源线缆。
具体方法请参见理线架附带的文档。
· 线缆绑扎带可以安装在左侧或右侧机柜滑道上,建议用户安装在左侧,以便更好的进行线缆管理。
· 在一个机柜中使用多个线缆绑扎带时,请交错排列绑扎带的位置,比如从上向下看时绑扎带彼此相邻,这种布置有利于滑道的滑动。
(1) 将线缆与机柜滑道贴紧,然后用线缆绑扎带固定。
(2) 用线缆绑扎带固定线缆。如图3-8中①和②所示,将线缆绑扎带的末端穿过扣带,使绑扎带的多余部分和扣带朝向滑道外部。
· 所有线缆在走线时,请勿遮挡服务器的进出风口,否则会影响服务器散热。
· 确保线缆连接时无交叉现象,便于端口识别和线缆的插拔。
· 确保所有线缆都进行了有效标识,使用标签书写正确的名词,便于检索。
· 当前不需要装配的线缆,建议将其盘绕整理,绑扎在机柜的合适位置。
· 为避免触电、火灾或设备损坏,请不要将电话或通信设备连接到服务器的RJ45以太网接口。
· 使用理线架时,每条线缆要保持松弛,以免从机柜中拉出服务器时损坏线缆。
拆卸服务器的操作方法如下,具体方法请参见从机柜拆卸服务器。
(3) 打开智能挂耳上的锁扣,并拧开智能挂耳中的松不脱螺钉。
(4) 四人合力,沿滑道将服务器从机柜中缓缓拉出。
介绍服务器的上电和下电方法。
在服务器连接了外部数据存储设备的组网中,请确保服务器是第一个下电且最后一个恢复上电的设备。该方法可确保服务器上电时,不会误将外部数据存储设备标记为故障设备。
介绍服务器的上电方法。
· 服务器安装完毕,上电运行。
· 服务器维护完毕,重新上电运行。
· 服务器及内部部件已经安装完毕。
· 服务器已连接外部供电系统。
· 服务器关机后,如果需要立刻执行开机操作,为确保服务器内部各部件能正常工作,建议关机后等待30秒以上(确保HDD硬盘彻底静止、各电子部件彻底掉电),再执行开机操作。
根据场景不同,有四种上电方式。
按下服务器前面板上的开机/待机按钮,使服务器上电。
此时服务器退出待机状态,电源向服务器正常供电。当系统电源指示灯由橙色常亮变为绿色闪烁,最后变为绿色常亮时,表明服务器完成上电。系统电源指示灯的具体位置请参见图2-8。
具体步骤请参见HDM联机帮助。
具体步骤请参见HDM联机帮助。
通过以下方法之一开启服务器自动上电功能后,服务器一旦连接外部供电系统,会自动上电。
· 通过HDM Web开启设备自动上电功能,具体步骤请参见HDM联机帮助。
· 通过BIOS开启设备自动上电功能,具体步骤请参见产品的BIOS用户指南。
介绍服务器的下电方法。
· 维护服务器。
· 服务器需要搬迁。
· 下电前,请确保所有数据已提前保存。
· 下电后,所有业务将终止,因此下电前请确保服务器的所有业务已经停止或者迁移到其他服务器上。
根据场景不同,有四种下电方式。
(1) 将显示器、鼠标和键盘连接到服务器,关闭服务器操作系统。
(2) 断开服务器与外部供电系统之间的电源线缆。
· 服务器正常关机流程
(1) 按下服务器前面板上的开机/待机按钮,使服务器下电。
(2) 当系统电源指示灯变为橙色常亮时,断开服务器与外部供电系统之间的电源线缆。
· 服务器非正常关机流程
(3) 按住服务器前面板上的开机/待机按钮5秒以上,使服务器下电。
采用该方式,应用程序和操作系统为非正常关闭。当应用程序停止响应时,可采用这种方式。
(4) 断开服务器与外部供电系统之间的电源线缆。
(1) HDM Web界面中操作的具体步骤请参见HDM联机帮助。
(2) 断开设备与外部供电系统之间的电源线缆。
(1) HDM Web界面和远程控制台中操作的具体步骤请参见HDM联机帮助。
(2) 断开设备与外部供电系统之间的电源线缆。
介绍服务器安装完毕后,对其进行软件配置的过程。
(2) 上电启动后,请检查服务器前面板的Health指示灯是否正常,正常状态为绿色常亮。关于Health指示灯的详细说明,请参见2.5.2 指示灯和按钮。
介绍如何设置服务器启动顺序和BIOS密码。
用户可以根据需要修改服务器的启动顺序。缺省启动顺序和启动顺序的修改方法,请参见产品的BIOS用户指南。
BIOS密码包括管理员密码和用户密码。缺省情况下,系统没有设置管理员密码和用户密码。
为防止未授权人员设置和修改服务器的BIOS系统配置,请用户同时设置BIOS的管理员密码和用户密码,并确保两者密码不相同。
设置管理员密码和用户密码后,进入系统时,必须输入管理员密码或用户密码。
· 当输入的密码为管理员密码时,获取的BIOS权限为管理员权限。
· 当输入的密码为用户密码时,获取的BIOS权限为用户权限。
管理员权限和用户权限的区别,请参见产品的BIOS用户指南。
BIOS的管理员密码和用户密码的具体设置方法,请参见产品的BIOS用户指南。
存储控制卡型号不同,支持的RAID级别和配置RAID的方法会有所不同,详细信息请参见产品的存储控制卡用户指南。
介绍如何安装操作系统和驱动程序。
服务器兼容Windows和Linux等多种类型的操作系统,详细信息请参见OS兼容性查询工具。
安装操作系统的具体方法,请参见产品的操作系统安装指导。
服务器安装新硬件后,如果操作系统中没有该硬件的驱动程序,则该硬件无法使用。
安装驱动程序的具体方法,请参见产品的操作系统安装指导。
更新驱动程序之前,请备份原驱动程序,以防止更新失败而导致对应硬件无法使用。
更新固件时,请注意软硬件版本之间的配套要求,详细信息请参见软件版本说明书。
介绍如何更新固件。
用户可通过UniSystem或HDM更新以下固件,具体方法请参见产品的固件更新指导书。
· HDM
· BIOS
· CPLD
介绍服务器有哪些可更换部件,以及部件更换的详细操作步骤。
· 更换多个部件时,请阅读所有部件的更换方法并确定相似更换步骤,以便简化更换过程。
· 本节包含了更换部件和扩容部件的操作,当两者操作步骤差异较大时,会分别进行介绍。当两者操作步骤相似时,仅介绍更换部件操作步骤;如果用户参考更换部件操作步骤进行扩容时,请提前拆卸部件假面板。
各部件更换的具体方法请参见部件安装&更换视频,服务器可更换部件如下:
· SAS/SATA硬盘(6.4 更换SAS/SATA硬盘)
· 存储控制卡及其掉电保护模块(6.12 更换存储控制卡及其掉电保护模块)
· SATA M.2 SSD卡(6.13 更换SATA M.2 SSD卡)
· NVMe VROC模块(6.14 更换NVMe VROC模块)
· 安装24LFF硬盘扩展模块(6.19 安装24LFF硬盘扩展模块)
扩容以下模块时,需要拆卸对应的假面板;反之,需要安装对应的假面板:
· 硬盘假面板。
· OCP网卡假面板。
· 电源模块假面板。
· 计算模块上的PCIe卡假面板。
请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
项目 |
操作步骤 |
|
拆卸步骤 |
安装步骤 |
|
硬盘假面板 |
按住假面板上的按钮,同时向外拉假面板 |
将假面板沿槽位推入 |
OCP网卡假面板 |
通过假面板上的小拉手,将假面板从槽位中拉出 |
将假面板缓缓推入槽位 |
电源模块假面板 |
将假面板水平向外拉出 |
TOP字样朝上,将假面板水平推入槽位 |
计算模块上的PCIe卡假面板 |
移除假面板的固定螺钉,将假面板向上提起 |
将假面板沿槽位推入,然后用螺钉固定假面板 |
· 安全面板损坏。
· 安全面板阻碍其他部件的维护操作。
(1) 解锁安全面板。将钥匙插入面板钥匙孔中,向内按压钥匙并顺时针旋转90度。
请勿在未按压钥匙的情况下,强行旋转钥匙,否则会导致锁损坏。
(2) 按下面板上的解锁按钮然后向外拉出面板。
(1) 将面板一侧卡在机箱上,然后按住面板上的解锁按钮将面板另一侧安装到位。
(2) 锁定安全面板。将钥匙插入面板钥匙孔中,向内按压钥匙并逆时针旋转90度。
请勿在未按压钥匙的情况下,强行旋转钥匙,否则会导致锁损坏。
· 硬盘故障。
· 更换空间已满的硬盘。
· 更换其他型号的硬盘。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 明确待更换硬盘在服务器中的安装位置。
· 明确服务器的RAID配置信息。如果更换其他型号的硬盘或空间已满的硬盘,且硬盘所配置的RAID无冗余功能,请提前备份待更换的硬盘中的数据。
· SAS/SATA硬盘支持热插拔。
· 了解硬盘安装准则,具体请参见2.11.1 SAS/SATA硬盘。
· 通过存储控制卡控制的SAS/SATA硬盘,在进入BIOS或操作系统后,支持热插拔操作。
· 通过板载VROC阵列控制器控制的SATA硬盘,只有在进入操作系统后,才支持热插拔操作。
(1) 通过硬盘的指示灯状态确认硬盘状态,判断其是否可以拆卸。指示灯详细信息请参见2.9.3 硬盘指示灯。
(2) 拆卸硬盘。按下硬盘面板按钮,硬盘扳手会自动打开,然后从硬盘槽位中拔出硬盘。对于HDD硬盘,硬盘扳手自动打开后,先将硬盘向外拔出3cm,使硬盘脱机;然后等待至少30s,硬盘完全停止转动后,再将硬盘从槽位中拔出。
(3) 拆卸硬盘支架。移除硬盘支架上的所有固定螺钉,并将硬盘从硬盘支架上移除。
建议用户安装没有RAID信息的硬盘。
(1) 安装硬盘到硬盘支架。将硬盘放入硬盘支架,并使用螺钉固定。
(2) 安装硬盘。将硬盘推入硬盘槽位,直到推不动为止,然后闭合硬盘扳手。
(3) (可选)如果新安装的硬盘中有RAID信息,请清除。
(4) 当存储控制卡检测到新硬盘后,请根据实际情况确认是否进行RAID配置,详细信息请参见产品的存储控制卡用户指南。
可通过以下一种或多种方法判断硬盘工作状态,以确保硬盘更换成功。
· 登录HDM Web界面,查看配置RAID后的硬盘容量等信息是否正确。具体方法请参见HDM联机帮助。
· 根据硬盘指示灯状态,确认硬盘是否正常工作。指示灯详细信息请参见2.9.3 硬盘指示灯。
· 通过BIOS查看硬盘容量等信息是否正确。配置RAID的方法不同,BIOS下查看硬盘信息的具体方法也有所不同,详细信息请参见产品的存储控制卡用户指南。
· 进入操作系统后,查看硬盘容量等信息是否正确。
介绍如何扩容NVMe硬盘。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 明确待更换硬盘在服务器中的安装位置。
· 明确待更换硬盘所属RAID信息。如果用户更换其他型号的硬盘或空间已满的硬盘,且待更换硬盘所属RAID无冗余功能,请提前备份RAID中的数据。
· 了解硬盘安装准则,具体请参见2.11.2 NVMe硬盘。
部分操作系统下NVMe硬盘支持热插操作,详细信息请查看OS兼容性查询工具。
(1) (可选)拆卸安全面板。解锁安全面板并将安全面板移出。
(2) 安装硬盘到硬盘支架。先将四颗固定螺钉固定到四个螺孔中,然后依次拧紧螺钉。
(3) 安装NVMe硬盘。
· 当NVMe硬盘支持热插操作时,详细操作方法请参见NVMe硬盘在线更换操作指导。
· 当NVMe硬盘不支持热插操作时,请执行步骤(4)~(6)。
(5) 将硬盘推入硬盘槽位,然后闭合硬盘扳手。
(6) (可选)安装安全面板。将安全面板一侧卡在机箱上,然后将另一侧固定到机箱并使用钥匙锁住面板。
可通过以下一种或多种方法判断NVMe硬盘工作状态,以确保NVMe硬盘安装成功。
· 登录HDM Web界面,查看NVMe硬盘容量等信息是否正确。具体方法请参见HDM联机帮助。
· 根据NVMe硬盘指示灯状态,确认NVMe硬盘是否正常工作。指示灯详细信息请参见2.9.3 硬盘指示灯。
· 通过BIOS查看NVMe硬盘容量等信息是否正确。详细信息请参见产品的BIOS用户指南。
· 硬盘故障。
· 更换空间已满的硬盘。
· 更换其他型号的硬盘。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 明确待更换硬盘在服务器中的安装位置。
· 明确待更换硬盘所属RAID信息。如果用户更换其他型号的硬盘或空间已满的硬盘,且待更换硬盘所属RAID无冗余功能,请提前备份RAID中的数据。
· 了解硬盘安装准则,具体请参见2.11.2 NVMe硬盘。
(1) 根据NVMe硬盘支持的拔出方式,明确NVMe硬盘拆卸方法。
¡ 如果NVMe硬盘支持热拔和预知性热拔,操作方法请直接参见NVMe硬盘在线更换操作指导。
¡ 如果NVMe硬盘不支持热拔和预知性热拔,请先将服务器下电,再执行步骤(2)~(3)。
(2) 拆卸NVMe硬盘。按下硬盘面板按钮,硬盘扳手会自动打开,然后从硬盘槽位中拔出硬盘。
(3) 拆卸硬盘支架。移除硬盘支架上的所有固定螺钉,并将硬盘从硬盘支架上移除。
(1) 请判断是否通过预知性热拔或者热拔的方式,拔出的NVMe硬盘。
¡ 是,详细操作方法请参见NVMe硬盘在线更换操作指导。
(2) 安装硬盘到硬盘支架。先将四颗固定螺钉固定到四个螺孔中,然后依次拧紧螺钉。
(3) 安装NVMe硬盘。将硬盘推入硬盘槽位,然后闭合硬盘扳手。
可通过以下一种或多种方法判断NVMe硬盘工作状态,以确保NVMe硬盘安装成功。
· 登录HDM Web界面,查看NVMe硬盘容量等信息是否正确。具体方法请参见HDM联机帮助。
· 根据NVMe硬盘指示灯状态,确认NVMe硬盘是否正常工作。指示灯详细信息请参见2.9.3 硬盘指示灯。
· 通过BIOS查看NVMe硬盘容量等信息是否正确。详细信息请参见产品的BIOS用户指南。
· 进入操作系统后,查看NVMe硬盘容量等信息是否正确。
· 电源模块故障。
· 更换其他型号的电源模块。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
电源模块支持热插拔,当服务器后部有足够空间可供更换电源模块时,请从步骤(3)开始执行,否则请从步骤(1)开始执行。
(1) 将服务器下电,具体步骤请参见4.2 下电。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
a. 松开电源线缆。请根据线缆实际固定方式,选择对应的线缆松开方法。
¡ 如果线缆通过魔术贴固定,请将魔术贴打开。
¡ 如果线缆通过线扣固定。请将线扣上的锁扣掰开,同时向外滑动线扣;将线扣一端掰开,打开线扣,然后将电源线缆从线扣中取出。
b. 从电源线缆插口中拔出电源线缆。
(4) 拆卸电源模块。按下电源模块解锁弹片的同时,握持电源模块后部的拉手将电源模块从槽位中拉出。
(1) 安装电源模块。
a. (可选)拆卸电源模块假面板。
b. 先摆正电源模块,此时电源模块上的风扇位于电源模块左侧。
c. 将电源模块推入槽位,直到听见咔哒一声。
(2) (可选)如果已拆卸服务器,请安装。具体步骤请参见3.4.2 安装R5300 G3。
(3) (可选)请连接已断开电源线缆。
(4) (可选)如果服务器已下电,请将其上电。
· GPU卡故障。
· 更换其他型号的GPU卡。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 了解GPU卡安装准则,具体请参见2.11.5 GPU卡。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(3) 拆卸GPU卡。
a. (可选)若GPU卡配置了NVLink Bridge模块,请先拆卸NVLink Bridge模块,然后安装GPU卡上的NVLink Bridge接口保护盖。
b. (可选)若GPU卡上连接有电源线缆,请断开线缆与GPU卡的连接。
c. 拆卸GPU卡。移除GPU卡的固定螺钉,然后将GPU卡从PCIe插槽中拔出。
d. 移除节点板上连接的GPU卡电源线缆。
(1) (可选)若GPU卡附带有固定片,请将固定片安装到GPU卡上。使固定片上的螺钉孔和GPU卡上的螺钉孔对齐,然后用螺钉将固定片固定到GPU卡上。
(2) (可选)若GPU卡需要配置NVLink Bridge模块,请先拆卸 GPU卡上的NVLink Bridge接口保护盖,以便后续安装NVLink Bridge模块。
(3) 安装GPU卡到服务器。
a. (可选)若GPU卡配有电源线缆,根据电源线缆上的标签,将GPU卡电源线缆的其中一端连接到节点板上的电源接口。
b. 沿PCIe插槽插入GPU卡,对于装有固定片的GPU卡,在安装时需要确保固定片对准中间支架上的固定片插槽。
c. 拧紧GPU卡的固定螺钉。
d. (可选)若GPU卡配有电源线缆,根据电源线缆上的标签,将GPU卡电源线缆的另一端连接到GPU卡上的电源接口。
e. (可选)若GPU卡需要配置NVLink Bridge模块,请将NVLink Bridge模块接口对准相邻两张GPU卡的NVLink Bridge接口后向下按入。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
· 标准PCIe网卡故障。
· 更换其他型号的标准PCIe网卡。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
(2) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(1) 拆卸标准PCIe网卡。移除网卡的固定螺钉,向上拔出网卡,使其脱离PCIe插槽。
(2) 安装标准PCIe网卡到服务器。沿PCIe插槽插入网卡,并用螺钉固定。
(3) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
介绍如何更换OCP网卡。
· OCP网卡故障。
· 更换其他型号的OCP网卡。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
(2) (可选)断开OCP网卡上的连接的所有外部线缆。
(3) 拆卸OCP网卡。拧开OCP网卡的松不脱螺钉,然后将OCP网卡从槽位中拔出。
(1) 安装OCP网卡。将OCP网卡推入槽位,并拧紧网卡上的松不脱螺钉。
(2) (可选)连接已断开所有OCP网卡外部线缆。
(4) (可选)OCP网卡支持NCSI特性,可设置HDM共享网络接口。缺省情况下,OCP网卡上的Port1接口为HDM共享网络接口。用户可通过HDM Web界面,将OCP网卡上的其他接口设置为HDM共享网络接口。需要注意的是,同一时间,仅支持将服务器的一个网口设置为HDM共享网络接口。
OCP转接模块故障。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸服务器后部的OCP网卡。拧开OCP网卡的松不脱螺钉,然后将OCP网卡从槽位中拔出。
(4) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(5) (可选)如果已安装标准存储控制卡,请拆卸标准存储控制卡,并断开标准存储控制卡上的所有线缆。
(6) 完全拉出计算模块。
a. 半拉出计算模块。按下计算模块的解锁按钮,扳手会自动弹出。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
b. 断开计算模块的坦克链。拧开坦克链机箱端的固定螺钉,然后将坦克链固定扣向机箱前方滑动,使坦克链从机箱壁上解锁。
c. 断开坦克链线缆。将坦克链上连接至CPU主板的线缆全部断开。
d. 完全拉出计算模块。将计算模块两壁的固定弹片向中心拉出,同时继续将计算模块向后拉出,直至达到计算模块可以拉出的最大行程。
(7) 拆卸OCP转接模块。移除OCP转接卡上的所有固定螺钉,然后将转接卡向上抬起,使其脱离服务器。
(1) 安装OCP转接模块。将OCP转接模块安装到OCP转接模块插槽上,然后拧紧转接模块的固定螺钉。
(2) 推回计算模块。
a. 缓缓用力推回计算模块到半程位置。
b. 安装坦克链到机箱。将所有断开的线缆重新插入到CPU主板的接口;将坦克链重新固定到机箱。
c. 完全推回计算模块,并闭合扳手,以锁定计算模块。
(3) (可选)安装标准存储控制卡。重新连接线缆到标准存储控制卡,并将标准存储控制卡安装到计算模块。
(4) 安装OCP网卡。将OCP网卡推入槽位,并拧紧网卡上的松不脱螺钉。
(5) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(6) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
· 存储控制卡故障。
· 更换其他型号的存储控制卡。
· 存储控制卡阻碍其他部件的维护。
· 掉电保护模块故障。
· 更换其他型号的掉电保护模块。
· 掉电保护模块阻碍其他部件的维护。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
· 更换为相同型号的存储控制卡,请明确待更换存储控制卡及BIOS信息。
¡ 存储控制卡在服务器中的位置以及线缆连接方法。
¡ 存储控制卡的型号、工作模式、固件版本。
¡ 明确BIOS的启动模式。
¡ 明确Legacy启动模式下存储控制卡的第一启动项设置。
· 更换为其他型号的存储控制卡,请提前备份待更换的存储控制卡所控制的硬盘中的数据并清除RAID配置信息。
· 了解存储控制卡及其掉电保护模块安装准则,具体请参见2.11.4 存储控制卡及掉电保护模块。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) 拉出计算模块。
a. 解锁计算模块。按下计算模块的解锁按钮,扳手会自动弹出。
b. 拉出计算模块。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
(5) 断开Mezz存储控制卡上连接的超级电容线缆。
(6) (可选)若需要更换超级电容及其固定座,请拆卸。
a. 拆卸超级电容。向外掰开固定座上的固定卡扣,从槽位中取出超级电容,并将超级电容以及超级电容上连接的线缆一同移出机箱。
b. 拆卸超级电容固定座。向上掰开固定座中央的弹片,同时水平滑动固定座使其从导风罩上解锁,然后将其取出。
(7) 拆卸导风罩。按住导风罩两侧的按钮,同时向上抬起导风罩。
(8) 拆卸Mezz存储控制卡。
a. 拧开Mezz存储控制卡上的所有松不脱螺钉,然后将存储控制卡向上抬起,使其槽位。
b. 断开存储控制卡上的所有线缆。
(1) 安装Mezz存储控制卡。
a. 连接存储控制卡线缆。
b. 沿Mezz存储控制卡插槽插入存储控制卡,并拧紧存储控制卡上的所有松不脱螺钉。
(2) 安装导风罩。将导风罩的边沿紧贴固定支架,垂直向下放入槽位,直至导风罩两端固定。
(3) (可选)安装超级电容及其固定座。
a. 安装超级电容固定座。沿着导风罩上的两个卡槽,将超级电容固定座水平推入,直至固定。
b. 连接超级电容转接线缆(0404A169)。
c. 安装超级电容。将超级电容一端先放入固定座,然后向外掰开固定座上的固定卡扣,并将电容的另一端放入固定座。
(4) 推回计算模块。缓缓用力推回计算模块,并闭合扳手,以锁定计算模块。
(5) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(6) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
(2) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(3) 拆卸标准存储控制卡。
a. 拆卸存储控制卡。移除存储控制卡的固定螺钉,向上拔出存储控制卡,使其脱离槽位。
b. 断开存储控制卡上连接的所有线缆,然后将其移出机箱。
(4) (可选)若需要更换标准存储控制卡上的Flash卡,请拆卸。移除Flash卡的固定螺钉,然后将Flash卡从槽位中拔出。
(5) (可选)若需要更换超级电容,请先拉出计算模块。
a. 解锁计算模块。按下计算模块的解锁按钮,扳手会自动弹出。
b. 拉出计算模块。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
(6) (可选)若需要更换超级电容及其固定座,请拆卸。
a. 拆卸超级电容。向外掰开固定座上的固定卡扣,从槽位中取出超级电容,并将超级电容以及超级电容上连接的线缆一同移出机箱。
b. 拆卸超级电容固定座。向上掰开固定座中央的弹片,同时水平滑动固定座使其从导风罩上解锁,然后将其取出。
(1) (可选)安装超级电容及其固定座
a. 安装超级电容固定座。沿着导风罩上的两个卡槽,将超级电容固定座水平推入,直至固定。
b. 连接超级电容转接线缆。
c. 安装超级电容。将超级电容一端先放入固定座,然后向外掰开固定座上的固定卡扣,并将电容的另一端放入固定座。
(2) (可选)推回计算模块。缓缓用力推回计算模块,并闭合扳手,以锁定计算模块。
(3) (可选)安装Flash卡到标准存储控制卡。对准控制卡上的插槽,向下缓缓用力插入Flash卡,并用螺钉固定。
(4) 安装标准存储控制卡到计算模块。
a. 沿PCIe插槽插入存储控制卡,并用螺钉固定。
b. 连接存储控制卡上的所有线缆。
(5) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
· SATA M.2 SSD卡故障。
· 更换其他型号的SATA M.2 SSD卡。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
· 了解SATA M.2 SSD卡安装准则,具体请参见2.11.8 SATA M.2 SSD卡。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) (可选)如果已安装标准存储控制卡,请拆卸标准存储控制卡,并断开标准存储控制卡上的所有线缆。
(5) 拉出计算模块。
a. 解锁计算模块。按下计算模块的解锁按钮,扳手会自动弹出。
b. 拉出计算模块。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
(6) 拆卸SATA M.2 SSD卡。按下SATA M.2 SSD卡的固定锁扣,卡的一端会自动弹起,然后将SATA M.2 SSD卡从插槽中拔出。
(7) 安装SATA M.2 SSD卡。将SATA M.2 SSD卡插入主板的SATA M.2 SSD卡插槽,然后将翘起的一端向下按压,锁扣会自动将SATA M.2 SSD卡固定。
(8) 推回计算模块。缓缓用力推回计算模块,并闭合扳手,以锁定计算模块。
(9) (可选)安装标准存储控制卡。重新连接线缆到标准存储控制卡,并将标准存储控制卡安装到计算模块。
(10) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(11) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
· NVMe VROC模块故障。
· 更换其他型号的NVMe VROC模块。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) (可选)如果已安装标准存储控制卡,请拆卸标准存储控制卡,并断开标准存储控制卡上的所有线缆。
(5) 拉出计算模块。
a. 解锁计算模块。按下计算模块的解锁按钮,扳手会自动弹出。
b. 拉出计算模块。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
(6) 拆卸NVMe VROC模块。将手指伸入模块的指环中,然后捏住模块两侧向上拔出模块。
(1) 安装NVMe VROC模块。对准主板的NVMe VROC模块接口,向下缓缓用力插入模块。
(2) 推回计算模块。缓缓用力推回计算模块,并闭合扳手,以锁定计算模块。
(3) (可选)安装标准存储控制卡。重新连接线缆到标准存储控制卡,并将标准存储控制卡安装到计算模块。
(4) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(5) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
风扇模块故障。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) 拆卸风扇模块。向上翻起风扇模块的提手,握住提手将风扇模块向上提出,使其脱离服务器。
(1) 安装风扇模块,将风扇模块水平向下放入槽位。
(2) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(3) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
· CPU故障。
· 更换其他型号的CPU。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) (可选)如果已安装标准存储控制卡,请拆卸标准存储控制卡,并断开标准存储控制卡上的所有线缆。
(5) 拉出计算模块。
a. 解锁计算模块。按下计算模块的解锁按钮,扳手会自动弹出。
b. 拉出计算模块。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
(6) 拆卸导风罩。按住导风罩两侧的按钮,同时向上抬起导风罩。
(7) 拆卸带有CPU的散热器。
CPU底座中的针脚极为脆弱,容易损坏。为避免该针脚损坏而导致更换主板,请勿触摸针脚。
请严格按照CPU表面标签④~①的顺序,依次拧开散热器上的松不脱螺钉,然后缓缓向上提起散热器。
(8) 拆卸带有CPU的夹持片。
a. 查找夹持片上的“TIM BREAKER”标识,然后使用扁平工具(例如一字螺丝刀)插入“TIM BREAKER”标识旁边的豁口,轻轻旋转螺丝刀使夹持片从散热器上松开。
b. 松开夹持片的四个角。将夹持片一角和其对角上的固定弹片向外掰开,夹持片另一角和其对角上的固定弹片向内推入。
c. 将带有CPU的夹持片向上抬起,使其脱离散热器。
(9) 拆卸夹持片中的CPU。将夹持片一端轻轻向下掰,对应的CPU一端会自动脱离夹持片,从夹持片中取出CPU。
(1) 将CPU安装到夹持片。斜置CPU,使CPU一端的导向口与夹持片一端的导向柱相扣。需要注意的是,CPU上带有三角形标记的一角必须和夹持片上带有三角形标记的一角对齐。
(2) 在CPU上涂抹导热硅脂。
a. 用异丙醇擦拭布将CPU顶部和散热器表面清理干净,如果表面有残余的导热硅脂也要擦拭干净,确保表面干净无油。待异丙醇挥发后再进行下一步操作。
b. 用导热硅脂注射器将导热硅脂挤出0.6ml,然后采用五点法将导热硅脂涂抹在CPU顶部。
(3) 将带有CPU的夹持片安装到散热器。使夹持片上带有三角形标记的一角和散热器上带有缺口的一角对齐,向下放置并按压夹持片,直到听见咔哒提示音,夹持片的四个角和散热器的四个角已紧紧相扣。
(4) 将带有CPU和夹持片的散热器安装到服务器。
请使用1.4N·m(12in-lbs)的扭矩拧紧螺钉,否则可能会造成CPU接触不良或者损坏CPU底座中的针脚。
a. 使夹持片上的三角形和CPU底座上带有缺口的一角对齐,散热器上的两个孔对准CPU底座上的两个导向销,将散热器向下放置在CPU底座上。
b. 依次拧紧散热器上的松不脱螺钉。请严格按照CPU散热器表面标签①~④的顺序固定螺钉,错误的顺序可能会造成螺钉脱落。
请务必将随CPU发货的条码标签,粘贴到散热器侧面,覆盖散热器上原有条码标签,否则将无法提供该CPU的后续保修服务。
(5) (可选)拆卸或安装导风罩面板。
· 拆卸导风罩面板。当更换前CPU对应标准散热器,更换后CPU对应高性能散热器时,为确保CPU正常散热,需要拆卸导风罩上的两个面板。
a. 向上掰开导风罩面板上的固定弹片。
b. 将导风罩面板向外滑动并向上提起,使其脱离导风罩。
· 安装导风罩面板。当更换前CPU对应高性能散热器,更换后CPU对应标准散热器时,为确保CPU正常散热,需要安装导风罩上的两个面板。
将导风罩面板放入槽位,然后向下按压同时向内滑动,直到听见咔哒一声,导风罩上的锁扣将导风罩面板紧紧扣住为止。
(6) 安装导风罩。将导风罩的边沿紧贴固定支架,垂直向下放入槽位,直至导风罩两端固定。
(7) 推回计算模块。缓缓用力推回计算模块,并闭合扳手,以锁定计算模块。
(8) (可选)安装标准存储控制卡。重新连接线缆到标准存储控制卡,并将标准存储控制卡安装到计算模块。
(9) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(10) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
可通过以下一种或多种方法判断CPU工作状态,以确保CPU安装成功。
· 登录BIOS界面,查看CPU信息是否正确。具体方法请参见产品BIOS用户指南。
· 登录HDM Web界面,查看CPU信息是否正确。具体操作请参见HDM联机帮助。
· 内存故障。
· 更换其他型号的内存。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) (可选)如果已安装标准存储控制卡,请拆卸标准存储控制卡,并断开标准存储控制卡上的所有线缆。
(5) 拉出计算模块。
a. 解锁计算模块。按下计算模块的解锁按钮,扳手会自动弹出。
b. 拉出计算模块。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
(6) 拆卸导风罩。按住导风罩两侧的按钮,同时向上抬起导风罩。
(7) 拆卸内存。打开内存固定夹,向上取出内存并放入防静电包装袋。
(1) 安装内存。从防静电包装袋中取出待安装的内存,将内存的缺口与插槽的缺口对齐,垂直向下均匀用力将内存插入槽中,此时固定夹会自动锁住。
内存插槽的结构设计可以确保正确安装。将内存插入插槽时如果感觉很费力,则可能安装不正确,此时请将内存调换方向后再次插入。
(2) 安装导风罩。将导风罩的边沿紧贴固定支架,垂直向下放入槽位,直至导风罩两端固定。
(3) 推回计算模块。缓缓用力推回计算模块,并闭合扳手,以锁定计算模块。
(4) (可选)安装标准存储控制卡。重新连接线缆到标准存储控制卡,并将标准存储控制卡安装到计算模块。
(5) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(6) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
请通过以下任意方式查看显示的内存容量与实际是否一致。
· 操作系统:
¡ Windows操作系统下,点击开始 > 运行,输入msinfo32,在弹出的页面查看内存容量。
¡ Linux操作系统下,可通过cat /proc/meminfo命令查看。
· HDM:
登录HDM Web界面,查看内存容量。具体操作请参见HDM联机帮助。
· BIOS:
选择Socket Configuration页签 > Memory Configuration > Memory Topology,然后按Enter,即可查看内存容量。
如果显示的内存容量与实际不一致,请重新插拔或安装内存。需要注意的是,当内存的内存模式为Mirror Mode或开启了Memory Rank Sparing时,操作系统下显示的内存容量比实际内存容量小属于正常情况。
硬盘背板故障。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸服务器前部的所有硬盘。按下硬盘面板按钮,硬盘扳手自动打开,然后从槽位中拔出硬盘。
(4) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(5) 拆卸所有风扇模块。向上翻起风扇模块的提手,握住提手将风扇模块向上提出,使其脱离服务器。
(6) 拆卸风扇笼。
a. 解锁风扇笼。向上翻起螺钉的弹片,握持弹片沿逆时针方向将固定螺钉旋转180°,以解锁固定螺钉。通过该方法,依次解锁风扇笼的三个固定螺钉。
b. 向上抬起风扇笼,使其脱离机箱。
(7) 拆卸硬盘背板。
a. 断开硬盘背板上的所有线缆。
b. 拧开硬盘背板上的松不脱螺钉。
c. 向上提起硬盘背板使其从机箱上解锁,然后将硬盘背板取出。
(1) 安装硬盘背板。
a. 将硬盘背板放入槽位,然后向下滑动硬盘背板,使其固定在机箱上。
b. 然后拧紧背板上的松不脱螺钉。
c. 连接硬盘背板上的所有线缆。
(2) 安装已拆卸的所有硬盘。
(3) 安装风扇笼。
a. 将风扇笼向下放入槽位。
b. 固定风扇笼。握持弹片,向下按压的同时沿顺时针方向将螺钉旋转180°,以拧紧固定螺钉。通过该方法,依次拧紧风扇笼的三个固定螺钉。
c. 翻下所有固定螺钉的弹片。
(4) 安装已拆卸的所有风扇模块。握持风扇提手,将风扇向下放入槽位。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(6) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
从12LFF硬盘配置扩容为24LFF硬盘配置。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸所有前部假面板。使用细工具(如尖头镊子)穿过假面板右侧的散热孔,将假面板右侧撬起,然后顺势将假面板取出。
(4) 拆卸所有硬盘。解锁硬盘扳手,然后将硬盘从槽位中拔出。
(5) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(6) 拆卸所有风扇模块。向上翻起风扇模块的提手,握住提手将风扇模块向上提出,使其脱离服务器。
(7) 拆卸风扇笼。
a. 解锁风扇笼。向上翻起螺钉的弹片,握持弹片沿逆时针方向将固定螺钉旋转180°,以解锁固定螺钉。通过该方法,依次解锁风扇笼的三个固定螺钉。
b. 向上抬起风扇笼,使其脱离机箱。
(8) 拆卸12LFF硬盘背板。
a. 断开硬盘背板上的所有线缆。
b. 拧开硬盘背板上的松不脱螺钉。
c. 向上提起硬盘背板使其从机箱上解锁,然后将硬盘背板取出。
(9) 安装24LFF硬盘扩展板。
a. 将硬盘背板放入槽位,然后向下滑动硬盘背板,使其固定在机箱上。
b. 然后拧紧背板上的松不脱螺钉。
c. 连接硬盘背板上的所有线缆。
(10) 安装风扇笼。
a. 将风扇笼向下放入槽位。
b. 固定风扇笼。握持弹片,向下按压的同时沿顺时针方向将螺钉旋转180°,以拧紧固定螺钉。通过该方法,依次拧紧风扇笼的三个固定螺钉。
c. 翻下所有固定螺钉的弹片。
(11) 安装已拆卸的所有风扇模块。握持风扇提手,将风扇向下放入槽位。
(12) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(13) 安装硬盘。将硬盘推入硬盘槽位,直到推不动为止,然后闭合硬盘扳手。
(14) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
电源转接板故障。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) (可选)如果已安装标准存储控制卡,请拆卸标准存储控制卡,并断开标准存储控制卡上的所有线缆。
(5) 拉出计算模块。
a. 解锁计算模块。按下计算模块的解锁按钮,扳手会自动弹出。
b. 拉出计算模块。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
(7) 拆卸电源转接板。
a. 移除电源转接板的所有固定螺钉。
b. 向上提起电源转接板,使其脱离服务器。
(1) 安装电源转接板。将电源转接板水平放置到电源转接板槽位上,并用螺钉固定。
(2) 推回计算模块。缓缓用力推回计算模块,并闭合扳手,以锁定计算模块。
(3) (可选)安装标准存储控制卡。重新连接线缆到标准存储控制卡,并将标准存储控制卡安装到计算模块。
(4) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(5) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
介绍CPU主板(以下简称主板)的详细更换步骤。
主板故障。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸所有电源模块,按下电源模块弹片的同时,握持电源模块后部的拉手将电源模块从槽位中拔出。
(4) (可选)如果安装了OCP网卡,请拆卸OCP网卡,拧开OCP网卡的松不脱螺钉,然后将OCP网卡从槽位中拔出。
(5) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(6) (可选)如果已安装标准存储控制卡,请拆卸标准存储控制卡,并断开标准存储控制卡上的所有线缆。
(7) 完全拉出计算模块。
a. 半拉出计算模块。按下计算模块的解锁按钮,扳手会自动弹出。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
b. 断开计算模块的坦克链与机箱之间的连接。拧开坦克链机箱端的松不脱螺钉,然后将坦克链固定扣向机箱前方滑动,使坦克链从机箱壁上解锁。
c. 断开坦克链线缆。断开坦克链中连接到CPU主板的所有线缆。。
d. 完全拉出计算模块。将计算模块两壁的固定弹片向中心拉出,同时继续将计算模块向后拉出,直至达到计算模块可以拉出的最大行程。
(8) (可选)拆卸超级电容。
(9) 拆卸导风罩。按住导风罩两侧的按钮,同时向上抬起导风罩。
(10) 拆卸所有内存。
(11) 拆卸所有CPU。
(12) 安装CPU底座上的盖片。向下放置盖片,然后按压盖片两个对角,使其固定在CPU底座上。
(13) 拆卸所有电源转接板。
(14) 拆卸系统电池。
(15) 拆卸Mezz存储控制卡。
(16) 拆卸所有SATA M.2 SSD卡。
(17) 拆卸所有风扇模块。
(18) 拆卸风扇笼。
a. 解锁风扇笼。向上翻起螺钉的弹片,握持弹片沿逆时针方向将固定螺钉旋转180°,以解锁固定螺钉。通过该方法,依次解锁风扇笼的三个固定螺钉。
b. 向上抬起风扇笼,使其脱离机箱。
(19) 断开主板上连接的所有线缆。
(20) 拆卸机箱两侧挡线板。
a. 将开箱检测模块线缆从挡线板中移出。
b. 同时掰开挡线板的两个固定扣,并向上提起挡线板。
(21) (可选)若前部硬盘背板上的线缆会阻碍主板拆卸,请将阻碍操作的线缆从硬盘背板上断开,并移出机箱。
(22) 拆卸主板。
a. 拧开主板上的松不脱螺钉。
b. (可选)移除或整理阻碍主板拆卸的线缆。
c. (可选)整理坦克链,避免坦克链阻碍主板拆卸。
d. 拆卸主板。由于主板上的部分接口(如USB接口、网口)嵌入在机箱中,需要将主板向机箱前方拉出一段距离,再向上抬起主板。
(23) 拆卸所有通流铜柱。翻转主板,移除主板底部的通流铜柱固定螺钉,以拆卸通流铜柱。
(1) 将拆卸的所有通流铜柱安装到新主板。将通流铜柱一端紧贴主板上的方孔,在主板反面用螺钉固定通流铜柱。
(2) 安装主板。
a. 将主板缓缓向下放置到机箱中,并向机箱后方推入,使主板上的接口(如USB接口、网口)嵌入到位。
b. 拧紧主板上的松不脱螺钉。
c. 将移除的线缆连接到原位置。
d. 整理坦克链,使坦克链向机箱前方伸直,以免推回计算模块时造成阻碍。
(3) 安装机箱两侧挡线板。将挡线板的两个固定扣,对准机箱壁的两个固定位点。使挡线板紧贴机箱壁向下滑动,直至挡线板固定在机箱壁上。
(4) 连接主板上的所有线缆。
(7) 安装风扇笼。
a. 将风扇笼向下放入槽位。
b. 固定风扇笼。握持弹片,向下按压的同时沿顺时针方向将螺钉旋转180°,以拧紧固定螺钉。通过该方法,依次拧紧风扇笼的三个固定螺钉。
c. 翻下所有固定螺钉的弹片。
(8) 安装所有风扇模块。握持风扇提手,将风扇向下放入槽位。
(9) 安装SATA M.2 SSD卡。
(10) 安装Mezz存储控制卡。
(11) 安装系统电池。
(12) 安装所有电源转接板。
(13) 拆卸CPU底座上盖片。握持盖片,然后向上拿起盖片。
(14) 安装CPU和散热器。
(15) 安装所有内存。
(16) 安装导风罩。将导风罩的边沿紧贴固定支架,垂直向下放入槽位,直至导风罩两端固定。
(17) (可选)安装超级电容。
(18) 推回计算模块。
a. 缓缓用力推回计算模块到半程位置。
b. 连接坦克链线缆。将断开的坦克链线缆重新连接至主板。
c. 连接坦克链。将坦克链的固定扣连接到机箱侧壁的固定位点,并向机箱后方滑动,使其固定,然后拧紧坦克链的松不脱螺钉。
d. 完全推回计算模块,并闭合扳手,以锁定计算模块。
(19) (可选)安装标准存储控制卡。重新连接线缆到标准存储控制卡,并将标准存储控制卡安装到计算模块。
(20) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(21) (可选)安装已拆卸的OCP网卡,将OCP网卡推入槽位,并拧紧网卡上的松不脱螺钉。
(22) 安装已拆卸的电源模块,先摆正电源模块,此时电源模块上的风扇位于电源模块左侧。将电源模块推入槽位,直到听见咔哒一声。
(23) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
GPU节点板位于GPU计算模块内部,节点板上包含多个PCIe插槽,用于支持GPU卡、存储控制卡、和网卡等部件。
GPU节点板故障。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) 拆卸GPU计算模块上的所有PCIe卡。
(5) 拆卸中间支架。
a. (可选)若有线缆穿过中间支架的走线孔,阻碍了中间支架的拆卸,请先将线缆移除。
b. 拧开中间支架的所有松不脱螺钉,然后向上抬起支架。
(6) 断开GPU节点板上连接的所有线缆。
(7) 断开坦克链与计算模块的连接。拧开坦克链的松不脱螺钉,然后将坦克链固定扣向机箱前方滑动,使坦克链从计算模块上解锁。
(8) 拆卸GPU节点板。
a. 拆卸节点板上的小挡风板。移除小挡风板的固定螺钉,然后向上抬起小挡风板。请妥善保管已拆卸的小挡风板,以备后续使用。
b. 移除节点板的所有固定螺钉,然后向上抬起节点板,使其脱离计算模块。
(1) 安装节点板。
a. 使节点板上的导向孔对准计算模块内的导向销,将节点板放入槽位,并用螺钉固定。
b. 安装小挡风。使用螺钉将已拆卸的小挡风板重新固定到新的节点板上。
(2) 连接坦克链。将坦克链的固定扣连接到计算模块的固定位点,并向机箱后方滑动,使其固定,然后拧紧坦克链的松不脱螺钉。
(3) 连接GPU节点板上的所有线缆。
(4) 安装中间支架。
a. 使支架两侧的导向孔对准计算模块上的导向销,将支架放入槽位,并拧紧支架的松不脱螺钉。
b. (可选)将之前移除线缆,重新穿过中心支架的走线孔。
(5) 安装计算模块上已拆卸的所有PCIe卡。若服务器配置了标准存储控制卡,则对应的线缆需要穿过中间支架的走线孔,再连接至标准存储控制卡。
(6) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(7) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
缺省情况下,服务器主板上已配置系统电池(型号为Panasonic BR2032)。一般情况下,系统电池寿命为3至5年。
出现以下情况时,请更换系统电池。建议用户选择的电池型号为Panasonic BR2032。
· 电池故障。
· 电池电力消耗完毕,服务器不再自动显示正确的日期和时间。
电池故障或电力消耗完毕,会导致BIOS恢复为缺省设置。更换电池后,如有需要,请重新设置BIOS,具体方法请参见产品的BIOS用户指南。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) (可选)如果已安装标准存储控制卡,请拆卸标准存储控制卡,并断开标准存储控制卡上的所有线缆。
(5) 拉出计算模块。
a. 解锁计算模块。按下计算模块的解锁按钮,扳手会自动弹出。
b. 拉出计算模块。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
(6) 拆卸系统电池。向外轻掰电池的同时,将电池从槽位中取出。
拆卸下来的系统电池,请弃于专门的电池处理点,勿随垃圾一起丢弃。
(1) 安装系统电池。保持电池“+”极面向电池槽外侧,“﹣”极靠向槽位内侧,然后将电池插入槽位中。
(2) 推回计算模块。缓缓用力推回计算模块,并闭合扳手,以锁定计算模块。
(3) (可选)安装标准存储控制卡。重新连接线缆到标准存储控制卡,并将标准存储控制卡安装到计算模块。
(4) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(5) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
智能挂耳故障。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查插槽或连接器,确保针脚没有损坏(比如针脚弯曲、连接器上有异物)。
服务器两侧智能挂耳的更换方法相同,本文以一侧为例,介绍智能挂耳的更换步骤。
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) 拆卸所有风扇模块。向上翻起风扇模块的提手,握住提手将风扇模块向上提出,使其脱离服务器。
(5) 拆卸风扇笼。
a. 解锁风扇笼。向上翻起螺钉的弹片,握持弹片沿逆时针方向将固定螺钉旋转180°,以解锁固定螺钉。通过该方法,依次解锁风扇笼的三个固定螺钉。
b. 向上抬起风扇笼,使其脱离机箱。
(6) (可选)拆卸开箱检测模块。若拆卸的是左侧智能挂耳(面向服务器前部),请先拆卸开箱检测模块。
a. 移除开箱检测模块固定支架的固定螺钉,然后从机箱壁上取下固定支架。
b. 从固定支架上取出开箱检测模块。
c. 将开箱检测模块的线缆从挡线板中移出。
(7) 从主板上断开智能挂耳线缆。
(8) 拆卸机箱外壁的线缆保护盖。
a. 移除保护盖的所有固定螺钉。
b. 将线缆保护盖向下滑动,然后取下。
(9) 拆卸智能挂耳。
a. 移除智能挂耳的所有固定螺钉。
b. 将智能挂耳上的所有线缆从线缆固定夹中取出。
c. 取下智能挂耳,并将挂耳上连接的线缆一同移出机箱。
(1) 安装智能挂耳。
a. 将智能挂耳的线缆从机箱壁上的走线孔送入机箱,并将处于机箱外侧的线缆固定到线缆固定夹中。
b. 将智能挂耳紧贴机箱安装到挂耳槽位中,并用螺钉固定。
(2) 安装线缆保护盖。
a. 将线缆保护盖一端卡入槽位,然后紧贴机箱壁向上滑动,使其固定在机箱上。
b. 拧紧线缆保护盖的所有固定螺钉。
(3) 连接挂耳线缆到主板。
(4) (可选)安装已拆卸的开箱检测模块。
a. 将开箱检测模块的线缆移入挡线板。
b. 将开箱检测模块嵌入开箱检测模块固定支架。
c. 对准固定支架上的导向孔与机箱上导向销,将固定支架装到机箱上,然后用螺钉固定。
a. 将风扇笼向下放入槽位。
b. 固定风扇笼。握持弹片,向下按压的同时沿顺时针方向将螺钉旋转180°,以拧紧固定螺钉。通过该方法,依次拧紧风扇笼的三个固定螺钉。
c. 翻下所有固定螺钉的弹片。
(6) 安装已拆卸的所有风扇模块。握持风扇提手,将风扇向下放入槽位。
(7) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(8) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
介绍TPM/TCM模块的详细安装步骤,以及如何开启TPM/TCM模块功能。
扩容TPM/TCM模块。
· 请提前做好防静电措施:穿上防静电工作服;正确佩戴防静电腕带并良好接地;去除身体上携带的易导电物体(如首饰、手表)。
· 更换部件前,请检查是否已拆除机箱两侧的运输螺钉,确保拆除后,才能拉出计算模块。
· TPM/TCM是内置在主板上的微芯片,拥有独立的处理器和存储单元,用于存储加密信息(如密钥),为服务器提供加密和安装认证服务。TPM需要与驱动器加密技术配合使用,如Microsoft Windows BitLocker驱动器加密技术,BitLocker使用TPM帮助保护Windows操作系统和用户数据,并确保服务器中的数据即使在无人参与、丢失或被盗的情况下也不会被篡改,关于BitLocker的更多信息,请访问Microsoft网站(http://www.microsoft.com)。
· TPM/TCM模块是可信计算平台的硬件模块,为可信计算平台提供密码运算功能,具有受保护的存储空间。
开启TPM/TCM功能的流程如图6-1所示。
图6-1 开启TPM/TCM功能流程
(2) 拆卸服务器,具体步骤请参见3.6 拆卸R5300 G3。
(3) 拆卸机箱盖。
a. 使用T15 Torx星型螺丝刀解锁机箱盖扳手上的螺钉,按下扳手上的解锁按钮并掰起扳手,,此时机箱盖会自动向机箱后方滑动。
b. 向上抬起机箱盖。
(4) (可选)如果已安装标准存储控制卡,请拆卸标准存储控制卡,并断开标准存储控制卡上的所有线缆。
(5) 拉出计算模块。
a. 解锁计算模块。按下计算模块的解锁按钮,扳手会自动弹出。
b. 拉出计算模块。向上掰起扳手,然后将计算模块向服务器后方拉出,直至锁定。
(6) 安装TPM/TCM模块。
a. 将TPM/TCM模块安装到TPM/TCM模块插槽。
b. 按住模块连接器上方,对准模块上的销钉孔,向下插入销钉。
c. 对准销钉上的铆钉孔,向下缓缓用力插入铆钉。
(7) 推回计算模块。缓缓用力推回计算模块,并闭合扳手,以锁定计算模块。
(8) (可选)安装标准存储控制卡。重新连接线缆到标准存储控制卡,并将标准存储控制卡安装到计算模块。
(9) 安装机箱盖。
a. 向下机箱盖放置,使机箱盖扳手处的孔对准机箱中的定位销。
b. 闭合机箱盖扳手,然后使用T15 Torx星型螺丝刀锁定扳手上的螺钉。
(10) 安装服务器,具体步骤请参见3.4.2 安装R5300 G3。
(1) 进入BIOS,具体步骤请参见产品的BIOS用户指南。
(2) 服务器缺省开启支持TPM/TCM功能,在BIOS中开启或禁用TPM/TCM功能的具体方法请参见产品的BIOS用户指南。
(3) 登录HDM Web界面,查看TPM/TCM模块工作状态是否正常。详细信息请参见HDM联机帮助。
在操作系统中设置加密技术的详细信息请参见操作系统提供的加密技术文档。
有关Microsoft Windows BitLocker驱动器加密技术的详细信息,请访问Microsoft网站(http://technet.microsoft.com/en-us/library/cc732774.aspx)获取。开启BitLocker驱动器加密技术时,系统会自动生成恢复密钥,您可将该密钥打印或保存到外部存储设备中。系统启动过程中,当BitLocker检测到系统完整性受损或软硬件变更时,数据访问将处于锁定状态,需要用户手动输入该恢复密钥。为确保安全性,保管恢复密钥过程中请注意:
· 为避免恢复密钥丢失,请将密钥保存到多个外部存储设备(例如U盘)中,形成备份。
· 请勿将恢复密钥保存到加密硬盘中。
· 禁止拆卸已安装的TPM/TCM模块。一旦安装后,TPM/TCM模块就会成为主板的永久组成部分。
· 为确保信息安全,安装或更换其他部件时,仅用户可以开启TPM/TCM功能或输入恢复密钥,H3C技术人员不能执行上述操作。
· 更换主板时,请勿从主板上拆卸TPM/TCM模块。当用户需要更换主板或更换TPM/TCM模块时,H3C技术人员将提供新的TPM/TCM模块和备用主板。
· 试图从主板上拆卸已安装的TPM/TCM模块,可能会毁坏或损伤TPM/TCM固定铆钉。一旦发现铆钉毁坏或损伤,管理员应认为系统已受损,请采取适当的措施确保系统数据的完整性。
· H3C对于因TPM/TCM模块使用不当而导致无法访问数据的问题不承担任何责任。更多操作说明请参见操作系统提供的加密技术文档。
· 禁止用户自行拆卸TPM/TCM模块,否则可能会毁坏或损伤TPM/TCM模块的固定铆钉,从而导致系统受损。
· 当您怀疑TPM/TCM模块故障时,请拆卸带有故障TPM/TCM模块的主板,并联系H3C技术人员更换主板和TPM/TCM模块。
介绍各部件的线缆连接方法。
服务器内部布线图,可应用于如下场景:
· 扩容或更换部件后,指导线缆连接。
· 线缆松动或脱落,指导线缆复位。
· 线缆保护套破损或线缆故障,指导线缆更换。
服务器内部布线时,请关注如下事项:
· 线缆不能走线到可插拔部件的上方,比如内存上方。
· 线缆走线不能阻碍其他部件的插拔,和机箱内任何组件没有干涉。
· 确保线缆走线清晰,并且有自己的固定空间,不会被机箱内结构件挤压或刮擦。
· 线缆走线时,尽量不要拉扯连接器。
· 当过多线缆同时使用线扣固定时,请适当调整线缆数量,避免过多线缆拉扯线扣,造成线扣脱落。
· 线缆过长时建议适当绑扎。当前不用的线缆,建议将其盘绕整理,用线扣固定。
· 硬盘数据线缆连接时,听到咔嗒声,说明连接到位。
· 如果线缆连接器上有保护套,线缆连接前,请先移除保护套。
· 如果线缆自带标签不能充分区分各根线缆时,可通过增加工艺标签来标识线缆。
· 配置一:8LFF SAS/SATA硬盘连接到Mezz存储控制卡,数据线缆连接方法如图7-1所示。
图7-1 12LFF硬盘背板连接到Mezz存储控制卡
· 配置二:8LFF SATA硬盘连接到主板上的SlimSAS接口,线缆连接方法如图7-2所示。
图7-2 12LFF硬盘背板连接到RSTe板载软RAID
· 配置三:8LFF SAS/SATA硬盘连接到标准存储控制卡,数据线缆连接方法如图7-3所示。
图7-3 12LFF硬盘背板连接到标准存储控制卡
4LFF NVMe硬盘数据线缆连接方法如图7-4所示。
图7-4 连接4LFF NVMe硬盘数据线缆
需要注意的是,连接NVMe数据线缆时,线缆上的标签需要与硬盘背板、主板上的SlimSAS接口一一对应,具体对应关系请参见表7-1。
表7-1 连接NVMe数据线缆的对应关系
硬盘背板上的接口 |
NVMe数据线缆上的标签 |
主板上的SlimSAS接口 |
|
硬盘背板端 |
主板端 |
||
(1):NVMe1 |
NVMe1 |
NVMe B1/B2 |
(5):SlimSAS接口B1/B2 |
(2):NVMe2 |
NVMe2 |
NVMe B1/B2 |
|
(3):NVMe3 |
NVMe3 |
NVMe B3/B4 |
(6):SlimSAS接口B3/B4 |
(4):NVMe4 |
NVMe4 |
NVMe B3/B4 |
电源线的连接方法如图7-5所示。
图7-5 连接12LFF硬盘电源线缆
需要注意的是,连接电源线缆时,线缆上的标签需要与硬盘背板、主板上的接口一一对应,具体对应关系请参见表7-2。
线缆编号 |
硬盘背板上的接口 |
电源线缆上的标签 |
主板上的电源接口 |
|
硬盘背板端 |
主板端 |
|||
1 |
PWR1 |
BP PWR |
MB PWR1 |
PWR1 |
2 |
PWR2 |
BP PWR |
MB PWR2 |
PWR2 |
3 |
PWR3 |
BP PWR |
MB PWR3 |
PWR3 |
AUX信号线的连接方法如图7-6所示。
图7-6 连接12LFF硬盘AUX信号线缆
· 配置一:24LFF SAS/SATA硬盘数据线缆连接到Mezz存储控制卡上,线缆连接方法如图7-7所示。
图7-7 连接24LFF SAS/SATA硬盘数据线缆到Mezz存储控制卡
· 配置二:24LFF SAS/SATA硬盘数据线缆连接到标准存储控制卡上,线缆连接方法如图7-8所示。
图7-8 连接24LFF SAS/SATA硬盘数据线缆到标准存储控制卡
8LFF NVMe硬盘数据线缆连接方法如图7-9所示。
连接NVMe数据线缆时,线缆上的标签需要与硬盘背板、主板上的SlimSAS接口、LP SlimSAS接口一一对应,具体对应关系请参见表7-3。
表7-3 NVMe数据线缆的连接位置对应关系
硬盘背板上的接口 |
NVMe数据线缆上的标签 |
主板上的SlimSAS接口或LP SlimSAS接口 |
|
硬盘背板端 |
主板端 |
||
(1):NVMe-A3/A4 |
NVMe-A3/A4 |
NVMe-A1/A2/A3/A4 |
(7):LP SlimSAS接口M1 |
(2):NVMe-A1/A2 |
NVMe-A1/A2 |
NVMeA AUX |
(8):NVMe AUX接口 |
(3):NVMe-B1/B2 |
NVMe-B1/B2 |
NVMe-B1/B2 |
(5):SlimSAS接口B1/B2 |
(4):NVMe-B3/B4 |
NVMe-B3/B4 |
NVMe-B3/B4 |
(6): SlimSAS接口B3/B4 |
4LFF NVMe硬盘数据线缆连接方法如图7-10所示。
图7-10 连接4LFF NVMe硬盘数据线缆
连接NVMe数据线缆时,线缆上的标签需要与硬盘背板、主板上的SlimSAS接口一一对应,具体对应关系请参见表7-4。
表7-4 NVMe数据线缆的连接位置对应关系
硬盘背板上的接口 |
NVMe数据线缆上的标签 |
主板上的SlimSAS接口 |
|
硬盘背板端 |
主板端 |
||
(3):NVMe-B1/B2 |
NVMe-B1/B2 |
NVMe-B1/B2 |
(5):SlimSAS接口B1/B2 |
(4):NVMe-B3/B4 |
NVMe-B3/B4 |
NVMe-B3/B4 |
(6): SlimSAS接口B3/B4 |
电源线的连接方法如图7-11所示。
需要注意的是,连接电源线缆时,线缆上的标签需要与硬盘背板、主板上的接口一一对应,具体对应关系请参见表7-5。
线缆编号 |
硬盘背板上的接口 |
电源线缆上的标签 |
主板上的电源接口 |
|
硬盘背板端 |
主板端 |
|||
1 |
PWR1 |
BP PWR |
MB PWR1 |
PWR1 |
2 |
PWR2 |
BP PWR |
MB PWR2 |
PWR2 |
3 |
PWR3 |
BP PWR |
MB PWR3 |
PWR3 |
AUX信号线的连接方法如图7-12所示。
图7-12 连接AUX信号线缆
AI场景下8GPU计算模块的数据和AUX信号线缆的连接方法如图7-13所示。
图7-13 连接8GPU-AI数据和AUX信号线缆
连接8GPU计算模块线缆时,线缆上的标签需要与GPU计算模块、主板上的LP SlimSAS接口一一对应,具体对应关系请参见表7-6。
表7-6 8GPU计算模块线缆连接对应关系
主板上的接口 |
线缆上的标签 |
8GPU节点板上的接口 |
线缆连接要求(必选/可选) |
线缆连接作用 |
|
主板端 |
8GPU节点板端 |
||||
(1):GPU计算模块AUX接口 |
MB AUX |
GPU AUX |
(5):GPU AUX |
必选 |
传输GPU AUX信号 |
(2):LP SlimSAS接口M6 |
M1/M6 |
N1/N6 |
(4):LP SlimSAS接口N6 |
可选 |
使PCIe slot3可用 |
(3):LP SlimSAS接口M5 |
M1/M5 |
N2/N5 |
(8):LP SlimSAS接口N2 |
可选 |
使PCIe slot2可用 |
(11):LP SlimSAS接口M1 |
M1/M6 |
N1/N6 |
(9):LP SlimSAS接口N1 |
可选 |
使PCIe slot1可用 |
(12):LP SlimSAS接口M3 |
M3/M5 |
N3/N5 |
(10):LP SlimSAS接口N3 |
必选 |
使GPU卡可用 |
- |
- |
N4和N5,即无需连接到主板,仅需要连接节点板上的2个接口 |
(6):LP SlimSAS接口N4 连接到 (7):LP SlimSAS接口N5 |
必选 |
使GPU卡可用 |
· 表中线缆并非全部需要连接,用户可根据实际需求连接线缆。 · 值得注意的是,N4和N5之间的线缆编码为0404A16J,该线缆仅用于8GPU-AI配置方案。 |
HPC场景下,8GPU计算模块的数据线缆和AUX信号线缆的连接方法如图7-14所示。
图7-14 连接8GPU-HPC数据线缆和AUX信号线缆
连接8GPU计算模块线缆时,线缆上的标签需要与GPU节点板、主板上的LP SlimSAS接口一一对应,具体对应关系请参见表7-7。
表7-7 8GPU计算模块线缆连接对应关系
主板上的接口 |
线缆上的标签 |
8GPU节点板上的接口 |
线缆连接要求(必选/可选) |
作用 |
|
主板端 |
GPU节点板端 |
||||
(1):GPU计算模块AUX接口 |
MB AUX |
GPU AUX |
(4):GPU AUX |
必选 |
传输GPU信号 |
(2):LP SlimSAS接口M6 |
M1/M6 |
N1/N6 |
(5):LP SlimSAS接口N6 |
可选 |
使PCIe slot 3可用 |
(3):LP SlimSAS接口M5 |
M1/M5 |
N2/N5 |
(7):LP SlimSAS接口N5 |
必选 |
使GPU卡可用 |
(11):LP SlimSAS接口M1 |
M1/M6 |
N1/N6 |
(9):LP SlimSAS接口N1 |
可选 |
使PCIe slot 1可用 |
(12):LP SlimSAS接口M3 |
M3/M5 |
N3/N5 |
(10):LP SlimSAS接口N3 |
必选 |
使GPU卡可用 |
- |
- |
N2和N4,即无需连接到主板,仅需要连接节点板上的2个接口 |
(8):LP SlimSAS接口N2 连接到 (6):LP SlimSAS接口N4 |
可选 |
使PCIe slot 2可用 |
表中线缆并非全部需要连接,用户可根据实际需求连接线缆。 |
16GPU计算模块的数据和AUX信号线缆的连接方法如图7-15所示。
图7-15 连接16GPU数据和AUX信号线缆
连接16GPU计算模块线缆时,线缆上的标签需要与GPU计算模块、主板上的LP SlimSAS接口丝印一一对应,具体对应关系请参见表7-6。
表7-8 16GPU计算模块线缆的连接位置对应关系
主板上的接口 |
线缆上的标签 |
16GPU节点板上的接口 |
线缆连接要求(必选/可选) |
作用 |
|
主板端 |
节点板端 |
||||
(1):GPU AUX |
MB AUX |
GPU AUX |
(4):GPU AUX |
必选 |
传输GPU信号 |
(2):PCIe M6 |
M6 |
N6 |
(5):PCIe N6 |
必选 |
使GPU卡可用 |
(3):PCIe M5 |
M5 |
N5 |
(6):PCIe N5 |
必选 |
使GPU卡可用 |
(9):PCIe M1 |
M1 |
N1 |
(7):PCIe N1 |
必选 |
使GPU卡可用 |
(10):PCIe M3 |
M3 |
N3 |
(8):PCIe N3 |
必选 |
使GPU卡可用 |
GPU卡电源线缆需要连接到对应的GPU节点板上对应的电源接口,本文以GPU卡安装到slot 8为例。
图7-16 连接GPU卡电源线缆
超级电容需安装在导风罩上的超级电容盒内,线缆连接方法如图7-17所示。
图7-17 连接Mezz存储控制卡的超级电容线缆
图7-18 连接标准存储控制卡的超级电容线缆
智能挂耳线缆包含:前面板I/O组件线缆、VGA和USB 2.0接口线缆,线缆连接方法如图7-19所示。
图7-19 连接智能挂耳线缆
(1):前面板I/O组件线缆 |
(2):VGA和USB 2.0接口线缆 |
介绍刀片服务器的日常维护方法。
· 刀片服务器所在机房应保持整洁,温度和湿度符合服务器运行要求,机房内不放置无关设备和物品。
· 定期通过HDM或OM检查刀片服务器的健康状态,如果不健康,则需要立即检查并排除故障。
· 了解操作系统和应用软件最近的更新情况,并根据需求更新软件。
· 制定可靠的备份计划。
¡ 根据刀片服务器的运行情况,定时备份数据。
¡ 如果数据频繁改变则需随时备份。
¡ 定时检查备份以确保数据保存正确。
· 现场保留一定数量的备件,以便部件出现故障时可及时更换。备件使用后,请及时补充。
· 为方便解决组网方面的问题,请保存最新的网络拓扑图。
· 通过温湿度计监控刀片服务器运行环境。
· 通过HDM和OM监控刀片服务器运行状态。
介绍刀片服务器的日常维护任务操作和操作方法。
日常维护任务如表8-1所示。
任务 |
所需工具 |
/ |
|
温湿度计 |
|
/ |
|
/ |
|
/ |
检查刀片服务器前后面板上的所有指示灯状态是否正常。关于指示灯的详细说明,请参见2.5.2 指示灯和按钮和2.6.2 后面板指示灯。
请使用温湿度计测量机房温度和湿度,确保温湿度控制在服务器的工作范围内。关于服务器工作和贮存环境温湿度要求,请参见2.2.2 技术参数。
· 查看刀片服务器的健康状态、运行状态、上电状态等状态信息,具体操作请参见OM联机帮助的“状态诊断”章节。
· 查看刀片服务器各子系统的基本状态信息,具体操作请参见HDM联机帮助的“基本状态”章节。
收集刀片服务器日志信息的具体操作请参见《OM日志信息参考》的“如何获取日志信息”章节或OM联机帮助的“日志收集”章节。
升级刀片服务器HDM、BIOS、CPLD等部件固件版本的具体操作请参见《H3C UniServer B16000刀片机箱 升级指导》。
R5300 G3服务器包括3种GPU配置方案:8GPU-AI(GPU:CPU=8:1)、8GPU-HPC(GPU:CPU=4:1)、16GPU。
(1) 用户可以首先观察GPU节点板,判断服务器是8GPU配置方案还是16GPU配置方案。GPU节点板的布局参见2.7.2 1. 16GPU节点板布局和2.7.2 2. 8GPU节点板布局
(2) 如果服务器是8GPU配置方案,可以再观察GPU节点板上N4和N5接口之间的连线,若有如图9-1所示线缆(编码为0404A16J),则为8GPU-AI配置方案,若无此线缆则为8GPU-HPC方案。
图9-1 8GPU-AI线缆示意图
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!